|
Definitionen
Sichtweise
|
Definition
|
Allgemein
|
Ein Unterschied, der einen Unterschied ausmacht. ( Gregory Bateson )
|
In der Antike
|
lat. Informatio, In Form bringen, oder "Bildung durch Unterweisung"
|
Thermodynamik
|
Kenntnis der unterscheidbaren Mikrozustände eines Systems.
(Entropie = Mass fehlender Information über Mikrozustände).
|
Informatik
|
Nachricht, die für Empfänger decodierbar und neu ist. (Shannon )
(= minimale Anzahl Bits, um Ausgabe einer Quelle zu speichern.)
|
Klassische Physik
|
Ungleichförmige Veränderung jeder Art in Raum und Zeit.
(Information erscheint als Grundgrösse der Veränderlichkeit).
|
Quantenphysik
|
Quanteninformation : Mögliche Zustände zusammengesetzter Quantensysteme
|
Physikalische Zeit
|
Relatives Abstandsmass zwischen Ereignissen, oder
relative Zustandsänderung physikalischer Systeme
|
Mathematik
|
Information als kleinste Anzahl von Entscheidungen zwischen
gleichwahrscheinlichen Möglichkeiten.
|
Statistik
|
Information als Reduzierung von Ungewissheit, als das "Nicht-Zufällige"
|
Physik-O-Sophie
|
Unterscheidbar abgeteilte Energie oder Beziehungs-Symmetrie
(Phil. "Sein und Werden der unendlich dynamischen Symmetrie.")
|
Kurze Geschichte zur Information
Obenstehende Definitionen lassen erkennen, dass sich im Lauf der Geschichte das
Verständnis des Begriffes "Information" gewandelt hat, und gegenwärtig viel darüber
diskutiert wird. In der Antike wurde der Begriff auf recht praktische, materielle Dinge
angewandt. Wurde ein Metall "informiert", so bedeutete das einfach die Ausformung
zu einem Gegenstand, wie zum Beispiel zu einem Schild oder zu einem Arbeitsgerät.
Viele Jahrhunderte später wurden mit der Entwicklung von Wärmekraftmaschinen die
Grundlagen der Thermodynamik erkannt. Diese führten zu einem neuen Verständnis
über Information, als Kenntnis über die unterscheidbaren Zustände eines Systems.
Der Zustand eines Systems kann jedoch mit zunehmender Messgenauigkeit in immer
kleinere Einheiten aufgeteilt werden. In der klassischen Physik enthält jeder Zustand,
bei theoretisch unendlich genauer Messgenauigkeit, unendliche Informationsmengen.
Daher ist nur die Differenz des Informationsgehaltes, zwischen dem Anfangszustand
und dem Endzustand eines physikalischen Vorganges, messbar. Die Information hat
folglich die Gestalt einer unendlichen, nur relativ bestimmbaren Grösse angenommen.
Mit der Entwicklung der Nachrichtentechnik und der Datentechnik war es wieder mal
an der Zeit, die Bedeutung von "Information" neu zu definieren. Mit einer unendlichen
Grösse konnte man hier nichts anfangen. Die Informatik erfordert die Lesbarkeit und
die Transferierbarkeit, von genau bestimmbarer Information. Die Informationstheorie
Shannons definierte daher die Information neu, vom Standpunkt der Verwendbarkeit :
Eine Nachricht besteht aus Information, Redundanz, Rauschen, Wissen.
Information : Nachricht, die für Empfänger decodierbar und neu ist.
Redundanz : Teil einer Nachricht, die für den Empfänger nicht neu ist.
Rauschen : Eine Nachricht, die für einen Empfänger nicht decodierbar ist.
Wissen : Kausal interpretierte ( d.h. begründete ) Information.
Daten : Sammelbegriff für eine Menge an Informationselementen.
Gemäss Shannons Informationstheorie sind meine Aussagen weniger Informationen als
vielmehr Redundanzen. Ich beziehe mich auf eine Vielzahl bereits erforschter Fragen,
und stelle dieses Wissen nur in einem neuen Zusammenhang dar. Die obenstehende
Wiedergabe verschiedener Definitionen mag vielen Lesern bereits bekannt sein, und
damit als Redundanz gelten. Die "echte" Information dieser Seiten wird demnach nur
durch den neuen Zusammenhang meiner Aussagen und die neuen Ideen repräsentiert.
Auf Shannons Arbeit ruht immerhin die "klassische" Datenverarbeitung, welche vom
Handy bis zum Grossrechner, für den heutigen Alltag enorme Bedeutung erlangt hat.
Ungeachtet dieser Erfolge, zeichnet sich mit der Entwicklung der Quanteninformatik
wieder ein erneuertes Verständnis über den Begriff "Information" ab.
Die gegenwärtige Definition versteht unter Quanteninformation die in Quantensystemen
vorhandene Information, die nicht mit den Gesetzen der klassischen Informationstheorie
beschrieben werden kann. Die klassische Informationstheorie basiert auf der Vorstellung
von eindeutigen, zuneinander unabhängigen Informationseinheiten. (Üblicherweise Bits.)
In der Quanteninformatik tritt dagegen die Vorstellung von mehrdeutigen, untereinander
abhängigen Informationseinheiten in den Vordergrund. ( Die Quantenbits, oder "QuBits" )
Die Quanteninformation verleiht der Information zusätzlich eine innere Dynamik. An Stelle
des statischen Bit tritt das dynamische Qubit, welches "schon mal Null und auch mal Eins"
sein kann. Die Bedeutung der Information wandelt sich von einem "bestimmten Zustand"
zu einem "wahrscheinlichen Zustandswechsel".
Innerhalb elektronischer Speichermedien wird Information meistens durch den
Zustand vieler einzelner Speicherzellen repräsentiert. Diese Art der Speicherung
legt die grundsätzliche Vorstellung von ganzzahligen, und genau lokalisierbaren
Informationseinheiten nahe. ( z.B. Bits als optische Strichmuster auf einer CD. )
Dieses Modell liefert zwar die Grundlage der "klassischen" Datenverarbeitung,
ist aber nur die halbe Wahrheit, was die verfügbaren Speicherverfahren betrifft.
In der Natur finden wir ein zweites, gegensätzliches Verfahren. Die Gesetze der
Optik zeigen uns zwei grundsätzliche Modelle, um Informationen zu codieren.
Beleuchtet man einen Gegenstand, dann werden den Lichtwellen bekanntlich
Informationen über die Struktur des Gegenstandes aufgeprägt. Der Verlauf
der Lichtwellenfronten enthält Information über die Ausdehnung des Objektes.
Diese Information ist als Phasenunterschied, oder als Amplitudenunterschied
der Lichtwellenfronten codiert.
Sowohl der Phasenunterschied, als auch der Amplitudenunterschied können
die Information repräsentieren. Es kommt nur darauf an, welche Eigenschaft
gemessen wird. Die Messung der Amplitudenverteilung liefert z.B. eine Fotographie.
Die Messung der Phasenverteilung liefert dagegen ein Hologramm.
Betrachten wir Licht als Teilchen ("Amplituden"), dann erhalten wir auf einer
Fotoplatte genau lokalisierbare Bildpunkte. Diese Punkte entsprechen der
klassischen Vorstellung über lokalisierbare Information. ("Hier ist das Bit.")
Betrachten wir Licht dagegen als Welle ("Phasen"), dann erhalten wir auf
einer Fotoplatte mehr oder weniger scharfe Interferenzmuster. Nun ist die
Information kaum mehr lokalisierbar. Sie ist vielmehr ist in den Abständen
der Wellenmuster codiert. ("Hier und dort ist das Bit verteilt.")
Holographische Information
Die holographische ("vollständig Schreibende") Speicherung von Information
ermöglicht die Zerlegung von ganzen Informationseinheiten (Bits) in gewisse
Bruchteile. Entfernt man einen Abschnitt eines Hologrammes, dann geht nicht
etwa ein Teil des Bildes verloren, sondern das gesamte Bild wird unschärfer.
Holographische Information wird also nicht "klassisch" gelöscht, sondern nur
immer undeutlicher erkennbar. Im Bereich der Quanteninformation treffen wir
eine sehr ähnliche Situation an. An Stelle des klassisch sicheren Wissen über
den Zustand eines Objektes tritt hier das "wahrscheinliche Wissen". Wir finden
in der Quantenwelt -wie auch in der Holographie- gewisse Bruchteile von Bits.
Es scheint so, dass die Natur auf Quantenebene Informationen holographisch
speichert. Die holographische Codierung beschränkt sich jedoch nicht nur auf
Quantensysteme, sondern wurde auch innerhalb neuronaler Netze erkannt.
Der Mensch speichert zum Beispiel verschiedene Klassen von Informationen
(Sprache, Musik, Bilder, Bewegungen, etc, ) innerhalb verschiedener Bereiche
des Gehirns ab. Obwohl diese Gehirnstrukturen eine grobe räumliche Zuordnung
zu gewissen Datenklassen erlauben, ist es unmöglich, bestimmte Informationen
innerhalb einzelner Neuronen exakt zu lokalisieren. Die Information wird nämlich
nicht von dem Zustand eines einzelnen Neurons, sondern "holographisch" über
die Verbindungswege vieler Neuronen repräsentiert. Erst das Zusammenspiel,
bzw. die "Überlagerung" verschiedener Gehirnfunktionen führt zum Erkennen
bestimmter Informationen.
Diese Art der Codierung ist auch in der Natur sehr verbreitet. Für Lebewesen ist
es entscheidend, aus vielen komplexen Sinneseindrücken sehr schnell bestimmte
Informationen zu gewinnen. Und die "holographische" Codierung und Dekodierung
der Information ermöglicht dem Gehirn genau die schnelle und leistungstarke Datenver
arbeitung, an welcher klassische Computer bisher scheitern. (-> Bilderkennung).
Eine Hypothese
In der analytischen Wissenschaft wird gegenwärtig in erster Linie nach "klassisch
lokalisierbarer" Information gesucht. Viele Beobachtungen in der Natur können
aber erst richtig verstanden werden, wenn man gleichzeitig nach "holographisch
codierter" Information sucht. Es wurde zum Beispiel festgestellt, dass flüssiges
Wasser auf einzel-molekularer Ebene Informationen nur sehr kurzfristig speichern
kann. (Stabilität von Wasserstoff-Brückenbindungen). Dennoch lassen z.B. die
Ergebnisse der Homöopathie darauf schliessen, dass Informationen noch auf
andere Art im Wasser gespeichert werden können. (->Molekülclusterbildung ?)
Hier ist möglicherweise eine unbekannte, "holographische" Information im Spiel.
Die weitere Forschung auf dem Gebiet der Quantenmechanik wird wahrscheinlich
die umfassende Bedeutung der holographisch codierten Information in der Natur
noch zeigen. Verschränkte Quantensysteme und holographische Speicher zeigen
"wahrscheinliche Information" als einen wesentlichen Bestandteil der Natur. Wir
sollten vielleicht einräumen, dass analytisches Denken nicht der Weisheit letzter
Schluss ist. ( vgl. Folgerungen aus der "unendlich dynamischen Symmetrie ).
Holographische Codierung
Innerhalb elektronischer Speichermedien wird Information meistens durch den
Zustand der einzelnen Speicherzellen repräsentiert. Diese Art der Speicherung
legt die grundsätzliche Vorstellung von ganzzahligen, und genau lokalisierbaren
Informationseinheiten nahe. ( z.B. Bits als optische Strichmuster auf einer CD. )
Dieses Modell liefert zwar die Grundlage der "klassischen" Datenverarbeitung,
ist aber nur die halbe Wahrheit, was die verfügbaren Speicherverfahren betrifft.
In der Natur finden wir ein zweites, gegensätzliches Verfahren. Die Gesetze der
Optik zeigen uns zwei grundsätzliche Modelle, um Informationen zu codieren.
Beleuchtet man einen Gegenstand, dann werden den Lichtwellen bekanntlich
Informationen über die Struktur des Gegenstandes aufgeprägt. Der Verlauf
der Lichtwellenfronten enthält Information über die Ausdehnung des Objektes.
Diese Information ist als Phasenunterschied, oder als Amplitudenunterschied
der Lichtwellenfronten codiert.
Sowohl der Phasenunterschied, als auch der Amplitudenunterschied können
die Information repräsentieren. Es kommt nur darauf an, welche Eigenschaft
gemessen wird. Die Messung der Amplitudenverteilung liefert z.B. eine Foto-
graphie. Die Messung der Phasenverteilung liefert dagegen ein Hologramm.
Betrachten wir Licht als Teilchen ("Amplituden"), dann erhalten wir auf einer
Fotoplatte genau lokalisierbare Bildpunkte. Diese Punkte entsprechen der
klassischen Vorstellung über lokalisierbare Information. ("Genau hier ist das Bit.")
Betrachten wir Licht dagegen als Welle ("Phasen"), dann erhalten wir auf
einer Fotoplatte mehr oder weniger scharfe Interferenzmuster. Nun ist die
Information kaum mehr lokalisierbar. Sie ist vielmehr ist in den Abständen
der Wellenmuster codiert. ("Hier und dort ist das Bit verteilt.")
Holographische Information
Die holographische ("vollständig Schreibende") Speicherung von Information
ermöglicht die Zerlegung von ganzen Informationseinheiten (Bits) in gewisse
Bruchteile. Entfernt man einen Abschnitt eines Hologrammes, dann geht nicht
etwa ein Teil des Bildes verloren, sondern das gesamte Bild wird unschärfer.
Holographische Information wird also nicht "klassisch" gelöscht, sondern nur
immer undeutlicher erkennbar. Im Bereich der Quanteninformation treffen wir
eine sehr ähnliche Situation an. An Stelle des klassisch sicheren Wissen über
den Zustand eines Objektes tritt hier das "wahrscheinliche Wissen". Wir finden
in der Quantenwelt -wie auch in der Holographie- gewisse Bruchteile von Bits.
Es scheint so, dass die Natur auf Quantenebene Informationen holographisch
speichert. Die holographische Codierung beschränkt sich jedoch nicht nur auf
Quantensysteme, sondern wurde auch innerhalb neuronaler Netze erkannt.
Der Mensch speichert zum Beispiel verschiedene Klassen von Informationen
(Sprache, Musik, Bilder, Bewegungen, etc, ) innerhalb verschiedener Bereiche
des Gehirns ab. Obwohl diese Gehirnstrukturen eine grobe räumliche Zuordnung
zu gewissen Datenklassen erlauben, ist es unmöglich, bestimmte Informationen
innerhalb einzelner Neuronen exakt zu lokalisieren. Die Information wird nämlich
nicht von dem Zustand eines einzelnen Neurons, sondern "holographisch" über
die Verbindungswege vieler Neuronen repräsentiert. Erst das Zusammenspiel,
bzw. die "Überlagerung" verschiedener Gehirnfunktionen führt zum Erkennen
bestimmter Informationen.
Diese Art der Codierung ist auch in der Natur sehr verbreitet. Für Lebewesen ist
es entscheidend, aus vielen komplexen Sinneseindrücken sehr schnell bestimmte
Informationen zu gewinnen. Und die "holographische" Codierung und Dekodierung
der Information ermöglicht dem Gehirn eine schnelle und leistungstarke Datenver-
arbeitung, an welcher klassische Computer bisher scheitern. (-> Bilderkennung).
Eine Hypothese
In der analytischen Wissenschaft wird gegenwärtig in erster Linie nach "klassisch
lokalisierbarer" Information gesucht. Viele Beobachtungen in der Natur können
aber erst richtig verstanden werden, wenn man gleichzeitig nach "holographisch
codierter" Information sucht. Es wurde zum Beispiel festgestellt, dass flüssiges
Wasser auf einzel-molekularer Ebene Informationen nur sehr kurzfristig speichern
kann. (Stabilität von Wasserstoff-Brückenbindungen). Dennoch lassen z.B. die
Ergebnisse der Homöopathie darauf schliessen, dass Informationen noch auf
andere Art im Wasser gespeichert werden können. (->Molekülclusterbildung ?)
Hier ist möglicherweise eine unbekannte, "holographische" Information im Spiel.
Die weitere Forschung auf dem Gebiet der Quantenmechanik wird wahrscheinlich
die umfassende Bedeutung der holographisch codierten Information in der Natur
noch zeigen. Verschränkte Quantensysteme und holographische Speicher zeigen
"wahrscheinliche Information" als einen wesentlichen Bestandteil der Natur. Wir
sollten vielleicht einräumen, dass analytisches Denken nicht der Weisheit letzter
Schluss ist. ( vgl. Folgerungen aus der "unendlich dynamischen Symmetrie ).
Informationsverarbeitung
Der Mensch verarbeitet über Sinneswahrnehmungen die Informationen aus der Natur.
Die Informationen müssen in einer passenden physikalischen Form vorliegen, um die
Sinnesorgane anzusprechen. ( z.b. passende Wellenlänge des Lichtes, des Schalls).
Man sagt auch, die Information muss so repräsentiert sein, daß sie wahrnehmbar ist.
Jede Informationsverarbeitung erfolgt immer mittels einer bestimmten physikalischen
Repräsentation der Information. ( z.b. als elektrisches Feld, Druck, Licht, usw... ) Die
Repräsentation muss von einem verarbeitenden System zuerst interpretiert werden.
Interpretation ist die Zuordnung der Repräsentation zu einer Bedeutung, oder anders
formuliert, die Herstellung einer Beziehungssymmetrie zwischen Repräsentation und
Verarbeitungssystem. Das erfordert Wissen über verschieden interpretierbare Signale.
Die menschliche Spracherkennung liefert ein gutes Beispiel. Bevor Sprache verarbeitet
werden kann, muss eine Interpretation der gehörten Frequenzfolge als Wörter und Sätze
stattfinden. Ohne das Wissen über den verwendeten Sprachcode, und die Bedeutung der
Wörter, kann keine Informationsverarbeitung erfolgen. (Ausser vielleicht Achselzucken).
Elektronische Informationsverarbeitung
Auf elektronischer Schaltungsebene, werden Informationen als elektrische Spannungen
codiert. Diese Spannungszustände, die Repräsentationen der Information, lösen weitere
Spannungsveränderungen im Schaltungsbaustein aus. Diese Veränderungen erfolgen
nicht einfach willkürlich, sondern gehorchen den, im Baustein "fest verdrahteten", Regeln.
Auf elementarer Ebene bedeutet die Informationsverarbeitung einfach die Dynamik der
elektrischen Felder innerhalb eines Festkörpers. Man könnte sagen, auf dieser Ebene
wird nicht Information, sondern die Repräsentation von Information verarbeitet ! (Felder).
Informationsverarbeitung bedeutet hier die Umwandlung von Repräsentationen in andere
Repräsentationen. Wir könnten daher auch von "Repräsentationsverarbeitung" sprechen.
Diese Umwandlung kann dennoch nicht losgelöst von Information und Wissen stattfinden !
In der Elektronik muss genau festgelegt sein, was , wann , wie, umgewandelt werden soll.
Ohne das Wissen um die Gesetze des Verarbeitungsvorganges geht die Bedeutung der
der Information verloren. Ohne dieses Wissen, würde ein Schaltungsbaustein nur sinnlose
Codes produzieren. Und mit einem sinnlosen Code kann keine Informationsverarbeitung
fortgesetzt werden.
Hier zeigt sich das "Henne-Ei" Problem in der Informationstheorie. Was war zuerst da ?
Die Information, oder das Wissen über die Bedeutung, welches auch Information darstellt ?
Dies führt uns zu der Frage nach dem Ursprung der "Ur-Information" in den Naturgesetzen.
Ein bisher ungelöstes Problem, welches vielleicht theologisch verstanden werden könnte.
Information und Interpretation
Soll Information eine Wirkung vermitteln, so erfordert dies immer eine Interpretation. Eine
Information ohne Interpretation ist "tot", das bedeutet, ohne eine erkennbare Auswirkung.
Beispiel : Die Information von ägyptischen Hieroglyphen ist schön anzuschauen, aber für
den Laien zunächst tot. Erst die Interpretation durch einen Fachmann macht diese antike
Geschichte lebendig. Noch ein modernes Beispiel : Ein Film auf einer DVD oder CD
bleibt nur tote Information, solange keine Hardware und Software zum Abspielen bereit
steht. Hier ist ein De-Kompressions Programm ( CODEC ) erforderlich, um Information
zu Interpretieren, erst dann wird der Film für einen menschlichen Betrachter lebendig.
Brauchbare Information enthält also ausreichend Wissen zur gewünschten Interpretation.
Diese Interpretation kann verschiedene Redundanzen erzeugen. Redundanzen sind aber
wichtig, um die Information in verschiedenartig organisierten Systemen lesbar abzubilden.
Eine "gute" Information interpretiert sich dabei weitgehend selbst. ( "innere Harmonie" )
Das Paradebeispiel dazu sind die Erbinformationen (DNS) in biologischen Lebensformen.
In der Erbinformation von Lebewesen sind viele Informationen darüber enthalten, wie die
DNS zu lesen, anzuschalten, abzuschalten, und die jeweilige DNS Aktivität zu steuern ist.
Diese "Interpretationsanweisungen" ermöglichen dieser biologischen Information erst die
enorme Wirkung, welche zur Abbildung von dynamisch organisierten Lebensformen führt.
Informationsgewinn im semantischen Kontext
Der Informationsgehalt von Buchstaben kann durch geschickte Interpretation weiter
gesteigert werden. Buchstaben werden gewöhnlich zu Wörtern und Sätzen gruppiert.
Auf diese Weise sind zwischen den Wörtern und den Sätzen Assoziationen möglich,
welche den primären Informationsgehalt der einzelnen Buchstaben weit übersteigen.
Denken wir einmal an den Satz "Schrödingers Katze ist tot". Diese 23 Buchstaben
können auf ca.20 Phoneme ( Grundlaute ) reduziert werden, und tragen rechnerisch
eine Information von ca. 90 Bit. Die Beziehungen innerhalb des Satzes liefern jedoch
mehr Information als 90 Bit. Es könnte Milliarden Menschen, und hunderte Millionen
von Katzen, mit tausenden von Zuständen geben. 90 Bit reichen sicherlich nicht aus,
um diese Beziehung eindeutig herzustellen. (*) Das Wissen um Herrn "Schrödinger",
seine "Katze", und dem Zustand "tot" liefert die weitere, interpretierte Information.Der
Sinn und die Bedeutung einer Nachricht wird als sematischer Kontext bezeichnet.
Mit dem Speicherplatz von gut 90 Bit wären wir niemals in der Lage, ein noch so ein-
faches Bild von "Schrödingers toter Katze" zu zeichnen. Aber die Beziehung dieser
nur 90-100 Bit zum menschlichen Leser, liefert weitere "Meta-Information". Es heisst
nicht umsonst, "Man muss zwischen den Zeilen lesen können".
(*) Die Beziehungen zwischen den Buchstaben könnten als Adress-Information der
Buchstaben in einem Datenspeicher betrachtet werden. Damit erhält der Satz,
je nach Adressraum des Speichers, weitaus mehr als 90 Bit. (Daten+Adressen).
Folgerungen
Information erscheint in verschiedenen Ebenen :
1. Information als Zustandsmöglichkeit elementarer Systeme. (z.b. "Buchstaben")
Jedes Speicherelement enthält die Information der Naturgesetze, welche nicht
erzeugt oder vernichtet werden kann. ( Information als Erhaltungsgrösse ).
2. Information als Beziehung zwischen verschiedenen Systemen. (z.b. "Wörter")
Zwischen verschiedenen Speicherelementen ist Information oder Redundanz
oder Zufall realisiert. ( Information als veränderbare Ordnungsgrösse ).
Meta-Information
Interpretation erzeugt weitere Information, in den Beziehungen zwischen den Gruppen.
Diese "Meta-Information" bildet sich in weiteren Informationsträgen. ( z.b. im Gehirn )
- Interpretierte Information ist mehr als die Summe Ihrer Einzelteile !
- Sinn und Beziehungen zwischen Informationen bilden weitere Information.
- Diese "Meta-Information" kann erzeugt, verändert oder vernichtet werden.
- Der Informationsgehalt einer Nachricht ist vom "semantischen Kontext" abhängig.
Was ist Information noch ?
Information ist das, was nach optimalster Datenkompression als der Kern einer Sache
bestehen bleibt. Information ist also die wesentliche Ordnungsstruktur einer Sache.
Oder : Information erscheint als die bleibende Ordnung einer stetigen Veränderung.
Oder : Information ist "Sein und Werden" der unendlich dynamischen Symmetrie.
Die Merkmale von verwendbarer Information sind die Lesbarkeit und Interpretierbarkeit.
Interpretation bedeutet, eine Ordnung wird auf eine Form abgebildet. ( "In-FORM-iert" )
Der Begriff Information hinterlässt weiterführende Fragen :
1. Existiert Information ohne Informationsträger ?
2. Kann Information elementar erzeugt oder vernichtet werden ?
3. Bedeutet nicht erkennbare Information auch vorhandene Information ?
4. Kann Information sich selbst weiterentwickeln ?
5. Gibt es Information ohne Intelligenz ?
|