Einleitung:
Der Begriff der Information kristallisiert sich seit einigen Jahrzehnten als ein ähnlich grundlegender Begriff heraus, wie das die Begriffe Energie und Materie schon seit langem als Basis jeder Naturwissenschaft geworden sind. Dabei steht der Begriff Information an der Grenze zwischen den Naturwissenschaften und den Geisteswissenschaften und er kann vielleicht helfen, Gräben, die sich zwischen diesen Wissenschaftsbereichen aufgetan haben, zu überbrücken. Norbert Wiener, der Begründer der Kybernetik , hat dies auf den Punkt gebracht, als er sagte: „Information ist Information, weder Materie noch Energie. Kein Materialismus, der dies nicht berücksichtigt, kann heute überleben.“
Der Begriff Information scheint eine ähnliche Vereinheitlichung der Anschauungen zu bringen, wie sie der Begriff der Energie für die Physik des 19.Jahrhunderts gebracht hat. Allerdings müssen dazu noch einige Ungereimtheiten und Unklarheiten bereinigt werden, die im Begriff Information stecken. Vor allem der semantische Aspekt der Information, also die Bedeutung von Information, bereitet noch erhebliche Verständnisprobleme. Die Bedeutung von Information ergibt sich meist erst durch die Betrachtung des jeweiligen Zusammenhanges. Sie kann oft durch die Frage – Bedeutung für wen oder für was ? – geklärt werden.
Bedeutsame Information ist immer nichtzufällige Information. Zufällige Informationssequenzen sind bis auf Ihre Länge oder Ausdehnung bedeutungslos, im menschlichen Sinne sind sie geistlos. Deswegen ist die Unterscheidung zwischen Zufallsinformation und geordneter Information die erste und wichtigste Unterteilung im großen Reich der Informationen.
Information ist etwas anderes als Energie und Materie. Es ist eine Eigenschaft von Energie oder Materie. Betrachten wir zunächst das Wortfeld zum Thema Information und vergleichen es mit dem Wortfeld Energie und Materie.
Wortfeld zum Thema Information,Energie und Materie
Information
- Form,Muster,Struktur
- räumliche Strukturen z.B. Kristalle
- zeitliche Strukturen z.B. Rhythmen
- hierarchische Strukturen
- Bildinformation
- Toninformation
- Sprachinformation
- genetische Information
- Geist in Nervensystemen
- Zufallssequenz – nicht zufällige Sequenz
- Ordnung — Unordnung
- Entropie — Negentropie
- Beschreibbarkeit
- Komplexität
Energie
- mechanische Arbeit
- Bewegungsenergie
- Wärmeenergie
- elektrische Energie
- magnetische Energie
- potentielle Energie
- chemische Energie
- Atomenergie
Materie
- Feste Stoffe
- Flüssigkeiten
- Gase
- Plasma
- Elementarteilchen
- Atome
- Elemente
- Kristalle
- Verbindungen
- Lösungen
- Gemische
Kurze Definitionen von Information
In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information.
Information ist eine räumliche oder zeitliche Folge physikalischer Signale, die mit bestimmten Wahrscheinlichkeiten oder Häufigkeiten auftreten.
Alles, was man als Folge von 0 und 1 darstellen kann, ist Information
Information ist Gewinn an Wissen
Information ist beseitigte Ungewißheit
Information = Nachricht; Auskunft; Belehrung, Aufklärung.
Information = sich zusammensetzende Mitteilung, die beim Empfänger ein bestimmtes Verhalten bewirkt.
Zufallsinformation ist weitgehend bedeutungslos. Geist und Bedeutung findet sich nur in nichtzufälligen Strukturen und Informationssequenzen.
Information ist eine ganz besondere Entität des Seins. Sie ist weder Materie noch ist sie Energie, beide dienen lediglich als Träger von Information. Wenn ich Materie oder Energie weitergebe, dann besitze ich nachher die entsprechende Menge an Materie oder Energie weniger. Gebe ich aber Information weiter, dann kann ich sie nachher immer noch haben. Man kann Information beliebig vervielfältigen, ohne weitere Information aufnehmen zu müssen.
Wo steckt überall Information drin ?
Fangen wir mit der Erklärung des Begriffes Information zunächst mit leicht einsehbaren Aussagen aus dem heutigen Alltagsleben an.
Information im praktischen Alltag:
Information steckt in der Sprache, in der Schrift, in Büchern, auf Tonbändern, auf Disketten, in Zeitungen, im Rundfunk, im Fernsehen, in gemalten Bildern, in Fotos, in Verkehrszeichen, in der Farbe, in der Form, in der Temperatur, im Gesichtsausdruck, in der Telefonleitung, im Funkverkehr, im Erbgut, in den Nervenströmen, im Geschmack, im Geruch und in vielem anderen.
Wo findet man offensichtlich keine Information ?
Im Vakuum , daß heißt im luftleeren Raum, ist keine Information zu finden. Aber schon in der äußeren Form, die das Vakuum begrenzt, findet sich Information. Auch können physikalische Felder ein Vakuum durchkreuzen. In diesen Feldern steckt dann potentielle Information.
Steckt in einem Stein Information ?
Auch ein Stein kann Information tragen: in seiner Herkunft, in seiner chemischen Zusammensetzung, in Größe, Gewicht, Temperatur, in Form, Oberfläche,Farbe etc.
Informationsträger im weiteren Sinn sind Dinge, die nur über sich selber Auskunft geben. Dazu zählen beispielsweise Steine.
Informationsträger im engeren Sinne sind Dinge, die von Lebewesen zur Übertragung oder Speicherung von Information genutzt werden können. So kann man beispielsweise mehrere kleine Steine zum Abzählen benutzen.
Was kann als Informationsträger dienen ?
Schallwellen, elektromagnetische Wellen, Lichtwellen, Schrift, Materiestruktur und Stoffkonzentrationen sind Beispiele für Informationsträger.
Zum Thema Informationsträger existiert ein zentrales Dogma der Informationstheorie und dieser lautet: Information ohne Informationsträger gibt es nicht.
Vielleicht kommt dieses Dogma mit der postulierten Existenz von Infonen nochmal auf den Prüfstand.
Die Gretchenfrage der Informationstheorie lautet also : Gibt es Beispiele für reine, nackte Information ohne Informationsträger ? Kann man diese Frage mit Ja beantworten, dann wäre auch die Existenz eines reinen Geistwesens denkbar. Bislang ist sie zu verneinen.
Welche Anforderungen sind an Informationsträger zu stellen ?
- Sie müssen abgelesen werden können.
- Sie müssen zuverlässig sein.
- Sie müssen Bestand haben.
- Sie dürfen nicht überschreibbar sein.
- Sie müssen überschreibbar sein.
In den zwei letzten Anforderungen scheint ein Widerspruch zu stecken. Dieser Widerspruch löst sich aber auf, wenn man weiß, wozu man einen Informationsträger benutzen will. Braucht man ihn als immer wieder zu benutzende Arbeitsumgebung, dann muß er löschbar sein. Braucht man ihn, um ein Dokument zu bewahren, dann sollte er nicht löschbar sein.
Beispiele für löschbare und neu beschreibbare Informationsträger: Schiefertafel, Musikkassetten, RAM
Beispiele für nicht neu beschreibbare Informationsträger: in Stein gehauene Schrift, Schallplatte, CD, ROM
Die Begriffe RAM und ROM kommen aus der Computertechnik und heißen
- Random Access Memory = RAM = beliebig beschreibarer und löschbarer Arbeitsspeicher,
- Read Only Memory = ROM = nur lesbarer Speicher.
Ein großes Problem ist mittlerweile das Altern von Informationsträgern geworden . Nicht nur Bücher auch digitale Speichermedien sind einem Alterungsprozeß unterworfen . Durch diesen Prozeß kann es zu einer Zerstörung von wichtigen Informationen kommen.
Dieselbe Information kann auf völlig verschiedenen Informationsträgern transportiert oder gespeichert werden.
Ein Beispiel:
Aus einem Eisenbahnfahrplan wird eine Information gelesen.
- Die Information steckt in den gedruckten Buchstaben des Fahrplans.
Über das reflektierte Licht wird die Information zum Auge übertragen:
- Die Information steckt in den elektromagnetischen Lichtwellen .
Über die Augen wird dies Information aufgenommen.
- Information in Sinneszellen der Augen und in den Nerven Zellen der Sehbahn.
Die abglesene Uhrzeit soll einem anderen Menschen übers Telefon mitgeteilt werden.
- Information wird auf die Muskelzellen des Kehlkopfes übertragen.
Die Information wird mittels Schallwellen weitergeleitet.
- Die Information steckt in den Luftschwingungen.
Das gesprochene Wort wird in einem Telefonhörer in elektrische Signale umgewandelt.
- Die Information steckt in den elektromagnetischen Schwingungen.
Im Telefonhörer des Empfängers wird die Information wieder in Schallwellen umgewandelt .
- Die Information steckt in den Luftschwingungen.
Die Schallwellen aus dem Telefonhörer werden vom Trommelfell auf die Gehörknöchelchen weitergegeben.
- Die Information steckt in den mechanischen Bewegungen der Gehörknöchelchen.
Von den Gehörknöchelchen wird die Information auf das Wasser der Gehörschnecke übertragen.
- Die Information steckt in den Wasserwellen.
Von der Gehörschnecke wird die Information auf die Haarzellen übertragen.
- Die Information steckt in den Ausschlägen verschiedener Haarzellen.
Von den Haarzellen gehts weiter über die Nervenzellen der Gehörbahn ins Gehirn
- Die Information steckt in den Entladungen der Nervenzellen und den chemischen Überträgerstoffen der Synapsen.
Vom Gehirn wird die Information zu Hand weitergeleitet und auf ein Papier aufgschrieben.
- Die Information steht auf dem Papier:
„Ich komme morgen abend mit dem Zug um 18 Uhr 32 bei dir an!“
Was kann man mit Information alles machen ?
- Information kann neu entstehen.
- Information kann vermehrt werden
- Information kann kopiert werden
- Information kann übertragen werden
- Information kann gespeichert werden.
- Information kann verändert werden
- Information kann verbessert werden
- Information kann konzentriert werden
- Information kann gefiltert werden
- Information kann verloren gehen
- Information kann vernichtet werden
- Information kann verfälscht werden
Wo wird Information neu produziert ?
Abbildungs- und Aufzeichnungsinstrumente
- Fotoapparate
- Bücher
- Zeitungen
- Untersucher
- Forscher
Menschliche Kreativitätsquellen
- Komponisten
- Erfinder
- Geschichtenerzähler
- Maler
- Bildhauer
- die belebte Natur
- die unbelebte Natur: zb Kristallisation
Biologische Kreativitätsquellen
- Erbgut
- Kopierer der DNS
- Zeugung, Wachstum
- Evolutionierer : Variation
- http://www.unifr.ch/spc/UF/97juin/gossauer.html
Anorganische Strukturbildung ( = Kreativität ?)
- Kristallisation
- Bildung chemischer Verbindungen
Wo wird Information vernichtet ?
Informationsverringerung
- Altern
- Sterben
- Krieg ( „Der Vater aller Dinge ??“)
- Vergessen
- Verdauung
- Verfall
- Recycling von Papier und anderen Informationsträgern
- Aussterben von Arten
- Selektion
- Standardisierung
Welche Arten von Information gibt es ?
Wortfeld Information
- Form,Muster,Struktur
- räumliche Strukturen z.B. Kristalle
- zeitliche Strukturen z.B. Rhythmen
- hierarchische Strukturen
- Bildinformation
- stehendes Bild
- Film
- Toninformation
- Sprachinformation
- Schriftinformation
- biologische Information
- genetische Information
- Eiweißstruktur
- Information in Hormonsystemen
- Information in Nervensystemen
- krankmachende Information
- tödliche Information
- Mathematische Informationen
- Ordnung — Unordnung
- Entropie — Negentropie
- Zufallssequenz – nicht zufällige Sequenz
- Beschreibbarkeit
- Komplexität
Digitale Information – Analoge Information
Daten:
Digitalisierte Informationen bezeichnet man auch als Daten. Das heißt, sie sind zerlegt in eine Reihe von „Ja-Nein-Entscheidungen“ oder Nullen und Einsen. Will man eine Informationsmenge betrachten , ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen .
Dateien:
Dateien sind gespeicherte Daten. Dateien können ausführbar sein oder nur Informationen enthalten.
Programme:
Programme bestehen aus einer oder mehreren Dateien, von denen mindestens eine ausführbar ist. Programme ermöglichen die Arbeit am Computer, denn sie enthalten Arbeitsanweisungen.
Es gibt falsche und richtige Informationen.
Es gibt teilweise richtige Informationen.
Es gibt neue und alte Informationen.
Es gibt bekannte und unbekannte Informationen.
Es gibt konkrete und abstrakte Informationen.
Es gibt Zufallsinformationen und geordnete , nicht zufällige Informationen
In jedem Informationsverabeitenden System gibt es Informationssequenzen , die erheblichen Schaden anrichten können bzw den Zusammenbruch des Informationsverarbeitenden Systems zur Folge haben.
Außerhalb des Informationssystems sind diese Sequenzen ziemlich harmlos , innerhalb des Systems haben sie große , in diesem Fall schädliche Bedeutung. Es müssen also sehr spezielle Sequenzen sein , die genau zu dem betroffenen System passen und es ausnutzen.
Beispiel :
Computer:
- Viren in einem Betriebssystem : zerstörend
- Derselbe Virus auf einem anderen Betriebssystem : harmlos
- Befehl del /s *.* auf Dosebene
- Befehl rm -R * unter Linux zerstörend, unter Dos harmlos
Biologie:
- Eine Spezies wird von einem tödlichen Virus befallen , der für eine verwandte Art ziemlich harmlos oder völlig unschädlich ist.
Siehe : http://www.bsi.de/
+++ Künstlicher Virus bis 2006 +++
Wissenschaftler des Institute for Genomic Research (TIGR), dessen Präsident „Gen-Papst“ Craig Venter ist, wollen binnen der nächsten fünf Jahre einen künstlichen Virus bauen. Der Leiter des Minimal Genome Project, Clyde Hutchinson, kündigte dieses Vorhaben auf der Jahrestagung der American Association for the Advancement of Science an. Solche Designer-Viren könnten eingesetzt werden, um Medikamente zu produzieren oder zur Heilung benötigte Gene in den Körper von Patienten zu transportieren. Auch in anderen Bereichen sieht Hutchinson Anwendungsmöglichkeiten: etwa dem Entgiften verseuchter Böden oder der Schädlingsbekämpfung. Kritiker befürchten, dass dadurch auch neue Biowaffen erzeugt werden. Auf der Tagung betonten Wissenschaftler, dass gefährliche Mikroorganismen bereits bei konventionellen Experimenten versehentlich erzeugt worden sind. Zudem gebe es genügend tödliche Erreger in der Natur, so dass Entwickler von Biowaffen nicht auf künstliche Viren warten müssten.
- Http://www.aaas.org/meetings/2001/6051.00.htm
- Http://www.tigr.org/minimal/
- Http://www.heise.de/tp/deutsch/special/leb/4980/1.html
Nach Einführung der Computer ist bald klar geworden, daß Systeme,die nur mit zwei unterschiedlichen Zuständen arbeiten wie Nein und Ja, An und Aus oder 0 und 1, für die Bearbeitung durch Computer am besten geeignet sind. Und so hat man bald eine weitere Basisaussage der Informationstheorie formuliert: Es ist der Satz von der Digitalisierbarkeit.
Alles, was man als Folge von 0 und 1 darstellen kann, ist Information.
Auch folgende Einschränkung dieses Satzes kann man wohl als richtig akzeptieren. Information ist nur das, was man als Folge von Null und Eins darstellen kann. Oder stimmt das nicht ?
Digitalisierung heißt also Darstellung als Folge von 0 und 1, oder allgemeiner: Darstellung in Form von Zahlenwerten.
Erst mit der massenhaften Einführung von CD-Platten als Musikmedium ist vielen Menschen diese Speicherungsmöglichkeit von Information als einfache Kette von 0 und 1 klar geworden. Dennoch bleibt es vielen Leuten unverständlich, wie man so etwas schönes wie Musik in so eine banale Folge aus Nullen und Einsen bringen kann. Will man es ketzerisch kommentieren, so kann man sagen: Schönheit ist digitalisierbar.
Es gibt ruhende, fixierte Information und es gibt aktive, gerade gelesene oder übertragene Information.
Es gibt potentielle = mögliche Information und aktuelle = tatsächliche Information. So steckt in einer Münze vor dem Werfen potentielle Information. Nach dem Werfen wird sie zu aktueller Information.
Wichtige Informationen sollte man immer mindestens doppelt aufbewahren. Dies bemerkten übrigens schon Herr Watson und Herr Crick, als sie die DNS entlang wendelten.
Information ist eine austauschbare Größe, die eng mit der Energie und Entropie verknüpft ist. Sie reduziert die Unbestimmtheit des Zustandes eines Systems.
Die Informationsübertragung zwischen zwei Systemen ist immer mit Energie- und Entropieübertragung verknüpft. Dabei kann allerdings mit relativ wenig Energie viel Information übertragen werden ( z.B. Telefonnetz). Andererseits kann mit der Übertragung von viel Energie relativ wenig Informationstransport verknüpft sein ( zB Starkstromnetz der Überlandleitungen). Information und Energie sind nur in Ausnahmefällen direkt proportional.
Information gibt es nur in Systemen, die mehrere mögliche Zustände einnehmen können.
Quantitative Beschäftigung mit dem Begriff Information
Heute wird Information wissenschaftlich auch definiert als die Abweichung einer Signalverteilung vom statistischen Durchschnitt unabhängig von jeglichem Inhalt. In diesem Sinne ist also ein Folge von Zeichen, die man nicht lesen kann, die aber nicht zufällig hingestreut ist, als eine Information erkennbar, obwohl ihr Inhalt zunächst unbekannt bleibt.
Man muß also unterscheiden: Die Informationsmenge, die man messen kann, und den Informationsgehalt, der schwerer quantifizierbar ist. Will man Informationsmengen betrachten , ganz unabhängig von ihrer Bedeutung, sollte man besser von Datenmenge sprechen, das deckt sich besser mit dem allgemeinen Verständnis von Information. Information ohne Bedeutung ist in der Alltagsvorstellung schwer verständlich zu machen.
Die kleinste Informationseinheit = Dateneinheit kann man sich unabhängig von einem speziellen Inhalt oder einer bestimmten Bedeutung vorstellen als eine Entscheidung zwischen zwei gleichberechtigten Wahlmöglichkeiten.
Die kleinste Informationseinheit ist das Bit. Bit ist die Kurzform für Binary digit , bedeutet also Binärzahl oder Zahl aus dem Zweiersystem. Man kann auch sagen, eine Binärzahl ist eine Zahl, die nur aus Einsen und Nullen besteht. Die Information, die in einer Ja-Nein Entscheidung steckt, ist ein Bit.
binär = digital = Zahl aus 0 und 1 bestehend
Ein Informationsspeicher mit 1 Bit Speicherkapazität hat also nur einen Speicherplatz mit 2 Möglichkeiten
- zb besetzt oder leer
- an und aus
- Kerbe oder keine Kerbe .
In einer Münze steckt die Zufallsinformation ein Bit, wenn sie geworfen wird, denn es wird ja die Entscheidung zwischen 2 Möglichkeiten getroffen.
Wenn man jemanden an einer Weggabel nach dem richtigen Weg fragt, enthält die Antwort meist die Informationsmenge ein Bit, nämlich die Auswahl rechts oder links. Auch hier wieder ist die Informationsmenge unabhängig von ihrem Inhalt, denn die Antwort könnte auch falsch sein. Keine Information enthält die Antwort, wenn der Gefragte den richtigen Weg nicht weiß.
Die größten Informationsmengen stecken in unserem Gehirn, in unseren Bibliotheken, Büchern, Filmen, Bildern und Computern, im Erbgut und den Molekülstrukturen der belebten Natur, in den Gesetzen der unbelebten und belebten Natur, in der Struktur des gesamten Weltraumes und die maximal denkbare Information in der Geschichte des gesamten Weltraumes.
1 Bit (binary digit) ist eine „Ja-Nein-Entscheidungen“, für „Ja“ (Strom) wird die Zahl 1 gesetzt für „Nein“ (kein Strom) die 0.
1 Byte umfaßt die Länge eines speicherbaren Zeichens und besteht aus 8 Bits. Alle 8 Bit gleichzeitig betrachtet ergeben –je nach Zustand- eine Reihe von Einsen und Nullen. Insgesamt sind 256 verschiedene Zustände möglich. Jedem dieser Zustände wird z.B. durch den ASCII-Code ein Zeichen eindeutig zugeordnet. z.B. 01000001 entspricht dem A bzw. 01100010 dem B.
1 Byte = 8 Bit = 2^3Bit
1 Kilobyte 1 KB = 2^10 Byte 1 024 Byte
1 Megabyte 1 MB = 2^20 Byte 1 048 576 Byte
1 Gigabyte 1 GB = 2^30 Byte 1 073 741 824 Byte
Das ^ – Zeichen ist das Hoch Zeichen . Meistens kann man es auch im Textformat angeben:
Beispiel: 2^3 = 2hoch3 = 23 = 2*2*2 = 8
Wer mit der Informationsmenge rechnen will, der sollte sich mit dem Logarithmus auskennen, denn es gilt:
Information I = lg2 Z (bit)
Die Informationsmenge I ist gleich dem Logarithmus zur Basis 2 der Zahl Z der möglichen Ereignisse.
Bei obiger Grafik macht eine Darstellung des Logarithmus im negativen Bereich keinen Sinn. Die blaue Kurve sollte also erst bei Z = 1 beginnen.
Außerdem sind eigentlich nur Punkte mit ganzzahligem Z Wert auf der blauen Linie bedeutungsvoll.
Aus der Informationsmenge kann man auch zurückschließen auf die Zahl Z der zugrundeliegenden möglichen Ereignisse:
0 bit => Z = 1 da lg2 1 = 0 , da 20 = 1
1 Bit => Z = 2 da lg2 2 = 1 , da 21 = 2
8 bit = 1 Byte => Z = 256 , da lg2 256 = 8 , da 28 = 2*2*2*2*2*2*2*2 = 256
1 Kilobyte = 1kB = 2hoch10Byte = 210Byte = 1024Byte= 8 * 1024 Bit = 8192 Bit= ca 1000 Byte
Bei 1 kB ist die Zahl Z der möglichen Erreignisse bereits riesig groß : 1,09074813561941592946298424473 * 10hoch2466 = 2hoch8192
1 Megabyte = 1 MB = 2hoch20Byte = 220Byte = 1048576 Byte = 8 * 1048576 Bit = 8388608Bit = ca 1 Mio Byte
1 Gigabyte = 1 GB = 2hoch30Byte = 230Byte = 1073741824 Byte = 8* 1073741824 Bit = 8589934592 bit = ca 1 Milliarde Byte
Die Zahl Z kann man auch bestimmen, wenn man weiß, wieviele Ja – Nein Entscheidungen notwendig sind, um aus einer gegebenen Zahl von Möglichkeiten genau eine einzige zu wählen.
Warum ist ein Kilobyte = 1024 Byte und nicht 1000 Byte ?
Tabelle zum Vergleich der Zahlensysteme
Dezimal | Binär | Hexadezimal |
Stellen | Stellen | Stellen |
3210 | 9876543210 | 210 |
0 | 0 | 0 |
1 | 1 | 1 |
2 | 10 | 2 |
3 | 11 | 3 |
4 | 100 | 4 |
5 | 101 | 5 |
6 | 110 | 6 |
7 | 111 | 7 |
8 | 1000 | 8 |
9 | 1001 | 9 |
10 | 1010 | A |
11 | 1011 | B |
12 | 1100 | C |
13 | 1101 | D |
14 | 1110 | E |
15 | 1111 | F |
16 | 10000 | 10 |
17 | 10001 | 11 |
31 | 11111 | 1F |
32 | 100000 | 20 |
63 | 111111 | 3F |
64 | 1000000 | 40 |
255 | 11111111 | FF |
256 | 100000000 | 100 |
1000 | 1111101000 | 3E8 |
10n | 2n | 16n |
Im Binärsystem sind viel mehr Stellen nötig als im Zehner – oder Hexadezimalsystem. Im Hexadezimalsystem findet sich in einer Stelle die Information von 4 Binärstellen. Hexzahlen = 16erZahlen sind sehr leicht in Binärzahlen umzurechnen und deswegen sehr beliebt.
Natürlich kann man Information nicht nur als Folge von 0 und 1 darstellen, sondern man kann auch andere Darstellungsarten = Codes benutzen. So erhält man dann eine Abwandlung des obigen Lehrsatzes : Alles was codierbar ist, ist Information. Zu fragen ist dann natürlich: Ist jegliche Information codierbar ? Gibt es nichtcodierbare Informationen ?
Was ist überhaupt ein Code ?
Beispiel eines Codes :
Oft verläuft eine Codierung auf verschiedenen Ebenen ab. Als Beispiel einer solchen stufenweisen Codierung kann man unsere gesprochene Sprache anführen:
- Laut oder Buchstabe
- Silbe
- Wort
- Satz
- Wort
- Silbe
Als Beispiel einer stufenweisen Computercodierung kann man anführen:
- Codierung eines Buchstabens im ANSI Code
- ( ANSI Code=genormte Zahlendarstellung von Buchstaben)
- Codierung des ANSI Codes in einer Folge von 0 und 1
Weitere verbreitete Codes sind das Morsealphabet und die Brailleschrift.
Obwohl für die Messung von Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert. So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.
Berühmte Codierer ( Verschlüsseler )
Berühmte Decodierer ( Entschlüsseler )
Zufallsinformation und geordnete Information
Wenn man die drei Basisbegriffe der heutigen Naturwissenschaften Materie ( = Stoff), Energie ( = Strahlung ) und Information( = Struktur) betrachtet , kann man fragen, wie der Begriff Information in weitere Subkategorien untergliedert werden kann.
Die erste und wichtigste Unterteilung der Information ist dann meines Erachtens die Unterscheidung zwischen Zufallsinformation und nicht zufälliger Information oder auch zwischen Zufallsstruktur und geordneter Struktur.
Siehe auch die Definition von Zufall: https://www.madeasy.de/2/zufall.htm
Ein Beispiel dazu :
Betrachtet man eine binäre Datei einer bestimmten Länge zb mit 20 Stellen , dann kann man die Gesamtinformationsmenge ausrechnen, die mit 20 Stellen dargestellt werden kann:
I = 2^20 = 1 048 576 Bit = 2^17 Byte = ca 130 kByte.
Ein Teil der Möglichkeiten aus dieser Gesamtinformationsmenge sind reine Zufallsfolgen , der Rest sind mehr oder minder geordnete Folgen.
Die Grenze zwischen beiden Bereichen ist nicht scharf zu ziehen , sondern nur mit einem Wahrscheinlichkeitsniveau von zb 95 % festzulegen .
Je weiter man von der Grenze weg ist, desto klarer ist die Zuordnung . Chaitin hat 2 Beispiele genannt :
Geordnete Reihe : 10101010101010101010
- Zufall = 0, oder fast Null
Ungeordnete Reihe: 01101100110111100010
- als Beispiel für eine Zufallsfolge ,
Beide Reihen haben dieselbe Länge und denselben Speicherplatzbedarf in kiloByte. Trotzdem unterscheiden sie sich fundamental.
Ist die Menge an Zufall so etwas wie die Entropie einer Reihe , dann unterscheiden sich beide Reihen im Hinblick auf die Entropie sehr stark.
Die erste Reihe hat eine Entropie von 0 oder nahe 0 , die zweite Reihe hat eine Entropie von 20 bit .
Eine interessante Frage ist nun , wie hoch der Anteil der Zufallsfolgen an der Zahl der gesamten Möglichkeiten ist.
Eine weitere interessante Frage ist, ob man die Nichtzufälligkeit irgendwie quantifizieren kann . Kann man zb sagen : Je stärker eine nichtzufällige Reihe komprimierbar ist , desto größer ist ihre Ordnung.
Dann ergeben sich die allgemeinen Aussagen:
Der Anteil der Zufallsfolgen wächst mit der Anzahl der Gesamtmöglichkeiten , oder anders ausgedrückt : Je länger eine 01 Sequenz ist , desto mehr Möglichkeiten für Zufallsfolgen stecken in ihr.
Je geordneter eine ganz bestimmte 01 Folge ist , desto weniger Zufall steckt in ihr.
Das hört sich ganz plausibel an , ob es allgemein gültig ist , weiß ich nicht.
Vor allem in dem Begriff der Komprimierbarkeit, den man zur Definition der geordneten Folge heranzieht, stecken einige Tücken. Er ist mathematisch nur schwer definierbar.
Bei kurzen 01 Sequenzen überlappen sich der geordnete und der Zufallsbereich am Anfang vollständig , je länger die Sequenzen werden desto besser sind sie dem Bereich des Zufalls oder dem Bereich geordnete Folge zuzuordnen.
Trotzdem bleiben auch bei längeren 01 Folgen Überlappungen zwischen geordneten Folgen und Zufallsfolgen bestehen. Jede geordnete 01 Folge kann mittels eines guten Komprimierungsverfahrens in eine scheinbare Zufallsfolge überführt werden. Das Ergebnis schaut zufällig aus , in ihr steckt aber bedeutsame Information.
Umgekehrt kann man mittels komplizierter Rechenverfahren Zufallszahlen erzeugen , die ausschauen wie echte ( zb gewürfelte) Zufallszahlen, die aber in Wirklichkeit das Ergebnis eines festgelegten Algorithmus sind . ( Pseudozufallszahlen )
Ein zerüttetes Verhältnis: Information und Entropie
Es gibt immer wieder Diskussionen um die Verbindung der Begriffe Information und Entropie .
Die Verwirrung rührt daher , da sowohl die Informationsmenge von sinnvoller Information als auch die Menge an Zufallsinformation mit dem selben Maß bit gemessen wird.
Siehe dazu zb
http://www.lecb.ncifcrf.gov/~toms/information.is.not.uncertainty.html
Die simpelste Erklärung der Entropie hat Chaitin geliefert:
Chaitins Beispiel für 2 binäre Zahlen mit 20 Stellen
- Geordnete Reihe : 10101010101010101010
- Zufall = 0, oder fast Null ==> Entropie = 0
- Ungeordnete Reihe: 01101100110111100010
- als Beispiel für eine Zufallsfolge ==> Entropie hoch
Die zweite Reihe wurde mittels mehrfachem Münzwurf erstellt
Die Entropie ist also ein Maß für den Zufall . Je mehr Zufall in einem System oder in einer Struktur steckt , desto höher ist seine Entropie.
Siehe dazu Definition Zufall und Definition Entropie
Siehe dazu folgdener Text aus dem Netz:
Information Is Not Entropy, Information Is Not Uncertainty!
Dr. Thomas D. Schneider
- National Cancer Institute
- Laboratory of Experimental and Computational Biology
- Frederick, Maryland 21702-1201
- toms@ncifcrf.gov
- permanent email: toms@alum.mit.edu
- http://www.lecb.ncifcrf.gov/~toms/
There are many many statements in the literature which say that information is the same as entropy. The reason for this was told by Tribus. The story goes that Shannon didn’t know what to call his measure so he asked von Neumann, who said `You should call it entropy … [since] … no one knows what entropy really is, so in a debate you will always have the advantage‘ (Tribus1971).
Shannon called his measure not only the entropy but also the „uncertainty“. I prefer this term because it does not have physical units associated with it. If you correlate information with uncertainty, then you get into deep trouble. Suppose that:
information ~ uncertainty
but since they have almost identical formulae:
uncertainty ~ physical entropy
so
information ~ physical entropy
BUT as a system gets more random, its entropy goes up:
randomness ~ physical entropy
so
information ~ physical randomness
How could that be? Information is the very opposite of randomness!
The confusion comes from neglecting to do a subtraction:
Information is always a measure of the decrease of uncertainty at a receiver (or molecular machine).
If you use this definition, it will clarify all the confusion in the literature.
Note: Shannon understood this distinction and called the subtracted uncertainty the ‚equivocation‘.
As a practical example, consider the sequence logos. Further discussion on this topic is in the
http://www.lecb.ncifcrf.gov/~toms/bionet.info-theory.faq.html under the topic I’m Confused: How Could Information Equal Entropy?
For a more mathematical approach, see the Information Theory Primer.
@article{Tribus1971,
author = „M. Tribus and E. C. McIrvine“,
title = „Energy and Information“,
- journal = „Sci. Am.“,
- volume = „225“,
- note = „{(Note: the table of contents in this volume incorrectly lists this as volume {\bf 224})}“,
- number = „3“,
- pages = „179-188“,
- month = „September“,
- year = „1971“}
@article{Machta1999,
- author = „J. Machta“,
- title = „{Entropy, Information, and Computation}“,
- journal = „Am. J. Phys.“,
- volume = „67“,
- pages = „1074-1077“,
- year = „1999“}
Nach dem erfolgreichen Wirken von Albert Einstein, der Energie und Materie in einer Formel zusammenbringen konnte ( E = m *c*c) , wird jetzt Franz Zweistein gesucht:
Wer hat recht ?
- Hartfield
- Shannon
- Schrödinger
- Brillouin
- Stonier
Welche Formel stimmt ?
- Information = K * Entropie
- Information = – K * Entropie = Negentropie
- Information = e-k*Entropie
I = k * E
- Shannon
- Information und Entropie sind direkt proportional
I = – k * E
- Wiener , Slizard, Broullion
- Information und Entropie sind indirekt proportional
I = Io* e-k*E
- Stonier
- Information und Entropie sind negativ korreliert
==> die Physiker , Mathematiker und Informationstheoretiker sollten sich schämen für so viel Widersprüchliches !
Entropie = Null : sauberer Einkristall bei minus 273 Grad
Entropie maximal : völlig gleichverteilte Materie im Weltraum ohne Temperaturunterschiede ohne Bewegungsunterschiede.
Gibt es dann negative Entropie ? eigentlich nicht !
Information ist die Abgrenzung einer definierten Sequenz von Zeichen – gleich welcher Art – gegenüber der Gesamtheit aller möglichen Zeichenkonstellationen, gegenüber dem Mittelwert, der Gleichverteilung. Insofern ist Information immer auf Entropie bezogen, und insofern hat Entropie auch mit Ungewißheit zu tun: Im Zustand kompletter Entropie, kompletter Gleichverteilung der Wahrscheinlichkeiten, ist kein Zustand bestimmt. Jeder Schritt einer Eingrenzung, jede Detailangabe, jede Information also, reduziert die Ungewißheit und macht die Sequenz, nach der wir in unserem Modell fragen, erkennbarer.
Es gibt redundante Informationen, das heißt es wird dasselbe noch einmal wiederholt. Redundanz ist wiederholte Information, also eigentlich überflüssige Information. Die Redundanz hilft einem, wichtige Informationen trotz eines teilweisen Informationsverlustes noch entziffern und benutzen zu können. Sie schützt also vor Informationsverlust.
Es gibt die Möglichkeit bis zu einem gewissen Grad Information auch ohne Informationsverlust zu verdichten. Dies bewerkstelligen z.B. Kompressionsprogramme auf Computern wie ZIP oder ARC. Diese Verdichtungsprogramme haben bei der Übertragung von Information in Leitungen oder bei der Speicherung bei begrenztem Speicherplatz ihre Bedeutung.
siehe auch Kompression
Informationsbedeutung, Informationsqualität, Informationsgehalt,Semantik
Die Informationsqualität ist weit schwerer zu messen als die reine Informationsmenge. So kann in einem Buch nur Blabla stehen und in einem anderen wichtige mathematische Formeln, bei denen jeder Buchstabe und jedes Zeichen eine Bedeutung hat.
Die reine Informationsmenge, z.B. die Zahl der Buchstaben oder die Zahl der Seiten, kann dieselbe sein, die Bedeutung ist es sicher nicht. Hier muß man sich anderer, weniger leicht quantifizierbarer Maßstäbe bedienen, um die Qualität zu messen.
- Wie häufig wurde das Buch gekauft ?
- Wieviel Auflagen hat das Buch erlebt ?
- Wie lange gibt es dieses Buch schon ?
- In wieviele Sprachen wurde es übersetzt ?
- Wie bewerten Kritiker das Buch ?
- Wie bewerten Leser das Buch ?
Der Informationsgehalt kann manchmal sehr klein sein, obwohl die Informationsmenge sehr groß sein kann. So kann man einen Computerbildschirm voll mit Buchstaben schreiben, die per Zufall dort hingesetzt wurden. Die Informationsmenge ist dann maximal, da man, um exakt dieselbe Information zu übertragen, keine Datenkompression vornehmen kann.
Information mit Bedeutung ist immer ein Zwischending zwischen völlig gleichförmiger Ordnung und völlig gleichförmigem Chaos.
Dieselbe Information kann in verschiedenen Formen stecken, z.B. ein geschriebener Satz und ein gesprochener Satz. Dieselbe Informationsbedeutung kann in verschiedenen Zeichenfolgen stecken.
Die Bedeutung einer Information kann man folgendermaßen erkennen:
- Wie oft existiert die spezielle Informationsfolge überhaupt zur Zeit ?
- Wie oft existierte die spezielle Informationsfolge in den letzten 1000 Jahren ?
- Was passiert, wenn man diese Information wegläßt oder verändert ?
- Wann kann – geschichtlich betrachtet – eine bestimmte Informationsfolge das erste oder das letzte Mal nachgewiesen werden ?
- Wie wird eine spezielle Informationsfolge variiert, und bei welchen Variationen ist der ursprüngliche Gehalt nicht mehr erkennbar bzw ist die Funktion der Information nicht mehr erkennbar ? d.h. welche Passagen einer Informationskette sind essentiell und welche sind weniger wichtig ?
- Welche Folgen, Wirkungen und Funktionen hat eine bestimmte Informationskette in ihrem Umfeld ?
- Gibt es völlig andere Informationsfolgen, die aber eine identische Funktion erfüllen ?
- Wenn eine bestimmte Informationsfolge vermehrt weitergegeben wird, wie erfolgt diese Weitergabe ? Erfolgt diese Vermehrung und Weitergabe anorganisch, biologisch genetisch, neurologisch oder technisch ?
Die praktische Bedeutung von Information ist schwer in Zahlen anzugeben. Am ehesten geht dies noch bei biologischer Information.
So ist zum Beispiel das Molekül Insulin in vielen Tieren vorhanden und dementsprechend sehr wichtig. Man kann also sagen Insulin hat so eine hohe Informationsqualität, daß ohne diesen Stoff kein Säugetier in der uns bekannten Form existieren könnte. Außerdem kann man abschätzen, wieviel Insulin in jedem Lebewesen und wieviel auf der ganzen Erde vorhanden ist. Man kann dann die geschätzte Menge in Kilogramm oder in einer geschätzten absoluten Zahl an Molekülen angeben.
Verschiedene Säugetierarten haben etwas abweichende Formen von Insulin. Die prinzipielle Wirkung des Insulins, die Zuckersenkung im Blut eines Tieres, bleibt aber diesselbe. Dieselbe Informationsqualität kann also in einer etwas abweichenden Informationsfolge stecken. Teile einer Informationsfolge sind dann meist essentiell, andere Teile dürfen variieren.
Informationen haben je nach Umfeld verschiedene Informationsqualitäten. Unter Informationsqualität versteht man den Gehalt, die Bedeutung und den Sinn einer Information und der wird wesentlich durch das Umfeld mitbestimmt. So ist Insulin im Magen nur eine Kette von Aminosäuren, die in ihre Einzelglieder zerlegt und als Nahrung genutzt wird.
Gleich nebenan in einem Blutgefäß des Magens ist das Insulin ein stark zuckersenkendes Prinzip, weil es Rezeptoren gibt, die seine Botschaft verstehen.
In welcher Information steckt keine oder fast keine Bedeutung ?
Nimmt man eine reine Zufallssequenz von 0 und 1 , so steckt nur in der Länge der Zufallssequenz und in der Art , wie diese Sequenz erzeugt wurde eine gewiße Bedeutung. Ansonsten ist die Sequenz bedeutungslos .
Es wird unterschieden zwischen den Begriffen:
syntaktische Information, semantische Information, pragmatische Information
syntaktische Information = reine Informationsmenge, ohne Rücksicht auf die Bedeutung der Information.
semantische und pragmatische Information = Bedeutung der Information, Qualität der Information
Der ökonomische Wert einer Information kann auf mehrere Arten bestimmt werden: Man kann von den Kosten ausgehen, die anfallen, wenn man die Information produziert, oder man kann den Wert anhand des Preises bestimmen, den man für die Information erzielen kann.
In einer Gesellschaft, die von Inforrnationsüberflutung bedroht ist, kann man auch den negativen Wert einer Information in Betracht ziehen; er wird durch dje Kosten bestimmt, die anfallen, wenn man Information aufnimmt und versucht, sie zu verstehen.
Wie kann man die Qualität von Informationen aus dem WWW beurteilen?
Ausgangslage
Auf dem WWW können praktisch alle publizieren. Eine Qualitätskontrolle wie bei den Printmedien (Redaktor, Lektor) existiert (bislang) nicht. Für den Konsumenten stellt sich somit obenstehende Frage.
Diese Frage kann aus zwei Perspektiven betrachtet werden:
Computersicht:
- Welche automatisch erfassbaren Merkmale lassen auf die Qualität von Webseiten schliessen? Diese Frage ist für die Programmierung von Suchmaschinen interessant (Information Retrieval).
Benutzersicht: Was sind Qualitätsmerkmale von Webseiten?
- Informationsgehalt/Relevanz
- Verfügbarkeit
- Benützerfreundlichkeit
- Glaubwürdigkeit
- Link dazu
Wie ensteht bedeutsame Information ?
Beispiele für die Entstehung bedeutsamer Information !
anorganisch
- Materieentstehung
- Atomentstehung
- Sternentstehung
- Kristallisation
- Molekülentstehung
- chemische Evolution
biologisch
- Lebensentstehung
- biologische Evolution
- Mutation
- Auslese
- Speicherung und Abbildung von Informationen in Nervensystemen
- Lernvorgänge in Nervensystemen
historisch
- der erste laufende Primat
- die ersten Menschen
- der erste Feuer nutzende Mensch
- der erste sprechende Mensch
- der erste Werkzeug nutzende Mensch
- der erste schreibende Mensch
- die Schrift
- der erste rechnende Mensch
- der erste würfelnde Mensch
- das erste Geld
- die erste Stadt
- weitere menschliche Kulturgeschichte
mathematisch
- Ordnung ==> Ordnung
- Unordnung ==> Ordnung
- Ordnung ==> Unordnung
- Unordnung ==> Unordnung
durch menschliches Zutun
- Probieren , Spielen und Suchen nach besseren Lösungen
- Lösungssuche unter Stress
- Wettbewerbe
- Forschung
- Dokumentation und Veröffentlichung
- Weitergabe
- Kulturarbeit
Lernen:
KL = Künstliches Leben
http://www.asahi-net.or.jp/~hq8y-ishm/index.html
Neuronale Netze :
http://i11www.ira.uka.de/neuroinfo_dx.html
Selbstorganisation
http://stud4.tuwien.ac.at/~e9426503/index.html ****
Wortfeld zum Thema Bedeutung
- Bedeutung ,
- Wichtigkeit ,
- Sinn,
- Semantik,
- Pragmatik,
- Qualität ,
- Relevanz,
- Meaning,
- Standardisierung
- Semiotik
- Selbstorganisation
- Lernen
Der Erhaltungssatz der bedeutsamen Information
Im Gegensatz zur Energie und Materie gibt es keinen Erhaltungssatz der Information. Information neigt zur Vervielfätigung oder zum Verlust. Bei unwichtiger Information kann es auch zum Totalverlust der Information kommen. Auf der anderen Seite entsteht manchmal auch völlig neue Information.
Dies gilt nur mit Einschränkung für bedeutsame Information. Diese wird meistens so gut erhalten , daß sie nicht so schnell verloren geht. Denn wenn bedeutsame Information verloren geht, gibt es meistens Ärger. Es wird viel getan ,um bedeutsame Information aufzubewahren und zu erhalten. Auch die Entstehung bedeutsamer Information ist meist ein eher langsamer und mühsamer Prozeß und passiert nicht so schnell aus dem Nichts.
Trichter der Standardisierung:
- Sprachen
- Alphabet
- Insuline
- Zahlensysteme
- 6er System , 12er System werden zurückgedrängt
- 2er , 10er, 16er System bleiben erhalten
- Betriebssysteme
- Videoformate
- Programmiersprachen
Beispiel Programmiersprachen: Aus vielen verschiedenen Dialekten entwickelt sich langsam eine universelle standardisierte Sprache. Deren Bedeutung nimmt zu , gleichzeitig kommt es zu einem Informationsverlust durch Aussterben der anderen Sprachen.
Woran erkennt man bedeutsame Information ?
- Interne Wiederholungen in der Sequenz
- Spiegelung in der Sequenz
- Zufallsabschnitte sind kurz oder nicht vorhanden
- Komprimierbarkeit
- Wie häufig gibt es diese Sequenz überhaupt ?
1 , 0
00, 01, 10, 11
000,001,010,011,100,101,111
0000,0001,0010,0011,0100,0101,0110,0111,1000,1001,1010,1011,1100,1101,1111
00000,00001,00010,00011,00100,00101,00110,00111,01000,01001,01010,01011,01100,01101,01111, 10000,10001,10010,10011,10100,10101,10110,10111,11000,11001,11010,11011,11100,11101,11111
Bedeutsame Sequenzen sind dick hervorgehoben . Sie zeichnen sich durch eine interne Wiederholung oder durch Symmetrie aus. Mathematisch gesehen Sind sie teilbar oder spiegelbar.
Bei längeren Sequenzen sind die bedeutsamen Sequenzen zwischen völlig gleichförmiger Ordnung und völlig gleichförmiger Unordnung zu finden. D.h. bedeutsame Sequenzen sind besser komprimierbar als reine Zufallssequenzen , sind aber nicht so gut komprimierbar wie simple gleichförmige Sequenzen .
Chaitins Beispiel für 2 binäre Zahlen mit 20 Stellen
- Geordnete Reihe : 10101010101010101010
- Zufall = 0, oder fast Null
- Ungeordnete Reihe: 01101100110111100010
- als Beispiel für eine Zufallsfolge
Eine Beispielszeile:
1.Zufallsinformation = gleichförmige Unordnung:
xbeowhgttgsyäcxjpülgjwrqxyshfogjkudrwuepzjfcmwsmgqzqpqvbtiwpaüa
2.Text mit Sinn:
information kann mit lichtgeschwindigkeit transportiert werden
3.verschlüsselter Text:
eyprnxumeryduyyxemfelamübilaveyoeüdbemmnuyitrnmebnmvbnoby
4.Zweimal das kleine Alphabet = gleichförmige Ordnung:
abcdefghijklmnopqrstuvwxyzäöüßabcdefghijklmnopqrstuvwxyzäöüß
Fragen dazu:
- In welcher Zeile steckt die größte Informationmenge ?
- In welcher Zeile steckt am meisten Ordnung ?
- In welcher Zeile steckt am meisten Informationsgehalt ?
3 Beispiele mit verschiedenem Informationsgehalt
Abbildung 1: Völlig gleichförmige Ordnung aus 32 Steinen
Abbildung 2: Völlige Unordnung von 32 Steinen
Abbildung 3: Ordnung mit Bauplan: Turm aus 32 Steinen
Fragen dazu:
- In welcher Anordnung der Steine steckt die größte Informationmenge ?
- In welcher Anordnung der Steine steckt am meisten Ordnung ?
- In welcher Anordnung der Steine steckt am meisten Informationsgehalt ?
- Kann man die Entropie dieser drei Anordnungen bestimmen ?
3 weitere Beispiele mit verschiedenem Informationsgehalt
Abbildung 1: Gleichförmige Ordnung
Abbildung 2: Ordnung mit Bedeutung
Abbildung 2: Ordnung mit Bedeutung : etwas andere Darstellung
Abbildung 3: Zufallsmuster
Information mit Bedeutung liegt immer zwischen den 2 Extremen : Einfache gleichförmige Information und Zufallsinformation.
3 Beispiele aus der Natur mit gleicher Teilchenzahl und völlig unterschiedlichere Ordnung:
- Einkristall aus Wassermolekülen : Entropie nahe 0
- Wassertropfen aus Wassermolekülen: Entropie ziemlich groß
- Schneeflocke aus Wassermolekülen: Entropie zwischen beiden Extremen
weitere Beispiele mit unterschiedlicher Ordnung gleicher Teilchenzahl
Abb 1.
Perfekt Gepackte Ordnung : Entropie Null , gibt Volumen frei , denn eigentlich ist nur die Hälfte der Plätze notwendig:
1111111111111111111111111111111100000000000000000000000000000000
Abbildung 2 :
Gut gepackte Ordnung , entspricht Chaitin Kette A , Entropie nahe Null
0101010101010101010101010101010101010101010101010101010101010101
Abbildung 2:
In sich geschlossene Ordnung höhererArt , komplizierte Ordnung mit Symmetrie
1111111110000001100001011000100110010001101000011000000111111111
Abbildung 4
Logische Ordnung höherer Art ,
Logische Folge
zB binäre Zahlen von 0000 bis 1111
0000000100100011010001010110011110001001101010111100110111101111
Abb 5
Zufallsordnung Entropie maximal , 64 zbit , entspricht Chaitin B Kette
0100111110101110101000010101001101011010001100101110010000010111
Information kann mit Lichtgeschwindigkeit transportiert werden.
Interessant ist es, daß Information, die an Materie als Informationsträger gebunden ist, ohne jeden Verlust auf elektromagnetische Wellen übertragen werden kann. Diese Information kann dann mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozeß ist das Telefaxen. Dabei wird eine Schriftstück mit einer bestimmten Information mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel in ein zweites Schriftstück aber mit exakt demselben Informationsinhalt zurückverwandelt.
Informationstransport und Verarbeitung
Informations Quelle ====> direkter Kontakt ====> Informations Ziel = ( Senke )
- zb Stein rollt den Berg herunter und erzeugt einen Abdruck im Schnee
- die Information der äußeren Form des Steines findet sich zum Teil im Abdruck wieder
- = Abbildung
InfoQuelle ====> Transportmedium ( Kanal ) ====> InfoSenke
- zb Stein rollt den Berg herunter und erzeugt einen Krach. Dieser Krach wird über die Luft als Schallwellen weitgetragen. An den Felswänden bricht sich der Schall und wird immer leiser bis er nicht mehr hörbar ist.
Informationsverarbeitung
(EVA – Prinzip)
Eingabe (E) ===> Verarbeitung (V) ====> Ausgabe (A)
- zb Auge : einlaufende Lichtstrahlen werden in der Netzhaut verarbeitet und die Information über Nervenzellen ausgegeben .
Eingabe (E) ===> Verarbeitung (V) + Speicherung ====> Ausgabe (A)
- zb unser Gehirn
Eingabe (E) ==\\\
Eingabe (E) ===> Verarbeitung (V) ====> verdichtete Ausgabe (A)
Eingabe (E) ==///
- zb Auge : einlaufende Lichtstrahlen werden in der Netzhaut verarbeitet und die Information ans Gehirn weitergegeben. Ins Bewußtsein dringt aber nur ein sehr kleiner Teil der empfangenen Information.
Information kann in einer Richtung laufen oder zur Überprüfung der Richtigkeit auch wieder zum Absender zurückkehren.
( Duplex , halbduplex )
Für den Informationsaustausch gibt es zwei Grundsituationen:
1. Eine Informationsquelle beeinflußt den Empfänger mit Hilfe eines übermittelten Signales und löst bei ihm den Übergang von einem Zustand zum anderen aus.
2. Der Empfänger hat ein Beobachtungs- oder Meßinstrument, mit dem er eine Veränderung der Informationsquelle feststellen kann.
Weitere Sätze zum Thema Information:
- vieles übernommen aus http://beat.doebe.li/bibliothek/w00021.html
Information tendiert zum Verlust und zur Veränderung.
Information tendiert zur Ausbreitung.
Der Informationsgehalt kann erst wirksam werden, wenn jemand ihn nutzt.
C.F.v.Weizsäcker sagt : „Information ist nur das, was verstanden wird. Information ist nur, was wieder Information erzeugt“.(lit 26 Weizsäcker, C. F. v. „Die Einheit der Natur“ Kapitel III, 5 Abschnitt 2)
- Diese Aussagen sind meines Erachtens nicht immer zutreffend. Denn manchmal kann eine Information erst beim zweiten Mal verstanden werden, vorher war die Information aber auch schon vorhanden. Man denke nur an unbekannte Schriftzeichen, die man nach mühsamem Entziffern plötzlich doch noch lesen kann. So wußten die Archäologen genau, als sie auf die Hieroglyphen stießen, daß in diesen Schriftzeichen Information steckte. Es dauerte allerdings lange, bis diese Information entziffert war. Gerade unbekannte Schriften, Geheimschriften und verschlüsselte Texte bedeuten für viele Menschen eine Herausforderung.
- Außerdem kann ein Buch verbrennen. Bis zu diesem Verbrennen steckt auch noch Information darin, obwohl sie nach der Zerstörung keine neue Information mehr erzeugen kann.
Information ist jeder Unterschied, der einen Unterschied macht.
- von Gregory Bateson im Buch Geist und Natur (1979)
Information ist der Veränderungsprozess, der zu einem Zuwachs an Wissen führt.
- von Christian Schucan im Buch Effektivitätssteigerung mittels konzeptionellem Informationsmanagement (1999) im Text Begriffliche Abgrenzung auf Seite 25
Information ist eine nützliche Veränderung der nutzbaren abstrakten Strukturen aufgrund zusätzlicher Daten und/oder abstrakter Strukturen oder aufgrund zusätzlicher Nutzung bereits verfügbarer abstrakter Strukturen. Information kann rationale Handlungen auslösen und/oder die Interpretation des Wissens verändern.
- von Christian Schucan im Buch Effektivitätssteigerung mittels konzeptionellem Informationsmanagement (1999) im Text Begriffliche Abgrenzung auf Seite 25
Nachricht von einem Unterschied
- von Gregory Bateson im Buch Geist und Natur (1979) im Text Vielfältige Versionen der Welt auf Seite 87
Information ist nutzbare Antwort auf eine konkrete Fragestellung.
- von Carl August Zehnder im Buch Informationssysteme und Datenbanken im Text Leben mit Information auf Seite 14
Information ist natürlich der Prozess, durch den wir Erkenntnis gewinnen.
- von Heinz von Foerster im Buch Wissen und Gewissen im Text Zukunft der Wahrnehmung: Wahrnehmung der Zukunft (1971)
Unwahrscheinlicher, nichtprogrammierter Sachverhalt
- von Vilém Flusser im Buch Die Revolution der Bilder (1995) im Text Die lauernde schwarze Kamera-Kiste
Ich verstehe hier unter Information und Bedeutung eines Signals die Wirkung, die dieses Signal auf die Struktur und Funktion eines neuronalen kognitiven Systems hat, mag diese Wirkung sich in Veränderungen des Verhaltens oder von Wahrnehmungs- und Bewusstseinszuständen ausdrücken.
- von Gerhard Roth im Buch Gedächtnis (1991) auf Seite 360
Informationen sind kontextualisierte Daten (z.B. der Satz: „Am 3.August 1999 hat es am Cap d?Antibes um 11 Uhr vormittags 30 Grad Celsius“)
- von ThinkTools AG
Das spezifische Wissen, das man in einer bestimmten Situation benötigt um beispielsweise ein Problem zu lösen, wird Information genannt.
- von Werner Hartmann, Michael Näf, Peter Schäuble im Buch Informationsbeschaffung im Internet (2000) auf Seite 15
Die Teilmenge von Wissen, die aktuell in Handlungssituationen benötigt wird und vor der Informationsverarbeitung nicht vorhanden ist. Information ist demnach entscheidend von den Kontextfaktoren der Benutzer und der Nutzungssituation abhängig.
- von R. Kuhlen im Buch Die Konsequenzen von Informationsassistenten (1999) auf Seite 410
When organized and defined in some intelligible fashion, then data becomes information.
- von Don Tapscott im Buch Growing Up Digital (1997) im Text The Net Generation auf Seite 32
Die Welt enthält keine Information, sie ist wie sie ist.
- von Heinz von Foerster im Buch Wahrheit ist die Erfindung eines Lügners (1998) im Text Kommunikation auf Seite 98
Information ist allerdings eine ganz besondere Entität des Seins. Sie ist weder Materie noch ist sie Energie, beide dienen lediglich als Träger von Information. Wenn ich Materie oder Energie weitergebe, dann besitze ich nachher die entsprechende Menge an Materie oder Energie weniger. Gebe ich aber Information weiter, dann habe ich sie nachher immer noch. Ja, ich kann sie beliebig vervielfältigen, ohne weitere Information aufnehmen zu müssen. Warum sollte dieses eigenartige Wesen ‚Information‘ also nicht auch einen eigenen Aufenthaltsort besitzen, der weder Raum noch Zeit benötigt, sich über beide hinwegsetzt?
- von Frederic Vester im Buch Denken, Lernen, Vergessen (1978) im Text Die Prägung unseres Gehirns auf Seite 29
Das Thema Information kommt heute in der Schule meist zu kurz.
- von Carl August Zehnder im Buch Beiträge zur Didaktik der Informatik (1990) im Text Informationsfragen und Datenschutz im Unterricht auf Seite 75
Informationen sind auf dem besten Wege dazu, die Droge der neunziger Jahre zu werden.
- von David Rosenthal im Buch Internet – Schöne neue Welt? (1999) auf Seite 75
Der Begriff wird auch von verschiedenen Gruppen unterschiedlich verwendet. Eine allgemein akzeptierte Definition, welche in allen Bereichen anwendbar ist, fehlt.
- von Christian Schucan im Buch Effektivitätssteigerung mittels konzeptionellem Informationsmanagement (1999) im Text Begriffliche Abgrenzung auf Seite 29
Wir müssen Vorträge, Bücher, Diapositive, Filme usw. nicht als Information, sondern als Träger potentieller Information ansehen.
- von Heinz von Foerster im Buch Wissen und Gewissen im Text Zukunft der Wahrnehmung: Wahrnehmung der Zukunft (1971)
Wir müssen Vorträge, Bücher, Diapositive, Filme usw. nicht als Information, sondern als Träger potentieller Information ansehen. Dann wird uns nämlich klar, dass das Halten von Vorträgen, das Schreiben von Büchern, die Vorführung von Diapositiven und Filmen usw. kein Problem löst, sondern ein Problem erzeugt: Nämlich zu ermitteln, in welchen Zusammenhängen diese Dinge so wirken, dass sie in den Menschen, die sie wahrnehmen, neue Einsichten, Gedanken und Handlungen erzeugen.
- von Heinz von Foerster im Buch Wissen und Gewissen im Text Zukunft der Wahrnehmung: Wahrnehmung der Zukunft (1971) auf Seite 197
Information ist wichtiger als Informatik
- von Carl August Zehnder im Buch Informatik-Projektentwicklung (2001) im Text Informationssysteme und Datenbanken (2. Auflage) auf Seite 264
Wenn man über diese Begriffe zu diskutieren beginnt, sollte man überprüfen, ob alle Beteiligten kompatible Definitionen der Begriffe Daten – Information – Wissen verwenden…
- von Beat Döbeli
Ich werde zu zeigen versuchen, dass „Information“ eine Art modernen Phlogistons ist, das sich auf eine vorgegebene Ordnung beruft, um die Gesetzlichkeit des Erkennens zu erklären.
- von Francisco J. Varela im Buch Kognitionswissenschaft, Kognitionstechnik (1988) im Text Einleitung auf Seite 18
„Information“ darf nicht als eine an sich gegebene Ordnung aufgefasst werden, sie entsteht erst durch die kognitiven Tätigkeiten.
- von Francisco J. Varela im Buch Kognitionswissenschaft, Kognitionstechnik (1988) im Text Einleitung auf Seite 18
Die Weitergabe von Wissen bedarf grundsätzlich menschlicher Akteure, während der Austausch von Informationen auch automatisiert zwischen Computern erfolgen kann (Information- vs. Knowledge Sharing).
- von Peter A. Bruck, Guntram Geser im Buch Schulen auf dem Weg in die Informationsgesellschaft (2000) im Text Einleitung auf Seite 33
Information ist eine bestimmende Eigenschaft der postindustriellen Gesellschaft, ihre zentrale Leerstelle und ihr treibendes Prinzip. Information bezeichnet nicht etwas zu Übertragendes (wie im Modell der Nachricht), sondern sie ist eine Beziehung und als solche Faktor der Medienphänomene, die eigensinnige Realitäten schaffen und nicht auf „die Realität“ verweisen.
- von Frank Hartmann im Buch Cyber.Philosophy (1996) auf Seite 141
Informationen sind wertlos, solange man das Koordinatensystem nicht kennt, in das sie gehören.
INFORMATION
- that which reduces uncertainty. (Claude Shannon);
- that which changes us. (Gregory Bateson)
——————————————————————————–
Literally that which forms within, but more adequately: the equivalent of or the capacity of something to perform organizational work, the difference between two forms of organization or between two states of uncertainty before and after a message has been received, but also the degree to which one variable of a system depends on or is constrained by (see constraint) another. E.g., the dna carries genetic information inasmuch as it organizes or controls the orderly growth of a living organism. A message carries information inasmuch as it conveys something not already known. The answer to a question carries information to the extent it reduces the questioner’s uncertainty. A telephone line carries information only when the signals sent correlate with those received. Since information is linked to certain changes, differences or dependencies, it is desirable to refer to theme and distinguish between
- information stored,
- information carried,
- information transmitted,
- information required, etc.
Pure and unqualified information is an unwarranted abstraction. information theory measures the quantities of all of these kinds of information in terms of bits. The larger the uncertainty removed by a message, the stronger the correlation between the input and output of a communication channel, the more detailed particular instructions are the more information is transmitted. (Krippendorff)
——————————————————————————–
Information is the meaning of the representation of a fact (or of a message) for the receiver. (Hornung)
Weitere Begriffe zum Thema Information:
Entropie, Ordnung, Unordnung, Zufall, Redundanz, Codierung, Kybernetik, Nachricht, Signal, Schrift, Daten
Sprache, Digital, Analog, Wahrscheinlichkeit, Beschreibbarkeit, Chaos, Neubildung von Information, Kompliziertheit, Komplexität, Struktur, Form, Faltung, Software, Hardware,
Steuerung, Botschaft, Abbildung, Kopieren, Repräsentation , Wissen etc.
Info-Flut and Info-Garbage = Informationsflut , Informationsmüll
Übernommen von http://generalit.de/it01.htm
Form, Format, Formation, Formatierung, Formalismus, Deformation, Reformation, Reform, Informationstheorie, Informationswissenschaft, Information Science, Informationsgesellschaft, Informationssoziologie, Informationswirtschaft, Informationsökonomie, Informationsträger, Informationsverarbeitung, binär, Bit, Daten, Datenträger, Datenspeicher, Datenbanken, Datensichtstationen (= „Terminals“), Datenverarbeitung, Programme, Software,Wissen, Wissenschaft, Philosophie, Wissenstheorie, Wissensgesellschaft, Wissenssoziologie, Bildung, Lernen, Kognitionswissenschaft, Kommunikation, Kommunikationstheorie, Sprache, Linguistik, Bedeutung, Semantik, Codierung, Syntax, Symbole, Zeichen, Geld, Semiotik, Kryptologie, Ordnung, Muster, Chaos, Rauschen, Telekomunikation, Telematik, Sender, Empfänger, Signal, Signalverarbeitung, Signalprozessoren, Nachrichten, Nachrichtentechnik, Nachrichtenübertragung, Nachrichtendienst, Geheimdienst, Spionage, Patentrecht, Urheberrecht, Datenschutz, Informationsrecht, Recht, Gesetz, Verantwortung, Norm, Standard, Kultur, Zivilisation, Ethik, Medien, Netzwerke, Mitteilung, Informatik, Wirtschaftsinformatik, Quanteninformatik, Quantentheorie, Messtechnik, Computer Science, Computer, Automaten, Kybernetik, Künstliche Intelligenz (KI), Artificial Intelligence (AI), Expertensysteme, Kombinatorik, Logik, Quantenlogik, Ure, Fuzzy-Logik, Genetik, Neurologie, Wahrnehmung, Wahrheit, Wahrscheinlichkeit, Denken, Gedächtnis, Speicher, Evolution, Selbstorganisation, Energie, Entropie, Brauchbarkeit, Informationswiderstand, Informationsentropie, Redundanz, Alternativen, Gleichheit, Identität, Unterscheiden, Entscheiden, Erkennen, Erkenntnis, Erkenntnistheorie
Wer hat zum Informationsbegriff beigetragen ?
- die Natur hat den Urknall knallen lassen
- die Natur hat die Kristallisation erfunden
- die Natur hat den genetischen Code erfunden
- die Natur hat die Sinneszellen erfunden
- die Natur hat die Nervenzellen erfunden
- die Natur hat das Gehirn erfunden
- die Natur hat das Bewußtsein erfunden
- die Natur hat die Sprache erfunden
- ————————————————————
- Der Mensch hat die Schrift erfunden
- Der Mensch hat die Zahlen erfunden
- Ein Mensch hat die Zahl Null erfunden
- Ein Spielender Mensch hat das Losen mit Münzen erfunden.
- ————————————————————————————————
- Ein Mensch namens Gutenberg hat den Buchdruck erfunden.
- Shakespeare hat das binäre Existenzsproblem formuliert: Sein oder Nichtsein ?
- Leibniz hat das binäre Zahlensystem eingeführt.
- Morse hat das Morsealphabet eingeführt.
- Shannon = Messung der Information in Telefonleitungen.
- Felix von Cube und Wiener = Weiterentwicklung der Informationstheorie.Begründung der
- Kybernetik = Steuerungs und Regelungswissenschaft.
- von Neumann hat die Prinzipien von heutigen Computern beschrieben
- Konrad Zuse hat den ersten Computer gebaut
- Boltzmann hat die Entropie molekular angewendet
- Meyer hat den 2 Hauptsatz der Thermodynamik aufgestellt.
- Schrödinger hat den Begriff Negentropie eingeführt
- Charles Sanders Peirce (1839-1914), und Ferdinand de Saussure (1857-1913).Begründer der Semiontik
- Bertalanffy hat die Lebewesen als offene Systeme betrachtet,und damit die Strukturentstehung erklärbar gemacht, entgegen der Tendenz zur allgemeinen Strukturnivellierung
- Prigogine hat den Begriffe dissipative Strukturen eingeführt
- E.v.Weizsäcker hat den Begriff der pragmatischen Information eingeführt.
- von Haken hat die Begriffe Ordner und Versklavung eingeführt. Begründer der Synergetik.
- Herr Stonier hat den Informationsbegriff ordentlich durchdacht und neu in Beziehung zur Entropie und Energie gesetzt.
Und noch viele mehr haben Informationen zum Thema Information geliefert:
Eine sehr schöne und sehr ausführliche Zusammenstellung findet sich hier:
http://www.ib.hu-berlin.de/~wumsta/infopub/textbook/umfeld/rehm.html***
- Information und Kommunikation in Geschichte und Gegenwart
- von Margarete Rehm
siehe Literatur
Die großen und meist noch ungelösten Fragen der allgemeinen Informationstheorie:
- Gibt es Infonen ? Gibt es Informationsteilchen ? Gibt es die Uralternativen ? Gibt es Information ohne Informationsträger ?
- Wie ist der Zusammenhang zwischen Entropie und Information am besten zu beschreiben ?
- Wie entsteht bedeutsame Information ohne menschliches Zutun ? Gibt es für bedeutsame Information ein einheitliches Maß ?
- Wie ensteht und wie arbeitet ein Informationsverarbeitendes System zb eine lebende Zelle von alleine ?
- Wie entsteht und wie arbeitet ein Informationsverarbeitendes System mit Bewußtsein wie zb unser Gehirn ?
- Werden Computer denken können ?
- Wie hoch war die Entropie und die Information beim Urknall ?
- Was passiert mit der Information am Rand von schwarzen Löchern ?
Sollte man noch einmal zwischen semantischer und pragmatischer Information unterscheiden ?
Was ist der Unterschied zwischen potentieller Information und aktueller Information ?
Kann die Informationsmenge negative Werte annehmen ?
Wie kann man die Gegensätze von Ordnung und Unordnung, von Entropie und Negentropie verständlich machen ?
Wie entsteht bedeutsame Information von alleine ?
- Woher kommt das Wort Information?
- Welche Bedeutung hatte das Wort Information früher ?
- Welche anderen Wörter hat man anstatt des Wortes Information benutzt ?
- Welchen Bedeutungswandel hat das Wort durchgemacht ?
- Welche Worte gibt es in anderen Sprachen für den Begriff Information?
- Lateinisch informatio = Bildung,Belehrung
- Englisch information
- Griechisch eidos
- Französisch l’information
- Japanisch
- Chinesisch
- Arabisch,
- Indisch,
- Indianisch,
- Italienisch,
- Spanisch
Wie kann man das Altern von Information in Datenbeständen vermeiden ?
Wo bekommt man gute Informationen her ?
Stimmt folgende Definition ?
Information ist das, was man noch nicht weiß, aber wissen möchte.
Alles, was schon weiß oder vorhersagen kann, ist keine Information mehr.
Wie bewertet man die Informationsqualität von Webseiten
Ausgangslage
Auf dem WWW können praktisch alle publizieren. Eine Qualitätskontrolle existiert wie bei den Printmedien (Redakteur, Lektor) bislang nur in Ansätzen
Es stellt sich also folgende Frage:
Wie kann man die Qualität von Informationen aus dem WWW beurteilen?
Diese Frage kann aus zwei Perspektiven betrachtet werden:
Computersicht:
- Welche automatisch erfassbaren Merkmale lassen auf die Qualität von Webseiten schliessen? Diese Frage ist für die Programmierung von Suchmaschinen interessant (Information Retrieval).
Benutzersicht:
- Was sind Qualitätsmerkmale von Webseiten?
- Siehe auch http://www.fno.org/jun97/eval.html
Qualitätskriterien
- Verläßlichkeit
- Genauigkeit
- Aktualität der Daten
- Fachkompetenz des Autors
- Lesbarkeit
- Fairness
- Angemessenheit
- Knappheit und Effizienz
- Sinnvolle Gliederung
Noten
- **** sehr gut
- *** gut
- ** befriedigend
- * schwach
Weitere Bewertungen
- Das Format ist benutzerfreundlich
- Das Format ist ansprechend gestaltet
- Der Inhalt ist glaubwürdig
- Der Inhalt ist brauchbar
- Der Inhalt ist ausführlich
- Der Gehalt ist interdisziplinär erarbeitet
Verläßlichkeit reliability
To what extent can we count on the information provided at this site? Is the source trustworthy? How did they come up with the information listed here? Do they cite sources? Did they follow good research procedures? Do they have a bias? A reason to distort? Is this advertising? An advertorial? What are they selling? Back to the list.
Genauigkeit accuracy
Are these real numbers and facts? Do they match reality? How do we know they are real and on target? Back to the list.
Aktualität der Daten currency
How recent are the facts and figures? Were they gathered ten years ago? Do they tell us? Does it matter? Might crime or employment have changed since then? Back to the list.
Fachkompetenz des Autors authority
Do they have any credentials to be providing this information? Any evidence of training or professional skill? Do they identify the author or provider by name? Who did this work? Back to the list.
Fairness fairness
Have they presented the material selectively or in an unbalanced manner? Is their bias or slanting in the reporting? Did they leave some information out? Did they focus only on the positive? the negative? Back to the list.
Angemessenheit adequacy
Do they tell you enough? Do they provide sufficient data or evidence? Do they go into enough detail and depth? Back to the list.
Knappheit und Effizienz efficiency
Can you find what you need at this site relatively quickly or is it loaded down with graphics and elements which prolong your visit and your searching unnecessarily? Back to the list.
Gliederung organization
Is the information laid out in a logical fashion so that you can easily locate what you need without wandering around and wasting time?
From Now On http://www.fno.org/jun97/eval.html
Empfehlenswerte Literatur zum Thema Information:
- Haken, Hermann; Haken- Krell, Maria: Entstehung von biologischer Information und Ordnung. Dimensionen der modernen Biologie Bd.3. 1989.X, 218 S. m. 68 Abb. 23 cm. Gebunden. 506gr.ISBN: 3-534-02533-4 , KNO-NR: 3 49 33 65- WISSENSCHAFTLICHE BUCHGESELLSCHAFT-42.00 DM –
- sehr gutes Buch
- Stonier, Tom: Information und die innere Struktur des Universums. 1991. 97 S. m. 4 Abb. 23,5 cm. Kartoniert. 181gr. ISBN: 3-540-53825-9 , – SPRINGER, B.- 48.00 DM – Ladenpreis aufgehoben.
- sehr lesenswert
- gibt es nur noch in Englisch , aber leicht lesbar
- Inhalt: Information – Abstraction or Reality? Biological and Inorganic Information Systems.- Information Physics. Introduction; the Reality of Information.-
- Information and Entropy; the Mathematical Relationship.- Information Changes in Altered Physical States; Crystals and Proteins.- Information and Entropy; Further Implications, the Evolution of the Universe.- Information and Energy; the Interconversion of Information and Energy; Information Machines.- Information and Work; Energy, Matter and Information; Transducers; Biological Systems; Reassessing the Work Equations.- Conclusion; Information Physics and General Relativity.- Speculations on Electromagnetic Radiation and Particles of Information.- Implications for Atomic Structure.- A Smaller Universe?- Other Universes?
- Status 1999: vergriffen, einige Restlager möglich, so z.B. Amazon
- Originaltitel: Information and the Internal Structure of the Universe,
- 1990, Springer Verlag London
- Inhaltsverzeichnis
- 1. Information: Abstraktion oder Realität?
- 1.1 Einleitung … 1
- 1.2 Kann es Information außerhalb des menschlichen Gehirns geben? … 2
- 1.3 Kann Information außerhalb des menschlichen Gehirns verarbeitet werden? … 4
- 1.4 Formen menschlicher Information und ihrer Kommunikation … 4
- 1.5 Biologische Informationssysteme … 7
- 1.6 Anorganische Informationssysteme … 8
- 1.7 Nicht-menschliche Informationsverarbeitung … 10
- 1.8 Einige erkenntnistheoretische Überlegungen … 11
- 2. Informationsphysik: Eine Einführung
- 2.1 Die Realität von Information … 14
- 2.2 Der Kern des Konzepts … 17
- 2.3 Information – die verborgene Dimension … 20
- 3. Information und Entropie. Die mathematische Beziehung
- 3.1 Information und Organisation … 23
- 3.2 Der Zweite Hauptsatz der Thermodynamik … 24
- 3.3 Die statistische Bedeutung der Entropie … 26
- 3.4 Information als inverse Exponentialfunktion der Entropie … 27
- 3.5 Die Konstante c … 28
- 4. Messen der unterschiedlichen Information veränderter physikalischer Zustände
- 4.1 Das Messen des Informationsgehaltes eines Kristalls … 31
- 4.2 Proteine als Informationssysteme … 34
- 4.3 Die Denaturierung von Trypsin … 36
- 4.4 Schluß … 38
- 5. Information und Entropie: Weitere Konsequenzen
- 5.1 Einleitung … 39
- 5.2 Information und Entropie aus der Sicht des Nachrichtentechnikers … 39
- 5.3 Positive Entropie 42 …
- 5.4 Negative Entropie 44 …
- 5.5 Größenordnungen der Information … 51
- 5.6 Die Evolution des Universums … 53
- 6. Weitere Überlegungen zur Wechselbeziehung zwischen Information und Energie
- 6.1 Einleitung … 56
- 6.2 Reine Energie: Wärme, die Antithese der Information … 56
- 6.3 Informationsgehalt von Energie … 58
- 6.4 Bewegung, Entfernung und Zcit … 59
- 6.5 Information und potentielle Energie … 63
- 6.6 Die wechselseitige Umwandlung von Energie und Information … 65
- 6.7 Informationsmaschinen … 66
- 6.8 Strukturelle und kinetische Information … 68
- 6.9 Transformationen zwischen kinetischer und struktureller Information … 71
- 7. Information und Arbeit
- 7.1 Einleitung … 73
- 7.2 Die Beziehung zwischen Arbeit und Information … 74
- 7.3 Energiewandler … 75
- 7.4 Arbeit in biologischen Systemen … 78
- 7.5 Neubewertung der Arbeitsgleichungen … 79
- 7.6 Messung des Informationsgehaltes elektrischer Arbeit … 82
- 8. Zusammenfassung und Schluß
- 8.1 Einleitung … 85
- 8.2 Grundthesen … 85
- 8.3 Geschichtlicher Rückblick … 87
- 8.4 Warum hat man die Information übersehen? … 88
- 8.5 Die Notwendigkeit von Modellen und Theorien … 89
- 8.6 Die Bedeutung der Informationsphysik für eine allgemeine Informationstheorie … 90
- 8.7 Abschließende Überlegungen … 92
- Sachverzeichnis … 95
- Stonier, Tom: Information and Meaning. An Evolutionary Perspective. 1997. XIII, 255 p. 23,5 cm.
- ISBN: 3-540-76139-X
- – SPRINGER, B.-
- 49.90 DM – Sofort lieferbar.
- in Englisch trotzdem leicht lesbar und sehr lesenswert
- Wolfgang Salm,
- Entropie und Information (naturwissenschaftliche Schlüsselbegriffe),
- 1997, ISBN 3-76141969-4
- Aulis Verlag
- sehr gutes Buch, da sehr verständlich geschrieben
- Informationstheorie. Eine philosophisch-naturwissenschaftliche Einführung
- Holger Lyre
- Fink, München, 2002
- (UTB für Wissenschaft; Band 2289)
- Das Phänomen „Information“ prägt entscheidend unsere moderne, hochtechnisierte Lebenswelt. Was aber ist Information? Wie lässt sich Information begrifflich oder formal beschreiben? Für wen oder was existiert sie? Gibt es absolute Maßangaben von Information? Und was ist Informationsfluss? Bei einer philosophisch-naturwissenschaftlichen Einführung in die Informationstheorie stehen begriffliche Fragen dieser Art im Vordergrund. Dabei kommt den drei großen Themenfeldern der heutigen empirischen Wissenschaften spezielle Aufmerksamkeit zu: die Struktur von Materie und Raum-Zeit in der Physik, die Entstehung des Lebens in der Biologie und das Gehirn-Geist-Problem in den Kognitions – und Neurowissenschaften erlauben jeweils eine enge begriffliche Anbindung an das Informationskonzept. Als interdiziplinäres Brückenkonzept ermöglicht es die Diskussion und Analyse philosophischer Grundlagenfragen verschiedener Fachgebiete unter gemeinschaftlichem Blickwinkel. Somit bietet das Buch einen Einstieg in die weitverzweigten Anwendungen des Informationsbegriffs und der Informationstheorie sowohl für Geistes- wie Naturwissenschaftler.
- Sehr lesenswert
- Verbesserungsvorschläge :
- DTV Taschenbücher Bd.4660
- Weizsäcker, Carl Fr. von: Die Einheit der Natur. (dtv Wissenschaft). 1995. Kartoniert. 297gr.
- ISBN: 3-423-04660-0 , 29.90 DM –
- Kapitel I,2 und III von C.F.v. Weizsäcker
- das Buch ist etwas „uneinheitlich“ geschrieben und nicht leicht lesbar !
- Quantentheorie der Information.
- Lyre, Holger:
- Zur Naturphilosophie der Theorie der Ur-Alternativen und einer abstrakten Theorie der Information. Diss. Mit e. Geleitw. v. C. F. von Weizsäcker. (SpringerPhilosophie). 1998. XV, 267 S. m. 8 graph. Darst. 24,5 cm. Kartoniert. 548gr.
- ISBN: 3-211-83204-1, KNO-NR: 07 73 72 84
- -SPRINGER, WIEN-
- 68.00 DM – 496.00 öS
- Sofort lieferbar.
- Zusatztext:
- Holger Lyre unternimmt den grenzüberschreitenden Versuch, sowohl in die philosophisch-begrifflichen als auch physikalisch-mathematischen Zusammenhänge von Informations- und Quantentheorie einzudringen. Ausgehend von C. F. v. Weizsäckers „Quantentheorie der Ur-Alternativen“ werden eine abstrakte Theorie der Information in transzendentalphilosophischer Perspektive entworfen und die begrifflichen Implikationen einer konsequenten Quantentheorie der Information umfassend diskutiert. Der Autor präsentiert eine Fülle von Material aus den Bereichen Informations- und Komplexitätstheorie, Quantentheorie und Raum-Zeit-Physik sowie der Philosophie der Physik. Aufgrund der verständlichen Darstellung des Formalismus (mit umfangreichem mathematischenAppendix) ist das Buch auch für jeden interessierten Nicht-Spezialisten geeignet.
- Shannon, Claude E.: Ein / Aus. Schriften zur Nachrichtentheorie. Nachw. v.
- Friedrich Kittler. 1998. 304 S.. Gebunden.
- ISBN: 3-922660-68-1 , KNO-NR: 6 90 33 36
- – BRINKMANN U. BOSE-
- 60.00 DM – 438.00 öS
- nicht so leicht lesbar
Elements of Information Theory.
- Cover, Thomas M.; Thomas, Joy A.:
- 1991. XXIV, 542 p. 24,5 cm. Gebunden. 978gr.
- ISBN: 0-471-06259-6, KNO-NR: 09 40 72 94 -WILEY & SONS-
- 109.00 EUR –
- Sofort lieferbar.
- Inhaltsverzeichnis
- Entropy, Relative Entropy and Mutual Information.
- The Asymptotic Equipartition Property.
- Entropy Rates of a Stochastic Process.
- Data Compression.
- Gambling and Data Compression.
- Kolmogorov Complexity.
- Channel Capacity.
- Differential Entropy.
- The Gaussian Channel.
- Maximum Entropy and Spectral Estimation.
- Information Theory and Statistics.
- Rate Distortion Theory.
- Network Information Theory.
- Information Theory and the Stock Market.
- Inequalities in Information Theory.
- Bibliography.
- List of Symbols.
- Index.
Information and Coding Theory.
- Jones, Gareth A.; Jones, Josephine M.:
- Springer Undergraduate Mathematics Series (SUMS). 2000. XIII, 210 p. w. 31 figs. 23,5 cm. Kartoniert. 380gr.
- ISBN: 1-85233-622-6, KNO-NR: 09 21 60 84
- -SPRINGER, BERLIN-
- 59.00 DM – 431.00 öS – 54.00 sFr (unverbindlicher Richtpreis)
- Sofort lieferbar.
Zusatztext:
This book provides an elementary introduction to ‚Information Theory‘ and ‚Coding Theory‘ – two related aspects of the problem of how to transmit information efficiently and accurately. The first part of the book focuses on ‚Information Theory‘,covering uniquely decodable and instantaneous codes, Huffman coding, entropy, information channels, and Shannon’s Fundamental Theorem. In the second part, on ‚Coding Theory‘, linear algebra is used to construct examples of such codes, such as the Hamming, Hadamard, Golay and Reed-Muller codes. The book emphasises carefully explained proofs and worked examples; exercises (with solutions) are integrated into the text as part of the learning process. Only some basic probability theory and linear algebra, together with a little calculus (as covered in most first-year university syllabuses), is assumed, making it suitable for second- and third-year undergraduates in mathematics, electronics and computer science.
Siegfried, Tom: The Bit and the Pendulum.
From Quantum Computing to M Theory – The New Physics of Information. 2000. VI, 281 p. 22,5 cm.
Kartoniert. 370gr. ISBN: 0-471-39974-4, KNO-NR: 09 29 00 61 -WILEY & SONS-
19.43 EUR –
Information ist alles – Alles ist Information! Der erfolgreiche populärwissenschaftliche Autor Tom Siegfried vertritt in diesem aufregenden und unterhaltsamen, dabei fachlich exakten Band seine radikal neue Theorie: Die Materie besteht nicht aus Elementarteilchen, sondern aus Informationseinheiten! Wird man in naher Zukunft Objekte teleportieren können? Leiten superschnelle Quantencomputer eine neue Revolution der Informationstechnik ein? Ist unser Universum nur eines unter unendlich vielen anderen? Dieser und einer Fülle weiterer bewegender Fragen widmet sich der Autor in lebendiger, engagierter Weise.
==> Kommentar : Und hier ist wieder die Gretchenfrage . To bit or not to bit, that is the Question.
Internetseiten zum Thema Information
Gab es bis zum Jahr 2000 im deutschsprachigen Raum nur wenige Seiten die sich genauer mit dem Begriff Information beschäftigten, so sind seitdem eine Reihe von recht guten Seiten dazugekommen.
http://generalit.de/entro010.htm ***
- Die Selbstorganisation der Information
- Entwurf einer Allgemeinen Informationstheorie
- © Jürgen Viestenz, 1998…2001
http://www.ib.hu-berlin.de/~wumsta/infopub/textbook/umfeld/rehm.html***
- Information und Kommunikation in Geschichte und Gegenwart
- von Margarete Rehm
- sehr ausführliche Zusammenstellung
http://www.phil.uni-sb.de/fr/infowiss/diskusbeitr/reader/gesell/gesell6/
- „Was ist und wie entsteht Informationsarmut und Informationsreichtum?“
http://www.capurro.de/infovorl-kap1.htm***
- Der Informationsbegriff in der Informationswirtschaft
http://stud4.tuwien.ac.at/~e9426503/soinfoges/einleitung.html
- Christian Fuchs – Einleitung: Soziale Information und Selbstorganisation
- Was bedeutet Information in sozialen Systemen? Welche Selbstorganisationsmöglichkeiten gibt es in der Gesellschaft?
http://stud4.tuwien.ac.at/~e9426503/infoso/einheitinfo.html ***
- Ein einheitlicher Informationsbegriff für eine einheitliche Informationswissenschaft
http://beat.doebe.li/bibliothek/w00021.html
- Seite aus dem recht anregenden Biblionetz von Beat Döbli
http://goethe.ira.uka.de/redundanz/vortrag01/
- Grundlagen der Informationstheorie
http://www.lucent.com/minds/infotheory/
- Englische Seiten der Firma Lucent über die Informationstheorie
http://www.uni-hildesheim.de/~chlehn/artikel/isko/info_theorie_isko99.htm
- Holistische Definition von Information
http://www.ifi.unizh.ch/CL/volk/LexMorphVorl/Lexikon08.IR.html
- Informationslinguistik
http://www.mathematik.uni-bielefeld.de/ahlswede/itlinks_f.html
- Linkliste zum Thema Informationstheorie
http://www.brg-traun.ac.at/IAAC/gmunden/chaostheorie.htm
- eine schöne Chaosseite
http://www.brg-traun.ac.at/IAAC/gmunden/gmunden1.htm
- weitere schöne Chaosseiten
http://carbon.cudenver.edu/~mryder/itc_data/semiotics.html
- Semiotikseite Semiotik = Zeichenkunde
- Gesellschaft der Informationstheorie
http://www.111er.de/lexikon/begriffe/informat.htm
Information
… wurde im 15. Jh. dem lat. in-formare einer Sache eine bestimmte Form / Gestalt geben entlehnt und in dessen übertragener Bedeutung durch Unterweisung bilden gebraucht, im Sinne von lat. in-formatio Bildung, Belehrung . Im heutigen Sprachgebrauch ist Information eine über alles Wissenswerte in Kenntnis setzende, detaillierte, offizielle Unterrichtung, also Wissensvermittlung auch im großen Stil. Zu beachten ist hier die falsche Annahme, Information habe einen objektiven, tatsächlichen und eindeutigen Charakter. Jegliche Mitteilung ist durch die Sichtweise, die Verfassung und die Absichten der übermittelnden Person geprägt, auch wenn ein nach dem Muster der elektronischen Datenverarbeitung gebildetes Verständnis sich auf die unverfälschliche Logik der Technik beruft. Gleichzeitig gilt es zu verstehen, dass eine Information an sich noch nicht Bildung ist. Erst im Zusammenhang mit einer solidarischen, partnerschaftlichen Parteinahme für die Empfänger und mit deren inneren Verbindung zur eigenen Lebenswelt kann sie zur bildenden Erfahrung werden.
Literatur
Hirsig, B.: Von der Kunst nicht zu manipulieren. In: erwachsenenbildung und behinderung (1997) 2, 13-19.
Jakobs, H.: Information oder Manipulation. In: erwachsenenbildung und behinderung (1997) 2, 6-12.
Klaus, G. / Buhr, M. (Hrsg.): Philosophisches Wörterbuch. Leipzig 1969, 522-526.
Barbara Hirsig
http://www.ib.hu-berlin.de/~wumsta/infopub/textbook/sentenzen/sa8.html
INF: Textuelle Information ist die leistungsfähigste Form Wissen von Mensch zu Mensch zu übertragen.
EXP: Da der Mensch die Begabung hat, komplexen Begriffen und Vorstellungen in seinem Gehirn, einfache Namen zu geben und diese in seiner Sprache syntaktisch so zu verknüpfen, dass auch begründen kann, wie er zu seinem inneren Modell von dieser Welt gelangte, ist unsere Sprache das beste Mittel zur Kommunikation dieses Wissens. Bemerkenswert ist dabei, dass Tiere und Menschen, soweit sich dies beobachten lässt, zu inneren Modellen mit hoher Übereinstimmung gelangt sind.
Ein Bild sagt mehr als 1000 Worte
INF: Bilder sind besser als alles Andere geeignet Informationen zu repräsentieren.
EXP: Das Bildhafte sehen ermöglicht uns auf höchst engem Raum große Mengen an Signalen in räumlicher Relation zueinander aufzunehmen. Damit lassen sich Informationen in kurzer Zeit erfassen, die durch keinen anderen der menschlichen Sinne ersetzbar ist. Das Bild eines menschlichen Gesichts beispielsweise enthält Informationen über die Besonderheiten einer Person in so hoher Dichte, dass eine verbale Beschreibung unvergleichlich schlechter abschneidet.
INF: Wissen organisiert sich immer reproduktiv aus sich selbst heraus.
EXP: Ausgehend von einer Axiomatik, auf der jedes Wissen irreduzibel aufbaut, ergibt sich immer ein und das selbe Wissensgebäude. Auch wenn dieses Wissensgebäude immer mit einer gewissen Unschärfe behaftet ist, da es kein unendlich scharfes Wissen gibt, ist es für verschiedene Kommunikationspartner mit ähnlichem Wissen kompatibel. Nur bei fehlerhaftem bzw. irrelevantem Wissen kommt es daher wiederholt zu Missverständnissen. Das gilt für die Geistes- und Naturwissenschaften in gleicher Weise, wenn sie beide auf der sie verbindenden Informationstheorie aufbauen. Eine unscharfe oder unverbindliche Axiomatik muss dagegen zu permanenten Missverständnissen und zu Kommunikationsverlust führen.
Wissen kann damit nicht beliebig organisiert und auch nicht beliebig repräsentiert werden. Es reproduziert sich in jedem Lebewesen auf ganz ähnliche Weise neu, auch wenn die einzelnen Subjekte für sich bestimmte subjektive Betrachtungen des selben Wissens bevorzugen. Im Sinne Jakob von Uexkülls hat der Regenwurm daher eine eigene Merk- bzw. Umwelt. Er unterliegt trotzdem der selben Biologie, der selben Chemie und der selben Physik wie alle anderen Lebewesen dieser Welt. Sein genetisch erlerntes Wissen über diese Welt stimmt damit weitgehend mit dem aller anderen Lebewesen überein.
Kausalität
TER: Kausalität
DEF: Die Erkenntnis der Ursache eines Ereignisses.
EXP: In der täglichen Erfahrung der Lebewesen gibt es Ursache-Wirkungs-Zusammenhänge, die problemlos und sicher erkennbar sind. Das bedeutet, dass die Wahrscheinlichkeit dafür, das eine bestimmte Wirkung infolge einer ebenso bestimmten Ursache eintritt, etwa 1 ist. In solchen Fällen können wir auch von Monokausalität sprechen, weil das Ereignis nur durch eine einzige Ursache ausgelöst wird. Komplizierter wird es, wenn, wie beispielsweise in der Chemie, eine Reihe von Bedingungen erfüllt sein müssen, bevor die Reaktion eintritt. Hier kann man allerdings stärker ins Detail gehen, und eine komplexere Reaktionskette in mehrere Teilkausalketten zerlegen. Diese Problemunterteilung findet allerdings spätestens bei der Heisenbergschen Unschärferelation ihre Grenzen.
Den Mono- und Polykausalitäten müssen seit einiger Zeit auch die mono- und polyteleologischen Zustände gegenübergestellt werden. Während man im Sinne des Laplaceschen Dämons noch lange die Auffassung vertrat, dass sich bei genauer Kenntnis aller Ist-Zustände, eine einzige zukünftige Entwicklung exakt vorausberechnen lässt, kam die Wissenschaft im 20. Jh. immer stärker zu dem Ergebnis, dass, bedingt durch die Heisenbergsche Unschärferelation, durch die Katastrophentheorie, die Chaostheorie und durch weitere Beobachtungen, wie insbesondere die Mutationstheorie der Biologie, die Annahme, dass eine bestimmte Ursache bzw. Ursachenkonstellation zwangsläufig zu einer bestimmten Wirkung führt, falsch ist. Diese Vorstellung müssen wir daher verlassen und erkennen, dass es, wie beispielsweise beim Würfel, auch bei genauster Kenntnis der Ausgangsbedingungen, nicht möglich ist, vorherzusagen, welche Punktzahl zwischen 1 und 6 eintreten wird. Eine bestimmte Ausgangssituation führt damit nicht zu einer einzigen Endsituation, sondern, wie in diesem Falle zu sechs möglichen Zielen. Wir nennen diese Kausalkette somit hier eine polyteleologische Kausalität.
Mit dieser Feststellung entsteht leicht die Gefahr der Annahme, dass die Welt somit nicht mehr im Sinne des Laplaceschen Dämons berechenbar sei. Dies wäre allerdings eine unerlaubte Vereinfachung des Problems, weil die eindeutig beobachtbaren Gesetze in der Welt, in der wir leben, damit nicht außer Kraft gesetzt sind. Im Gegenteil, wir erkennen damit, dass die Welt
- in bestimmten Bereichen exakt,
- in bestimmten Bereichen begrenzt wahrscheinlich und
- in einigen Bereichen nur höchst unscharf vorausberechenbar ist.
Die Erfahrung beobachteter kausaler Zusammenhänge ist nicht zwangsläufig ein Zeichen für die Logik von Ursache-Wirkungs-Ketten, weil es sich auch um unabhängige Koinzidenz handeln könnte, bei denen ein anderer, als der beobachtete Auslöser, die wirkliche Ursache für die weitere Entwicklung des Geschehens ist. Es ist oft Aufgabe der Wissenschaft solche Abläufe genau zu prüfen, um damit auch die möglichen Gründe für die Koinzidenz herauszufinden . Bekanntes Beispiel ist die Abnahme der Störche und die gleichzeitige Abnahme der Geburtsrate in einem Landstrich Deutschlands, die natürlich nicht auf Kausalität beruhte. Da dies eigentlich auch nur einen einzigen Beobachtungszusammenhang betraf, könnte es sich um einen reinen Zufall gehandelt haben. Es ist allerdings auch denkbar, das beide Abnahmen direkt oder indirekt etwas mit der zunehmenden Industrialisierung zu tun hatten.
Bei Kausalitätsprüfungen kommt es daher oft darauf an, die Zeitintervalle zwischen Ursache und Wirkung möglichst gering zu halten. Noch komplizierter wird es in der Kybernetik und damit auch bei den Rückkopplungen der Mehrkörperprobleme. Hier wechselt sich einerseits Ursache und Wirkung permanent ab und andererseits kommen nicht selten unzählige Systemeinflüsse, die alle miteinander vernetzt sind, mit ins Spiel, so dass es in manchen Situationen unmöglich ist, noch zu sagen, was Ursache und was Wirkung ist. Insbesondere beim Mehrkörperproblem sind diese Ursache-Wirkungs-Ketten als gleichzeitig anzusehen, wenn diese Körper sich beispielsweise in ihren Gravitationsfeldern bewegen, so dass die Wirkung nur schwer als eine zeitliche Folge der Ursache identifizierbar ist. Um so wichtiger ist es daher zu prüfen, wie rasch eine Information von A zu B gelangen kann.
Nach unserer bisherigen Erfahrung war hier die Lichtgeschwindigkeit eine begrenzende Größe, die nun allerdings in bestimmten Zusammenhängen in Zweifel gezogen wird. Am kompliziertesten sind die Verhältnisse bei den sich wirklich selbst organisierenden kybernetischen Systemen wie den Lebewesen.
Interessanterweise identifizieren Lebewesen Kausalitätsketten durch Assoziation, so dass beliebig von der Wirkung auf die Ursache zurückgeschlossen bzw. von der Ursache auf die Wirkung gefolgert werden kann. Es fällt dem Menschen daher nicht schwer, auch antikausal (teleologisch) zu denken. Erst die Wissenschaft zwingt ihn hier zu einer präziseren Analytik im Denken. So haben sogar Biologen wenig Schwierigkeiten zu behaupten, die Pflanze produziere Chlorophyll, um Photosynthese zu betreiben. Das entspricht noch der griechischen Denkweise, dass der fallende Stein zum Erdboden hin strebt. Erst das Darwinistische Prinzip machte diese wissenschaftlich eher unlogische Behauptung zu einer Theorie, weil wir damit wissen, dass die Pflanze, diese Fähigkeit, Photosynthese zu betreiben, erst evolutionär erworben hat. Sie hat ihre Fähigkeit der Synthese von Chlorophyll und damit die Energiegewinnung aus Sonnenlicht aus ihrer Biogenetischen Evolutionsstrategie heraus erworben.
BIT
Acronym for binary digiT and the unit of measurement for variety, uncertainty, statistical entropy and information, all of which are quantified in terms of the (average) number of binary digits required to count a given number of alternatives (see degree of freedom). Equivalent interpretations of this unit are the average number of decisions required to exhaust a given number of alternatives, the average number of relays needed to represent a certain number, the average number of answers to yes-no questions necessary to select one out of a given number of objects. Thus the answer to a yes-or-no question conveys one bit of information. Two distinctions create four alternatives and not knowing which is desirable measures two bits of uncertainty. A Hollerith card with 12-by-80 places, each of which may be punched or left solid, can store 960 bits of information. More generally, n equally likely alternatives correspond to log_2 n bits (see law of requisite variety). (krippendorff)
BINARY
Two-valued. A binary relation states how two kinds of elements are linked, e.g., „is married to“, „is talking with“, „is larger than“, „precedes“ . A binary alphabet contains two kinds of characters, e.g., „0“ and „1“, „yes“ and „no.“ A distinction, e.g. between „inside“ and „outside“, is a binary operation. Binary contrasts with unary = one-valued, ternary = three-valued, etc. (krippendorff)
Negentropy
Negative entropy
——————————————————————————–
Description 1. The tendency of an open system toward increasing order and complexity.
2. A comparative measure of average information i.e. the efficiency of a communication system in transmitting information. The efficiency measure of the transmission of information in a communications system is statistically akin to the measure of negentropy. The measure of noise in a communication system or transmitted message is akin to the statistical measure of entropy. Negative entropy in communications may also be described as the statistical measure of the probability of meaningful information, and in cybernetic terms, of the probability of order or control. All the most important principles of statistical mechanics can be deduced from the concepts of entropy in information-communication theory.
3. In the philosophy of science the theses of information as a fundamental universal property of matter.
Orginaltext sz : 10. Oktober 2000
Physik-Nobelpreis für drei Elektronik-Forscher
Der Russe Zhores Alferov sowie der gebürtige Deutsche Herbert Kroemer und der US-Amerikaner Jack Kilby schufen die Grundlagen für moderne Computer- und Kommunikationstechnik. Die Schwedische Akademie der Wissenschaften hat den Physik-Nobelpreis des Jahres 2000 drei Forschern zuerkannt, die maßgeblich an den Grundlagen moderner Mikroelektronik arbeiteten.
Information und Kommunikation
Zu der Entscheidung mag beigetragen haben, dass die Welt am Ende des 20. Jahrhunderts auf enorme Weise von Informations- und Kommunikationstechnik geprägt ist. Es gibt kaum einen Lebensbereich, in dem Mikrochips, Hochleistungsschaltkreise sowie Glasfaserkabel nicht eine wichtige Rolle spielen, ob im Haushalt, im Auto, am Arbeitsplatz oder im Wirtschaftsgeschehen.
Klein und schnell
Zwei wesentliche Eigenschaften müssen elektronische Bauteile erfüllen, damit sie ihre heutige Bedeutung in der Technik bekommen: Sie müssen klein und schnell sein. Beides haben die Forschungen der nun ausgezeichneten Physiker ermöglicht.
Zhores Alferov (*1930)
Der russische Wissenschaftler Zhores Alferov hat zusammen mit dem Amerikaner Herbert Kroemer schnelle optische mikroelektronsische Komponenten auf der Basis geschichteter Halbleiter entwickelt. Die von ihnen erdachten, extrem schnell schaltenden Transistoren finden sich heute in Kommunikationssatelliten und Mobilfunkstationen. Andere Bauelemente wie Leuchtdioden arbeiten in CD-Spielern und Supermarktkassen.
Der Heterotransistor
Speziell der von Kroemer erstmals im Jahre 1957 erdachte „Heterotransistor“ eignet sich zur Verarbeitung extrem hoher elektrischer Frequenzen. So kann man mit diesen Transistoren bis zu 600 Milliarden Schwingungen pro Sekunde messen. Das ist das Hundertfache herkömmlicher Transistoren.
Herbert Kroemer (*1928)
Der dritte Preisträger, Jack Kliby, ist für seine Erfindung, den so genannten Mikrochip geehrt worden. Dieses aus keinem elektronsichen Gerät mehr wegzudenkende Bauteil hat nicht nur den Fortschritt der Computertechnik insbesondere des PC, ermöglicht, sondern auch das Zusammenwachsen von Digitaltechnik und Alltagsgeräten. Keine moderne Waschmaschine arbeitet heute ohne Mikrochip.
Entdeckung von 1958
Kilby machte seine Entdeckungen im Jahre 1958 als 35-jähriger Ingenieur bei der amerikanischen Elektronik-Firma Texas Instruments.
Jack Kilby (*1923)
Mit Hilfe des Halbleitermaterials Germanium, das seine elektrische Leitfähigkeit ändert wenn man eine äußere Spannung anlegt, gelang es Kilby, das wichtigste Bauteil der Elektronik, den Transistor, auf eine kleine flache Platte zu schrumpfen, die sich mit einer Hülle aus nichtleitendem Material zu einem Mikrochip formen lässt.
Auf Basis von Kilbys Entdeckung gelang es in der Folgezeit immer mehr winzigste Transistoren in Mikrochips zu pressen, so dass unter anderem die Basis heutiger Mikroprozessoren geschaffen wurde. Ein moderner Pentium-III-Mikrochip enthält viele Millionen mikroskopisch kleiner Halbleiter-Transistoren.
Quellen: sueddeutsche.de / www.nobel.se
Amount of data versus Information
P. Schmälzle and F. Herrmann Abteilung Didaktik der Physik, Universität Karlsruhe, 76128 Karlsruhe, Germany
Abstract
It is argued to use the word amount of data instead of information for the quantity introduced by C. Shannon.
C. Shannon [1] defined the quantity
H = – K * (Summe von i = 1 bis n )*pi * ln pi = – K * (Summe von i = 1 bis n )*pi * ln pi
and called it entropy of an information source or entropy of probabilities p1, … pn. However, it has soon become customary to call this quantity information [2], [3], [4]. We will try to show in this note that the word information is inappropriate and argue in favour of the name amount of data.
When a name has to be given to a physical quantity often a word from the colloquial, i.e. non-scientific language is chosen. This entails that the meaning of the word is at the same time restricted and defined more precisely. Choosing a word from common language to denote a physical quantity can help the learner to acquire an intuitive idea about the quantity. An improperly chosen word, however, can mislead the intuition of the learner. The word information for the quantity H is an example for this latter case.
This can be seen by considering the following sentence, which is typical for the use of the word information in common language: He gave me an important information about an affair. This sentence shows that there is a discrepancy between the common language use and the scientific use of the word information in several points.
1) In this sentence information is used to term what in communication theory is called a (single) message. However, the quantity H of equation (1) is not a message but a measure of an amount of messages like mass is not matter but a measure of an amount of matter.
2) The adjective important in the above sentence shows, that the content of the message is evaluated according to a human criterion. The same message could be qualified as unimportant by another person. However, communication theory doesn’t take into account any human evaluation of the transmitted data.
3) The sentence cited above shows, that one always gets information about something, in our example about an affair, or, expressed more formally: system A transmits information to system B about a system C. This way of speaking causes difficulties, if one asks to which system the quantity H has to be attributed. Shannon?s quantity H clearly is attributed to one physical system, e.g. a data source. The value of H is determined by the probability distribution {pi}. It also makes sense to speak about the flow of the quantity H from one system A to another system B. However, there is no need to mention a further system C, to which the information might refer.
We have observed that these discrepancies are the origin of wrong conclusions not only by beginners but also by people who are experienced in thermodynamics and communication theory.
Thus, we propose a name for the quantity H which avoids the above mentioned difficulties: amount of data. This name is formed in analogy to the well-established name amount of substance. The part amount of the name indicates that not a single message is meant, but a measure of an amount of messages. The part data suggests that the meaning of the messages is left out of consideration. For the same reason, by the way, Schopenhauer [5] designated the signals transmitted between the sensory organs and the brain with the Latin word data. Thus, speaking about data is speaking about single messages without taking into account any human evaluation.
Using the word data in our context has another advantage: today, many word combinations beginning with data are in common usage, e.g. data processing, data storage, data transmission, data line etc. Thus, to call the quantity H amount of data is a natural extension of such word combinations.
One might propose, however, to call the quantity H entropy, as it was done originally by Shannon. One more argument in favour of this name would be that the entropy of a thermodynamical system can be interpreted as information in the sense of Shannon’s definition [6], [7]. The entropy in which the communications engineer is interested is simply an additive term in the total physical entropy of a system. (In general, this term is very small compared to the total entropy.) Since for communication science only this (small) term matters, we think it is justified to give it a name of its own.
References
[1] C. Shannon, The mathematical theory of communication. Urbana: University of Illinois Press, 1949.
[2] M. Tribus, Thermostatics and thermodynamics. Princeton: D. van Nostrand Company, 1961.
[3] G. Raisbeck, Information theory. Massachussetts: MIT Press, 1963.
[4] H. Haken, Synergetics. Berlin: Springer Verlag, 1977.
[5] A. Schopenhauer, Die Welt als Wille und Vorstellung. Zürich: Diogenes, 1977, Vol II, pp. 33?37.
[6] E.T. Jaynes, Information Theory and Statistical Mechanics. Phys. Rev. 106, 620-630, 1957.
[7] F. Herrmann, An Analogy between Information and Energy. Eur. J. Phys. 7, 174-176, 1986.
Hinweis: Die ursprüngliche Seite madeasy.de existiert leider nicht mehr. Deshalb haben wir hier einige der wichtigsten Inhalte per Internet Archive (Wayback Machine) wieder hergestellt, um Sie für die Nachwelt zu erhalten.