Entropie und Information

  • Entropie und Information



    Der Begriff Information ist ein zentraler Begriff der heutigen Zeit und deshalb kaum isoliert, d. h., von der individuellen Wahrnehmung des 'Ich bin' abstrahiert, zu betrachten. Er spielt in der Entropie, der Quantenmechanik, dem Internet etc. eine ebenso kaum wegzudenkende Rolle wie in vielen anderen Bereichen des täglichen Lebens, wo er weniger offenkundig in Erscheinung tritt; sprich: nicht bewusst wahrgenommen wird. Aber was ist Information und weshalb messen wir ihr heutzutage eine derart große Bedeutung zu, das selbst führende Wissenschaftler sie als die 'möglichen' Bausteine des Kosmos ansehen?


    In der Metaphysik von Aristoteles steht: 'Alle Menschen streben von Natur nach Wissen'21, oder eben nach Information. Und in der Bibel heißt es: 'Im Anfang war das Wort', oder wie es im englischen ausgedrückt wird: 'It from Bit'. Nach J. Wheeler, von dem der Begriff stammt, nahm der Kosmos seinen Anfang in einer Formbildung, und so gesehen, erzeugen wir Objekte erst durch Information, die sie uns selbst mitteilen.


    Doch wie kann Information definiert werden? Als kopier- und mitteilbares Muster, welches das 'Ich bin' versteht und das eigenständig neue Strukturen, Module etc. unter Erhalt der Struktur erzeugen kann? Und bestehen diese raumzeitlichen Muster aus Bits oder sind sie quantisierbar? Zudem kann Information in Form von Frequenzen, chemischen Reaktionen etc. gespeichert und verbreitet werden. 'Im Anfang war das Wort' könnte auch heißen, dass es im Urstoff, im Urgrund usw. bereits angelegt war und A. Zeilinger vertritt die Hypothese, dass 'Wirklichkeit und Information dasselbe sind'22.


    Für R. Wiener und seine Mitarbeiter trat der Informationsgehalt eines Systems gleichberechtigt neben seine Energie und sie definierten Information, als ein Maß für den Grad an Ordnung innerhalb eines Systems. Damit verknüpften sie die Information mit dem in der Thermodynamik verwendeten Begriff Entropie, der das Wechselspiel von Ordnung und Unordnung beschreibt. Mit anderen Worten: Die Entropie (griech: 'trope' von Umwandlung) beschreibt die Änderung eines Systems, und legt man ihr eine konstante Energie zugrunde, so strebt die Unordnung beständig ihrem Maximum zu.


    Ein Bereich, in dem die Information größte Bedeutung erlangte, ist die Molekularbiologie, und zwar in Form des Begriffs 'Desoxyribonukleinsäure', kurz DNA, in deren Doppelhelix als Folge von Bausteinen die genetische Information des Lebens eingewoben ist. Angeregt durch E. Schrödinger und seine These, dass Gene Information erhalten und weitergeben, lenkten J. Watson und F. Chrick ihre Forschungsarbeit auf die Gene und versuchten, die Struktur der DNA zu erkunden. Fazit: Information wird als Kette in sogenannten Basen – dem Code des Lebens – gespeichert und gleicht damit der Welt der Maschinen.


    In den nachfolgenden Jahren beschäftigten sich Physiker wie Informationswissenschaftler mit der alten Frage, die unter der Bezeichnung 'Maxwells Dämon' Ruhm erlangte. Ausgedacht von J. C. Maxwell, beschreibt er einen Behälter mit einer mittig angebrachten Trennwand, die eine winzige verschließbare Öffnung besitzt. In beiden Seiten befindet sich Luft gleicher Temperatur. Ein Dämon, der die einzelnen Moleküle sehen kann, öffnet und schließt die Verbindung so, dass er die schnellen von den langsamen Molekülen trennt. Vorausgesetzt, dass der Prozess selbst keine Energie verbraucht, dann kann mit der Temperaturdifferenz eine Maschine angetrieben werden, und weil im Behälter selbst nichts verändert wird, außer der Verringerung der Temperatur, haben wir ein Perpetuum Mobile zweiter Art erschaffen. Soweit das Gedankenexperiment.


    Maxwell war zudem der Erste, der die Bedeutung der Tatsache erkannte, dass sich Moleküle aufgrund ihrer ungeordneten Bewegung in einem Gas unmöglich alle mit derselben Geschwindigkeit bewegen können. Und weil das 'Ich bin' Moleküle weder sehen, zählen oder messen kann, ist nur über einen statistischen Ansatz auf der Grundlage probabilistischer Annahmen die Beschreibung objektiver physikalischer Systeme möglich. Folgende Aspekte, so seine Überlegung, sind für die Geschwindigkeit eines Moleküls von Bedeutung: Die des Raums (Dimensionen) und die sich daraus ergebenden Impulse, und da diese unabhängig voneinander sind, leitete er daraus ein Gesetz für die Verteilung der Geschwindigkeit ab. Maxwells Wahrscheinlichkeitstheorie markierte die Geburtsstunde der modernen statistischen Physik.


    Der oben angesprochene Dämon sollte den zweiten Hauptsatz der Thermodynamik auf den Prüfstein stellen und die Physiker indirekt zwingen, die Unmöglichkeit des Dämons aufzuzeigen. Hundert Jahre mussten vergehen, ehe die Lösung gefunden wurde und – es ist keine sonderliche Überraschung: Es hat mit Information zu tun. Zuvor ein Wort zu den drei Hauptsätzen der Thermodynamik:

    • Energie kann weder erzeugt noch vernichtet, nur umgewandelt werden.
    • Die Entropie kann nicht abnehmen.
    • Der absolute Nullpunkt kann nicht erreicht werden.


    Es war die Zeit der Industriellen Revolution und zahlreiche Physiker beschäftigten sich mit der Frage, wie möglichst viel Energie in Arbeit umgewandelt werden, oder anders formuliert: der Gesamtenergie möglichst viel von ihrer freien Energie – die tatsächlich Arbeit leisten konnte – entzogen werden kann. Sie übersahen jedoch, dass Naturvorgänge stets in einer Richtung ablaufen. So strömt Wärme in einem Glas stets zu den Eiswürfeln, die wir in unseren Whiskey werfen und niemals umgekehrt. Sind die Eiswürfel gelöst, kommt der Energietransfer zum Erliegen.


    M. Planck formulierte es in seinen Vorlesungen folgendermaßen: 'Ob Wärmeleitung in die Richtung vom wärmeren zum kälteren erfolgt oder umgekehrt, daraus lässt sich aus dem Energieprinzip nicht das mindeste schließen', und als den zweiten Hauptsatz: 'In der Natur existiert für jedes Körpersystem eine Größe, welche die Eigenschaft besitzt, bei allen Veränderungen, die das System allein betreffen, entweder konstant zu bleiben oder an Wert abzunehmen'23. Folglich existieren in der Natur Prozesse, die unumkehrbar sind, und dafür hatte R. Clausius den Begriff Entropie eingeführt, den er selbst auf die universale Formulierung brachte: 'Die Entropie strebt einem Maximum zu'24.


    Nun zur Lösung des Problems von Maxwells Dämon, die von L. Szilárd stammt, der den Dämon nicht bloß als physikalische Apparatur betrachtet, sondern zudem als intelligent, denn er muss im Prinzip Entscheidungen treffen. Folglich kann er a) nicht beliebig klein sein und b) muss er die für seine Entscheidungen notwendigen Informationen zuerst gelernt und dann abgespeichert haben. Mit anderen Worten: Die Zunahme an Information verwirrt den Dämon und irgendwann verliert er regelrecht die Übersicht, sodass es ihm nicht mehr gelingt, zwischen schnellen und langsamen Molekülen zu unterscheiden. Damit haben wir sämtliche Zutaten in Bezug auf Entropie und Information zusammen.


    Ist Information physikalisch? Dazu das Landauer-Prinzip. In Computern entstehen thermodynamische Verluste nicht durch die Verarbeitung von Information, sondern erst durch deren Löschung, ihr Vergessen. Deshalb muss selbst Maxwells Dämon, der ja ungeheure Mengen an Informationen sammelt, entweder mit der Zeit riesig werden oder er muss Informationen löschen und dafür zahlt er den Preis des Vergessens und dadurch wird die Entropie exakt mit der Menge ausgestattet, die ihr durch den Sortiervorgang entzogen wurde. Der zweite Hauptsatz bleibt gültig.


    Kann Information – analog zur Energie – weder erzeugt noch vernichtet werden? Information ist etwas Reales, eine Größe, mit der wir den Kosmos erfassen, somit physikalisch, und wie es salopp ausgedrückt wird: 'Information klebt vielmehr immer an physikalischen Repräsentationen'. Oder auch: Information ist gesprochenes Wort, codiert auf Festplatten (alten Steinplatten) und tritt dort in den Phonemen der Sprache oder in den Symbolen der Schriftzeichen auf.


    Betrachten wir dazu noch einmal den Begriff selbst. Was verstehen wir unter Information? Nehmen wir den Satz: Das Wetter wird schlechter. Um zu begreifen, was damit ausgesagt wird, müssen wir den Satz, seinen Informationsgehalt verstehen und zum Zweiten erzeugt er weitere Informationen – 'vorsichtshalber Schirm mitnehmen'. Ob in der Kommunikation, beim Fernsehen oder Lesen, es ist stets derselbe Prozess: Information wird erworben und erzeugt ihrerseits neue Information. Uns soll an dieser Stelle nur die physikalisch dargebotene Information interessieren bzw. deren Informationsgehalt.


    Das Konzept des Informationsgehaltes besagt, dass der Informationsgehalt einer Nachricht etwas mit der Wahrscheinlichkeit zu tun hat, mit der das Berichtete eintritt. Somit ist der Informationsgehalt – auch Überraschungswert genannt – eine logarithmische Größe, die angibt, wie viel Information in dieser Nachricht übertragen wurde.


    Folglich kommt es beim Informationsgehalt nicht nur auf die Länge der Nachricht (Zahl der Bits) an, sondern auch auf ihre Signifikanz. Das besagt: Bei zwei Nachrichten trägt die mit der geringeren Wahrscheinlichkeit die höhere Information. Man könnte auch sagen, dass der Informationsgehalt eines Zeichens umgekehrt proportional zum Logarithmus der Wahrscheinlichkeit ist, mit der man es erraten kann. Der Informationsgehalt ist also ein Maß für die maximale Effizienz, mit der eine Information übertragen werden kann. Fazit: Information ist tatsächlich physikalisch.


    Ein letztes Wort zur physikalischen Natur der Information. Es ist einfach, sich das Gesetz der Entropie zu veranschaulichen, weil es in unserem Alltagsgeschehen so viele natürliche Beispiele dafür gibt. Der Schreibtisch, der mit jeder Stunde mehr Unordnung aufweist oder der Milchtropfen im Kaffee, der sich beständig darin ausbreitet. So werden wir mit großer Wahrscheinlichkeit stets einen hellbraunen Kaffee vorfinden, in dem die Milch gleichmäßig verteilt ist und vermutlich nie eine Tasse, in der der Tropfen am Rand schwimmt. Entropie lässt sich als Wahrscheinlichkeit ausdrücken und dies wird im Falle der Information praktiziert.


    Der Satz von der Entropie drückt aus, dass die Milchmoleküle von selbst nie wieder in den Ausgangspunkt zurückfinden, sondern sich gleichmäßig ausbreiten. Wenn sie homogen verteilt sind, lässt sich sagen, dass sie keine zufälligen Möglichkeiten mehr besitzen und die Entropie deshalb auch über den Vorrat an Möglichkeiten beschrieben werden kann, über den jedes physikalische System verfügt.


    Der Grund dafür ist, dass die Ausbreitung der Milch durch sehr viele sogenannte Mikrozustände zustande kommen kann, während der Makrozustand in unserem Beispiel lediglich auf eine einzige Weise charakterisiert werden kann. Physikalische System besitzen offensichtlich die Eigenschaft, Makrozustände anzunehmen, die über unendlich viele Mikrozustände verwirklicht werden können. Wir erinnern uns:In Bezug auf die Entropie, die mit Wahrscheinlichkeiten operiert, ist die Wahrscheinlichkeit, einen hellbraunen Kaffee zu finden, indem die Milch gelöst vorliegt, wesentlich größer, als eine Tasse, in der der Milchtropfen ungelöst in der Mitte schwimmt. Der Grund dafür ist, dass die Ausbreitung der Milch durch sehr viele sogenannte Mikrozustände bewirkt werden kann, während der Makrozustand im Falle des ungelösten Tropfens lediglich durch eine einzige Weise charakterisiert werden kann. Mit anderen Worten: Ein Makrozustand wird durch die Zahl der Mikrozustände charakterisiert, die ihn hervorbringen. Wenn wir dazu den Milchtropfen betrachten, so ist die Wahrscheinlichkeit dafür, in als Tropfen zu finden, sehr viel geringer als seine gleichmäßige Verteilung in der Tasse. Lässt man jetzt der Wahrscheinlichkeit ihren Gang, so wird sie denjenigen Makrozustand verwirklichen, dem die meisten Mikrozustände entsprechen und der deshalb wahrscheinlicher ist. Anders formuliert: Dies bedeutet, Entropie und Information sind, wie bereits gesagt, nahe Verwandte, und wenn der Zweite Hauptsatz der Thermodynamik besagt, dass die Entropie physikalischer Prozesse zunimmt und einem Maximum zustrebt, so gilt dies auch für die Information. Trotzdem verbietet selbst eine hohe Wahrscheinlichkeit nicht die Rückkehr in den Anfangszustand.


    Mit anderen Worten: Entropie und Information sind eng miteinander verknüpft (korreliert), und wenn wir vom zweiten Hauptsatz der Thermodynamik ausgehen, so muss auch die Information einem Maximum zustreben.

Letzte Aktivitäten

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!

Ungelesene Themen

    1. Thema
    2. Antworten
    3. Letzte Antwort
    1. Körpersprache: In Italien gestikulieren Menschen doppelt so viel wie in Nordeuropa

      • Volker
    2. Antworten
      0
      Zugriffe
      6
    1. Staatsgründung: Die nullte Dynastie der Ägypter

      • Volker
    2. Antworten
      0
      Zugriffe
      15
    1. Bilder der Woche: Ein Haufen seltener Fische

      • Volker
    2. Antworten
      0
      Zugriffe
      25
    1. Bilder der Woche: Salzkorngroßer Sensor lauscht am Hirn

      • Volker
    2. Antworten
      0
      Zugriffe
      37
    1. Was wir über Ernährung wirklich wissen

      • Volker
    2. Antworten
      0
      Zugriffe
      40