Information (Physik): Unterschied zwischen den Versionen

Information (Physik): Unterschied zwischen den Versionen

imported>Debenben
K (linkfix)
 
imported>Mbreiling
(Bit wird häufiger verwendet als Shannon (siehe Diskussion))
 
Zeile 1: Zeile 1:
In der [[Statistische Physik|statistischen Physik]] ist die '''fehlende Information''' eines Systems die Information, die benötigt wird, um herauszufinden, in welchem Zustand sich ein System befindet. Sie ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten
{{QS-Physik|Unerledigt=2019}}
{{Redundanztext
|3=Information (Physik)
|4=Entropie (Informationstheorie)
|2=April 2021|1=[[Benutzer:Minderbinder|Minderbinder]]  16:50, 9. Apr. 2021 (CEST)}}
Mit dem Begriff der '''Information''' ist in der [[Statistische Physik|statistischen Physik]] eine anschauliche Verknüpfung zwischen [[Entropie]] (hier: fehlende Information oder Informationsentropie) und [[Wahrscheinlichkeit]] für eine Interpretation des Entropiebegriffs möglich.<ref name="haegele"/> Die ''fehlende Information'' eines Systems ist die Information, die benötigt wird, um zu beschreiben, in welchem Zustand sich ein System befindet.
 
Die fehlende Information eines abgeschlossenen Systems ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten
:<math>I = -k \sum_{i=1}^n p_i \ln( p_i )\ ,</math>
:<math>I = -k \sum_{i=1}^n p_i \ln( p_i )\ ,</math>
wobei die <math>p_i\,</math> die Wahrscheinlichkeiten der <math>n</math> Zustände des Systems sind.  
wobei die <math>p_i\,</math> die Wahrscheinlichkeiten der <math>n</math> Zustände des Systems sind.


Als '''Informationsentropie''' <math>S</math> wird die fehlende Information bezeichnet, um herauszufinden, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines [[Ensemble (Physik)|Ensemble]]s befindet.
Als Informationsentropie <math>S</math> wird die fehlende Information bezeichnet, die beschreibt, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines [[Ensemble (Physik)|Ensemble]]s befindet.


Setzt man <math>k = \ln(2)^{-1}</math>, so ergibt sich der [[Informationsgehalt]] aus der [[Informationstheorie]] in der Einheit [[Shannon (Einheit)|Shannon]]. In der Statistischen Physik setzt man jedoch <math>k</math> auf die [[Boltzmann-Konstante]] <math>k=k_\mathrm{B}</math>, weil dann die Informationsentropie eines Ensembles mit der thermodynamischen [[Entropie]] übereinstimmt.
Setzt man <math>k = \ln(2)^{-1}</math>, so ergibt sich der [[Informationsgehalt]] aus der [[Informationstheorie]] in der Einheit [[Shannon (Einheit)|Shannon]] bzw. ''Bit''. Für <math>k = 1</math> erhält man den Informationsgehalt in der Einheit [[Nit (Informationseinheit)|Nit]] bzw. ''Nat''. In der Statistischen Physik benutzt man <math>k</math> die [[Boltzmann-Konstante]] <math>k=k_\mathrm{B}</math> als Proportionalitätsfaktor, weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.


Das [[Gleichgewichtssystem]] ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.
Das [[Gleichgewichtssystem]] ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.
Zeile 11: Zeile 18:
== Mikrokanonisches Ensemble ==
== Mikrokanonisches Ensemble ==
{{Hauptartikel|Mikrokanonisches Ensemble}}
{{Hauptartikel|Mikrokanonisches Ensemble}}
Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand <math>(E, N, V,\dots)</math>, bei dem z.&nbsp;B. ''E'' die Energie, ''N'' die Teilchenzahl und ''V'' das Volumen sind, eine Anzahl <math>W(E, \dots)</math> mikroskopischer Zustände, so sind folglich die Energieniveaus <math>E_n\,</math> mit den Wahrscheinlichkeiten <math>p_n=1/W(E, \dots)</math> vertreten.
Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand <math>(E, N, V,\dots)</math>, bei dem z.&nbsp;B. <math>E</math> die Energie, <math>N</math> die Teilchenzahl und <math>V</math> das Volumen sind, eine Anzahl <math>W(E, \dots)</math> mikroskopischer Zustände, so sind folglich die Energieniveaus <math>E_n\,</math> mit den Wahrscheinlichkeiten <math>p_n=1/W(E, \dots)</math> vertreten.


Die Informationsentropie beträgt dann
Die Informationsentropie beträgt dann
:<math>S \;=\; - k_\mathrm{B} \sum_n \frac{1}{W(E_n)}\, \ln \left( \frac{1}{W(E_n)}\right)\ ,</math>
:<math>S \;=\; - k_\mathrm{B} \sum_n \frac{1}{W(E_n)}\, \ln \left( \frac{1}{W(E_n)}\right)\ ,</math>
beziehungsweise für eine bestimmte Energie <math>E_n</math>  
beziehungsweise für eine bestimmte Energie <math>E_n</math>
:<math>S \;=\; - k_\mathrm{B} \ln\left( \frac{1}{W(E_n)}\right) \;=\; k_\mathrm{B} \ln (W)\ . </math>
:<math>S \;=\; - k_\mathrm{B} \ln\left( \frac{1}{W(E_n)}\right) \;=\; k_\mathrm{B} \ln (W)\ . </math>


Zeile 26: Zeile 33:
== Literatur ==
== Literatur ==
* {{Literatur  | Autor = [[Kerson Huang]] | Titel = Introduction to Statistical Physics | Jahr = 2010 | Verlag = CRC Press | Ort = Boca Raton | ISBN = 978-1-4200-7902-9 }}
* {{Literatur  | Autor = [[Kerson Huang]] | Titel = Introduction to Statistical Physics | Jahr = 2010 | Verlag = CRC Press | Ort = Boca Raton | ISBN = 978-1-4200-7902-9 }}
* {{Internetquelle | url=http://theorie.physik.uni-konstanz.de/dieterich/skripte/Statistische-Mechanik2008.pdf | titel=Statistische Mechanik | titelerg=Vorlesung im WS 2004/5 | autor=Prof. Dr. W. Dieterich, Oliver Schlotterer | hrsg=Fachbereich Physik, Universität Konstanz | seiten=57–61 | datum=Februar 2009 | zugriff=2012-01-21 | format=PDF; 2,4&nbsp;MB }}
* {{Internetquelle | url=http://theorie.physik.uni-konstanz.de/dieterich/skripte/Statistische-Mechanik2008.pdf | titel=Statistische Mechanik | titelerg=Vorlesung im WS 2004/5 | autor=W. Dieterich, Oliver Schlotterer | hrsg=Fachbereich Physik, Universität Konstanz | seiten=57–61 | datum=Februar 2009 | zugriff=2012-01-21 | format=PDF; 2,4&nbsp;MB }}
* [[Horst Völz]]: ''Das ist Information.'' Shaker Verlag, Aachen 2017. ISBN 978-3-8440-5587-0.
* [[Horst Völz]]: ''Weltbeschreibung. Raum, Zeit, Temperatur und Information – Aspekte, Standpunkte, Debatten.'' Shaker Verlag, Aachen 2018, ISBN 978-3-8440-6323-3.
* {{Internetquelle | url=http://www.romanistik.uni-freiburg.de/raible/Publikationen/Files/Informationsbegriff.pdf | titel= “Information”, Ein Schlüsselbegriff für Natur- und Kulturwissenschaften.
| titelerg= Kolloqium an der Universität Freiburg | autor=Wolfgang Raible | hrsg=Heidelberger Akademie der Wissenschaften | seiten=4 | datum=16. Mai 2009 | zugriff=2021-03-02 | format=PDF; 1,43&nbsp;MB }}
 
== Einzelnachweise ==
<references>
<ref name="haegele">{{Internetquelle |autor= P. Hägele |url= https://www.uni-ulm.de/fileadmin/website_uni_ulm/archiv/haegele//Vorlesung/Grundlagen_II/_information.pdf |titel= Was hat Entropie mit Information zu tun? |werk= Vorlesungsscript der [[Universität Ulm]] |datum= 3. August 2004 |seiten= 7 |abruf=2021-03-07}}</ref>
 
</references>


[[Kategorie:Statistische Physik]]
[[Kategorie:Statistische Physik]]
[[Kategorie:Informationstheorie]]
[[Kategorie:Informationstheorie]]

Aktuelle Version vom 26. Oktober 2021, 00:48 Uhr

Icon tools.svg
Dieser Artikel wurde den Mitarbeitern der Redaktion Physik zur Qualitätssicherung aufgetragen. Wenn du dich mit dem Thema auskennst, bist du herzlich eingeladen, dich an der Prüfung und möglichen Verbesserung des Artikels zu beteiligen. Der Meinungsaustausch darüber findet derzeit nicht auf der Artikeldiskussionsseite, sondern auf der Qualitätssicherungs-Seite der Physik statt.
Die Artikel Information (Physik) und Entropie (Informationstheorie) überschneiden sich thematisch. Hilf mit, die Artikel besser voneinander abzugrenzen oder zusammenzuführen (→ Anleitung). Beteilige dich dazu an der betreffenden Redundanzdiskussion. Bitte entferne diesen Baustein erst nach vollständiger Abarbeitung der Redundanz und vergiss nicht, den betreffenden Eintrag auf der Redundanzdiskussionsseite mit {{Erledigt|1=~~~~}} zu markieren. Minderbinder 16:50, 9. Apr. 2021 (CEST)

Mit dem Begriff der Information ist in der statistischen Physik eine anschauliche Verknüpfung zwischen Entropie (hier: fehlende Information oder Informationsentropie) und Wahrscheinlichkeit für eine Interpretation des Entropiebegriffs möglich.[1] Die fehlende Information eines Systems ist die Information, die benötigt wird, um zu beschreiben, in welchem Zustand sich ein System befindet.

Die fehlende Information eines abgeschlossenen Systems ist die gewichtete Summe der Logarithmen der Zustandswahrscheinlichkeiten

$ I=-k\sum _{i=1}^{n}p_{i}\ln(p_{i})\ , $

wobei die $ p_{i}\, $ die Wahrscheinlichkeiten der $ n $ Zustände des Systems sind.

Als Informationsentropie $ S $ wird die fehlende Information bezeichnet, die beschreibt, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines Ensembles befindet.

Setzt man $ k=\ln(2)^{-1} $, so ergibt sich der Informationsgehalt aus der Informationstheorie in der Einheit Shannon bzw. Bit. Für $ k=1 $ erhält man den Informationsgehalt in der Einheit Nit bzw. Nat. In der Statistischen Physik benutzt man $ k $ die Boltzmann-Konstante $ k=k_{\mathrm {B} } $ als Proportionalitätsfaktor, weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.

Das Gleichgewichtssystem ist in diesem Sprachgebrauch das System mit dem Maximum an fehlender Information.

Mikrokanonisches Ensemble

Im mikrokanonischen Ensemble sind alle Zustände gleich häufig vertreten. Gibt es für den makroskopischen Zustand $ (E,N,V,\dots ) $, bei dem z. B. $ E $ die Energie, $ N $ die Teilchenzahl und $ V $ das Volumen sind, eine Anzahl $ W(E,\dots ) $ mikroskopischer Zustände, so sind folglich die Energieniveaus $ E_{n}\, $ mit den Wahrscheinlichkeiten $ p_{n}=1/W(E,\dots ) $ vertreten.

Die Informationsentropie beträgt dann

$ S\;=\;-k_{\mathrm {B} }\sum _{n}{\frac {1}{W(E_{n})}}\,\ln \left({\frac {1}{W(E_{n})}}\right)\ , $

beziehungsweise für eine bestimmte Energie $ E_{n} $

$ S\;=\;-k_{\mathrm {B} }\ln \left({\frac {1}{W(E_{n})}}\right)\;=\;k_{\mathrm {B} }\ln(W)\ . $

Kanonisches Ensemble

Für das kanonische Ensemble sind die Wahrscheinlichkeiten für verschiedene Energien $ p_{n}={\frac {1}{Z}}\exp \left(-\beta E_{n}\right) $. Und die Informationsentropie beträgt

$ S\;=\;-k_{\mathrm {B} }\sum _{n}p_{n}\,\left(-\ln(Z)-\beta E_{n}\right)\;=\;-k_{\mathrm {B} }\left(-\ln(Z)-\beta \sum _{n}p_{n}\,E_{n})\right)\;=\;-{\frac {F-U}{T}}\ , $

wobei $ F $ die Freie Energie und $ U $ die Innere Energie sind.

Literatur

  • Kerson Huang: Introduction to Statistical Physics. CRC Press, Boca Raton 2010, ISBN 978-1-4200-7902-9.
  • W. Dieterich, Oliver Schlotterer: Statistische Mechanik. (PDF; 2,4 MB) Vorlesung im WS 2004/5. Fachbereich Physik, Universität Konstanz, Februar 2009, S. 57–61, abgerufen am 21. Januar 2012.
  • Horst Völz: Das ist Information. Shaker Verlag, Aachen 2017. ISBN 978-3-8440-5587-0.
  • Horst Völz: Weltbeschreibung. Raum, Zeit, Temperatur und Information – Aspekte, Standpunkte, Debatten. Shaker Verlag, Aachen 2018, ISBN 978-3-8440-6323-3.
  • Wolfgang Raible: “Information”, Ein Schlüsselbegriff für Natur- und Kulturwissenschaften. (PDF; 1,43 MB) Kolloqium an der Universität Freiburg. Heidelberger Akademie der Wissenschaften, 16. Mai 2009, S. 4, abgerufen am 2. März 2021.

Einzelnachweise

  1. P. Hägele: Was hat Entropie mit Information zu tun? In: Vorlesungsscript der Universität Ulm. 3. August 2004, S. 7, abgerufen am 7. März 2021.