imported>F.Blaubiget (→Methode von Benettin et al.: typo) |
imported>Biggerj1 |
||
Zeile 1: | Zeile 1: | ||
Der '''Ljapunow-Exponent'''<!-- nur im Englischen schreibt er sich Lyapunov! --> eines [[Dynamisches System|dynamischen Systems]] (nach [[Alexander Michailowitsch Ljapunow]]) beschreibt die [[Phasengeschwindigkeit|Geschwindigkeit]], mit der sich zwei (nahe beieinanderliegende) Punkte im [[Phasenraum]] voneinander entfernen oder annähern (je nach [[Vorzeichen (Zahl)|Vorzeichen]]). Pro Dimension des Phasenraums gibt es einen Ljapunow-Exponenten, die zusammen das sogenannte Ljapunow-Spektrum bilden. Häufig betrachtet man allerdings nur den größten Ljapunow-Exponenten, da dieser in der Regel das gesamte Systemverhalten bestimmt. | Der '''Ljapunow-Exponent'''<!-- nur im Englischen schreibt er sich Lyapunov! --> eines [[Dynamisches System|dynamischen Systems]] (nach [[Alexander Michailowitsch Ljapunow]]) beschreibt die [[Phasengeschwindigkeit|Geschwindigkeit]], mit der sich zwei (nahe beieinanderliegende) Punkte im [[Phasenraum]] voneinander entfernen oder annähern (je nach [[Vorzeichen (Zahl)|Vorzeichen]]). Pro Dimension des Phasenraums gibt es einen Ljapunow-Exponenten, die zusammen das sogenannte Ljapunow-Spektrum bilden. Häufig betrachtet man allerdings nur den größten Ljapunow-Exponenten, da dieser in der Regel das gesamte Systemverhalten bestimmt. | ||
Betrachtet man allgemeiner Trajektorieverläufe im Phasenraum, dann liefern die Exponenten ein Maß für die Rate an Separation von einer Ursprungstrajektorie <math>\Gamma(t_{0})</math>. In Bezug auf eine zeitkontinuierliche Betrachtung eines dynamischen Systems lässt sich dieser Zusammenhang formal allgemein darstellen als: <math>\delta\Gamma(t)\approx e^{\lambda t}\delta\Gamma(t_{0})</math>, wobei <math>\delta\Gamma(t)</math> die Linearisierung der Trajektorie zum Zeitpunkt <math>t</math> darstellt. | |||
:<math>\ | |||
== Definition == | |||
Im Eindimensionalen gilt für eine rekursiv definierte Abbildung <math>x_{n+1} = f(x_n)</math>, also ist <math>x_{n} = \underbrace{f \circ f \circ \dots f }_{= f^N}(x_0)</math> durch n-fache Verkettung gegeben. | |||
[[Datei:Ljapunow-exponent.svg|mini|Veranschaulichung des Ljapunow-Exponenten <math>\lambda(x_0)</math>. Die zwei Startpunkte entfernen sich exponentiell schnell voneinander.]] | |||
Im Eindimensionalen ist der Ljapunow-Exponent <math>\lambda (x_0)</math> einer iterierten Abbildung <math>x_{n+1} = f(x_n)</math> wie folgt definiert: | |||
:<math>\lambda(x_0) = \lim_{N \to \infty} \frac{1}{N} \ln \left| \frac{\mathrm df^N (x_0)}{\mathrm dx_0} \right|</math>. | |||
Mit Hilfe der [[Kettenregel]] der Differentialrechnung erhält man für den Differentialquotienten in dieser Definition folgendes: | |||
:<math>\left. \frac{\mathrm d}{\mathrm dx} f^N(x) \right|_{x_0} = \prod_{i = 0}^{N - 1} f' (x_i)</math>. | |||
Damit lässt sich der Ljapunow-Exponent auch anders definieren: | |||
:<math>\lambda(x_0) = \lim_{N \to \infty} \frac{1}{N} \ln \left| \frac{\mathrm df^N (x_0)}{\mathrm dx_0} \right| = \lim_{N \to \infty} \frac{1}{N} \ln \left| \prod_{i = 0}^{N - 1} f' (x_i) \right| = \lim_{N \to \infty} \frac{1}{N} \sum_{i = 0}^{N - 1} \ln \left| f' (x_i) \right|</math>.<ref>[[Heinz Georg Schuster]]: ''Deterministisches Chaos – Eine Einführung''. 3. Auflage. VCH Verlagsgesellschaft, Weinheim 1994, ISBN 3-527-29089-3, S. 24 f.</ref> | |||
Die Herleitung des Exponenten folgt aus der gegebenen Abbildung. Nach <math>N</math> Iterationen gilt <math>\varepsilon e^{N \lambda(x_0)} = \left| f^N (x_0 + \varepsilon) - f^N (x_0) \right|</math>. Man erhält die Definition, wenn man nach <math>\lambda(x_0)</math> umformt und die Grenzwerte dieses Ausdrucks für <math>\varepsilon \to 0</math> und <math>N \to \infty</math> bildet. | |||
== Eigenschaften == | == Eigenschaften == | ||
* Ist der größte Ljapunow-Exponent positiv, so ist das System in der Regel divergent. | * Ist der größte Ljapunow-Exponent positiv, so ist das System in der Regel divergent. | ||
* Ist er negativ, so entspricht dies einer Phasenraumkontraktion, d. h. das System ist [[Dissipative Struktur|dissipativ]] und agiert stationär oder periodisch stabil. | * Ist er negativ, so entspricht dies einer Phasenraumkontraktion, d. h., das System ist [[Dissipative Struktur|dissipativ]] und agiert stationär oder periodisch stabil. | ||
* Ist er null, laufen ursprünglich dicht beieinander liegende Punkte im Phasenraum nicht mehr exponentiell wie im Fall des positiven größten Exponenten auseinander, sondern nur noch polynomiell. | * Ist er null, laufen ursprünglich dicht beieinander liegende Punkte im Phasenraum nicht mehr exponentiell wie im Fall des positiven größten Exponenten auseinander, sondern nur noch polynomiell. | ||
* Ist die Summe der Ljapunow-Exponenten null, so handelt es sich um ein [[konservatives System]]. Außerdem gilt dann dabei die wichtige Besonderheit, dass eine inverse Betrachtung des jeweiligen Prozesses (inverse Zeitentwicklung oder inverse Abbildungsreihenfolge) ebenso zu einem inversen Spektrum der Exponenten führt, also eine gewisse Symmetrie auch in Bezug auf diese erhalten bleibt: <math>\lambda_{i}=-\lambda_{N_{LE}-i+1}</math>, wobei <math>N_{LE}</math> die Gesamtanzahl an Ljapunow-Exponenten des Systems ist. Dies gilt unter der Voraussetzung, dass das entsprechende System auch wirklich reversibel ist. | * Ist die Summe der Ljapunow-Exponenten null, so handelt es sich um ein [[konservatives System]]. Außerdem gilt dann dabei die wichtige Besonderheit, dass eine inverse Betrachtung des jeweiligen Prozesses (inverse Zeitentwicklung oder inverse Abbildungsreihenfolge) ebenso zu einem inversen Spektrum der Exponenten führt, also eine gewisse Symmetrie auch in Bezug auf diese erhalten bleibt: <math>\lambda_{i}=-\lambda_{N_{LE}-i+1}</math>, wobei <math>N_{LE}</math> die Gesamtanzahl an Ljapunow-Exponenten des Systems ist. Dies gilt unter der Voraussetzung, dass das entsprechende System auch wirklich reversibel ist. | ||
* Das Spektrum der Exponenten kann degeneriert sein. In diesem Fall treten Exponenten mit einer jeweils individuellen Vielfachheit auf. | * Das Spektrum der Exponenten kann degeneriert sein. In diesem Fall treten Exponenten mit einer jeweils individuellen Vielfachheit auf, von denen mindestens eine > 1 ist. | ||
* Die Gesamtanzahl an Ljapunow-Exponenten, ohne Betrachtung ihrer jeweiligen Vielfachheit, eines Systems entspricht der Anzahl an Freiheitsgraden des betrachteten Systems. | * Die Gesamtanzahl an Ljapunow-Exponenten, ohne Betrachtung ihrer jeweiligen Vielfachheit, eines Systems entspricht der Anzahl an Freiheitsgraden des betrachteten Systems. | ||
* Die Exponenten sind stets [[Metrischer Raum|Metrik]]-invariant. | * Die Exponenten sind stets [[Metrischer Raum|Metrik]]-invariant. | ||
Zeile 21: | Zeile 31: | ||
In Bezug auf die Ljapunow-Exponenten spielt vor allem folgende Beziehung aus dem Satz von Oseledets eine große Rolle ([[Differentialgeometrie|differentialgeometrische]] Fassung): | In Bezug auf die Ljapunow-Exponenten spielt vor allem folgende Beziehung aus dem Satz von Oseledets eine große Rolle ([[Differentialgeometrie|differentialgeometrische]] Fassung): | ||
Sei ein [[Ergodizität|ergodisches]] dynamisches System gegeben, das auf einer [[Riemannsche Mannigfaltigkeit|Riemannschen Mannigfaltigkeit]] mit einer spezifizierten Metrik definiert ist. Sei weiterhin <math>\mathbf{{M}}</math> der [[Zweistellige Verknüpfung#Äußere zweistellige Verknüpfungen erster Art|Entwicklungsoperator]] des dynamischen Systems im entsprechenden [[Tangentialraum]], der üblicherweise bei zeitdiskreter Betrachtung durch eine [[Fundamentalmatrix]] darstellbar ist. | Sei ein [[Ergodizität|ergodisches]] dynamisches System gegeben, das auf einer [[Riemannsche Mannigfaltigkeit|Riemannschen Mannigfaltigkeit]] mit einer spezifizierten Metrik definiert ist. Sei weiterhin <math>\mathbf{{M}}</math> der [[Zweistellige Verknüpfung#Äußere zweistellige Verknüpfungen erster Art|Entwicklungsoperator]] des dynamischen Systems im entsprechenden [[Tangentialraum]], der üblicherweise bei zeitdiskreter Betrachtung durch eine [[Fundamentalsystem (Mathematik)|Fundamentalmatrix]] darstellbar ist. | ||
Dann gilt in zeitkontinuierlicher Darstellung für fast jeden Nicht-Nullvektor <math>\mathbf{{e}}\in\mathbb{R}^{N}</math>, wobei <math>N</math> hier die Dimension der Riemannschen Mannigfaltigkeit ist: | Dann gilt in zeitkontinuierlicher Darstellung für fast jeden Nicht-Nullvektor <math>\mathbf{{e}}\in\mathbb{R}^{N}</math>, wobei <math>N</math> hier die Dimension der Riemannschen Mannigfaltigkeit ist: | ||
Zeile 28: | Zeile 38: | ||
== Ljapunow-Vektoren und die Berechnung der Exponenten == | == Ljapunow-Vektoren und die Berechnung der Exponenten == | ||
Die ermittelbaren Skalare aus Oseledets Theorem entsprechen zwar per Definition Ljapunow-Exponenten, es ist jedoch nicht sofort ersichtlich, wie sich aus dieser Gesetzmäßigkeit das Spektrum der (charakteristischen) Ljapunow-Exponenten eines Systems ermitteln lässt, da die Wahl der zu evolvierenden Vektoren in Bezug eben auf dieses Gesetz und durch dieses nicht näher spezifiziert wird. Oseledet konnte in und mit weiteren Punkten seines Theorems zeigen, dass die Gesamtmenge an evolvierbaren Vektoren auf den Systementwicklungsprozess bezogen eine verschachtelte Unterraumstruktur aufspannt: | Die ermittelbaren Skalare aus Oseledets Theorem entsprechen zwar per Definition Ljapunow-Exponenten, es ist jedoch nicht sofort ersichtlich, wie sich aus dieser Gesetzmäßigkeit das Spektrum der (charakteristischen) Ljapunow-Exponenten eines Systems ermitteln lässt, da die Wahl der zu evolvierenden Vektoren in Bezug eben auf dieses Gesetz und durch dieses nicht näher spezifiziert wird. Oseledet konnte in und mit weiteren Punkten seines Theorems zeigen, dass die Gesamtmenge an evolvierbaren Vektoren auf den Systementwicklungsprozess bezogen eine verschachtelte Unterraumstruktur aufspannt: | ||
: <math>F_{n}(t)\subset F_{n-1}(t)\subset...\subset F_{1}(t)=\mathbb{R}^{n}</math>, | |||
wobei die Ljapunow-Exponenten die Wachstums- bzw. Schrumpfraten (wieder je nach Vorzeichen) der Volumina dieser Unterräume repräsentieren. Wichtig im weiteren Verlauf ist, dass diese Unterräume eindeutig durch ein [[Orthogonalsystem]] beschreibbar sind. | wobei die Ljapunow-Exponenten die Wachstums- bzw. Schrumpfraten (wieder je nach Vorzeichen) der Volumina dieser Unterräume repräsentieren. Wichtig im weiteren Verlauf ist, dass diese Unterräume eindeutig durch ein [[Orthogonalsystem]] beschreibbar sind. | ||
Zeile 35: | Zeile 45: | ||
Eine bewährte Methode, die Exponenten darauf aufbauend zu berechnen, wurde früh von Benettin et al. vorgeschlagen. Formuliert wurde ein Algorithmus, der bei zeitdiskreter Betrachtung die Exponenten mittels der Entwicklung sogenannter Gram-Schmidt-Vektoren auf statistische Art und Weise ermittelt: | Eine bewährte Methode, die Exponenten darauf aufbauend zu berechnen, wurde früh von Benettin et al. vorgeschlagen. Formuliert wurde ein Algorithmus, der bei zeitdiskreter Betrachtung die Exponenten mittels der Entwicklung sogenannter Gram-Schmidt-Vektoren auf statistische Art und Weise ermittelt: | ||
Bei zeitdiskreter Darstellung gilt für die Fundamentalmatrix: | Bei zeitdiskreter Darstellung gilt für die Fundamentalmatrix: | ||
: <math>\mathbf{{M}}_{k,n}=\prod_{i=n}^{k+n-1}\mathbf{{J}}\left(\delta\mathbf{{x}}_{i}\right)</math>, | |||
wobei <math>k</math> einen diskreten Zeitabstand repräsentiert, <math>n</math> ein diskreter globaler Zeit- bzw. Iterationsschritt ist und <math>\mathbf{{J}}</math> die entsprechende [[Jacobi-Matrix]] darstellt. Entwickelt man diesbezüglich ein Orthogonalsystem an Vektoren, so muss, so die Prämisse von Benettin et al., dieses bei hinreichend großer Zeitentwicklung ausgehend von Oseledets Theorem direkt Information über die Ljapunow-Exponenten enthalten. Dem im Weg steht jedoch die problematische Tatsache, dass auf diese Weise entwickelte Orthogonalsysteme bei hinreichend großer Schrittweite in fast jedem Fall schnell ihre Orthogonalität verlieren. Dies hat nicht nur rein numerische Gründe bei der Berechnung mittels eines Computers, sondern auch Gründe in Bezug auf Oseledets Theorem an sich, da die Unterräume gegen ihre jeweiligen einbettenden Räume mit exponentieller Geschwindigkeit konvergieren. Das heißt, dass die Richtung der stärksten Unterraumvolumenänderung im Tangentialraum (bestimmt über den größten Ljapunow-Exponenten) dominierend wird. Um dies zu verhindern, muss die jeweilige Fundamentalmatrix nach einer festgelegten oder dynamisch ermittelbaren Schrittanzahl reorthogonalisiert werden. Die Namensgebung von Gram-Schmidt-Vektoren beruht genau darauf, dass man dafür ein modifiziertes oder iteratives Gram-Schmidt-Verfahren verwenden kann. Es gibt jedoch auch noch andere, numerisch stabilere Verfahren wie die explizite [[QR-Zerlegung]] oder die [[Givens-Rotation]]. Im Bereich des wissenschaftlichen Rechnens haben sich jedoch optimierte iterative Gram-Schmidt-Verfahren stark etabliert, da diese besonders gut parallelisierbar sind und hinreichend genau arbeiten. | wobei <math>k</math> einen diskreten Zeitabstand repräsentiert, <math>n</math> ein diskreter globaler Zeit- bzw. Iterationsschritt ist und <math>\mathbf{{J}}</math> die entsprechende [[Jacobi-Matrix]] darstellt. Entwickelt man diesbezüglich ein Orthogonalsystem an Vektoren, so muss, so die Prämisse von Benettin et al., dieses bei hinreichend großer Zeitentwicklung ausgehend von Oseledets Theorem direkt Information über die Ljapunow-Exponenten enthalten. Dem im Weg steht jedoch die problematische Tatsache, dass auf diese Weise entwickelte Orthogonalsysteme bei hinreichend großer Schrittweite in fast jedem Fall schnell ihre Orthogonalität verlieren. Dies hat nicht nur rein numerische Gründe bei der Berechnung mittels eines Computers, sondern auch Gründe in Bezug auf Oseledets Theorem an sich, da die Unterräume gegen ihre jeweiligen einbettenden Räume mit exponentieller Geschwindigkeit konvergieren. Das heißt, dass die Richtung der stärksten Unterraumvolumenänderung im Tangentialraum (bestimmt über den größten Ljapunow-Exponenten) dominierend wird. Um dies zu verhindern, muss die jeweilige Fundamentalmatrix nach einer festgelegten oder dynamisch ermittelbaren Schrittanzahl reorthogonalisiert werden. Die Namensgebung von Gram-Schmidt-Vektoren beruht genau darauf, dass man dafür ein modifiziertes oder iteratives Gram-Schmidt-Verfahren verwenden kann. Es gibt jedoch auch noch andere, numerisch stabilere Verfahren wie die explizite [[QR-Zerlegung]] oder die [[Givens-Rotation]]. Im Bereich des wissenschaftlichen Rechnens haben sich jedoch optimierte iterative Gram-Schmidt-Verfahren stark etabliert, da diese besonders gut parallelisierbar sind und hinreichend genau arbeiten. | ||
Zeile 64: | Zeile 74: | ||
=== Kaplan-Yorke-Vermutung === | === Kaplan-Yorke-Vermutung === | ||
Die ''Kaplan-Yorke-Vermutung'' liefert eine Abschätzung für die obere Grenze der Informationsdimension <math>D_1</math> mit Hilfe des Ljapunow-Spektrums ab. Diese so genannte ''Kaplan-Yorke-Dimension'' <math>D_{KY}</math> ist wie folgt definiert: | Die ''Kaplan-Yorke-Vermutung'' liefert eine Abschätzung für die obere Grenze der Informationsdimension <math>D_1</math> mit Hilfe des Ljapunow-Spektrums ab. Diese so genannte ''Kaplan-Yorke-Dimension'' <math>D_{KY}</math> ist wie folgt definiert: | ||
:<math>D_{KY}= k + \frac{\sum_{i=1}^k \lambda_i}{|\lambda_{k+1}|}</math>, | : <math>D_{KY}= k + \frac{\sum_{i=1}^k \lambda_i}{|\lambda_{k+1}|}</math>, | ||
wobei <math>k</math> die größte natürliche Zahl ist, für die die Summe positiv bleibt. | wobei <math>k</math> die größte natürliche Zahl ist, für die die Summe positiv bleibt. | ||
Zeile 70: | Zeile 80: | ||
Das Inverse des größten Ljapunow-Exponenten, die sogenannte ''Ljapunow-Zeit'' bzw. die ''mittlere Prädiktionszeit'', ist die Zeit, für die sich sinnvolle Vorhersagen über das Systemverhalten machen lassen. | Das Inverse des größten Ljapunow-Exponenten, die sogenannte ''Ljapunow-Zeit'' bzw. die ''mittlere Prädiktionszeit'', ist die Zeit, für die sich sinnvolle Vorhersagen über das Systemverhalten machen lassen. | ||
== | == Literatur == | ||
* | * [[Heinz Georg Schuster]]: ''Deterministisches Chaos. Eine Einführung''. 3. Auflage. VCH Verlagsgesellschaft, Weinheim 1994, ISBN 3-527-29089-3 | ||
* B. Hasselblatt | * H. Kantz, T. Schreiber: ''Nonlinear Time Series Analysis''. Cambridge University Press, Cambridge 2004, ISBN 0-521-52902-6 | ||
* David Ruelle: ''Ergodic theory on differentiable dynamical systems''. IHES Publicationes Mathematiques 50 | * B. Hasselblatt, A. Katok: ''Introduction to the modern theory of dynamical systems''. Part of ''Encyclopedia of Mathematics and its Applications''. Cambridge 1997, ISBN 978-0-521-57557-7 | ||
* Francesco Ginelli, Hugues Chaté, Roberto Livi, Antonio Politi: ''Covariant Lyapunov vectors''. Journal of physics A: Mathematical and theoretical, Volume 46, Number 25 | * David Ruelle: ''Ergodic theory on differentiable dynamical systems''. In: ''IHES Publicationes Mathematiques'', 50, 1979, S. 275–320 | ||
* G. Benettin, L. Galgani | * Francesco Ginelli, Hugues Chaté, Roberto Livi, Antonio Politi: ''Covariant Lyapunov vectors''. In: ''Journal of physics A: Mathematical and theoretical'', Volume 46, Number 25, 04/2013 | ||
* Govindan Rangarajan, Salman Habib | * G. Benettin, L. Galgani, J. M. Strelcyn: ''Kolmogorov entropy and numerical experiments''. In: ''Phys. Rev. A'', 14, 1976, S. 2338 | ||
* Günter Radons, Gudula Rünger, Michael Schwind, Hong-liu Yang: ''Parallel Algorithms for the Determination of Lyapunov Characteristics of Large Nonlinear Dynamical Systems''. PARA 2004 | * Govindan Rangarajan, Salman Habib, Robert Ryne: ''Lyapunov Exponents without Rescaling and Reorthogonalization''. 1998, [[doi:10.1103/PhysRevLett.80.3747]] | ||
* Harald A Posch: ''Symmetry properties of orthogonal and covariant Lyapunov vectors and their exponents''. | * Günter Radons, Gudula Rünger, Michael Schwind, Hong-liu Yang: ''Parallel Algorithms for the Determination of Lyapunov Characteristics of Large Nonlinear Dynamical Systems''. In: ''PARA'', 2004, S. 1131–1140 | ||
* Harald A. Posch | * Harald A Posch: ''Symmetry properties of orthogonal and covariant Lyapunov vectors and their exponents''. 2011, {{arXiv|1107.4032}} | ||
* Harald A. Posch, R. Hirschl: ''Simulation of billiards and of hard body fluids in Hard ball systems and the Lorentz gas''. Springer, Berlin 2000 | |||
== Weblinks == | |||
* [[Amie Wilkinson]]: ''What are Lyapunov exponents and why are they interesting?'' In: ''Bulletin of the American Mathematical Society'', 2017, {{arXiv|1608.02843}} | |||
== | == Einzelnachweise == | ||
<references /> | |||
[[Kategorie:Stabilitätstheorie]] | [[Kategorie:Stabilitätstheorie]] | ||
[[Kategorie:Nichtlineare Dynamik]] | [[Kategorie:Nichtlineare Dynamik]] | ||
[[Kategorie:Alexander Michailowitsch Ljapunow als Namensgeber]] | [[Kategorie:Alexander Michailowitsch Ljapunow als Namensgeber]] |
Der Ljapunow-Exponent eines dynamischen Systems (nach Alexander Michailowitsch Ljapunow) beschreibt die Geschwindigkeit, mit der sich zwei (nahe beieinanderliegende) Punkte im Phasenraum voneinander entfernen oder annähern (je nach Vorzeichen). Pro Dimension des Phasenraums gibt es einen Ljapunow-Exponenten, die zusammen das sogenannte Ljapunow-Spektrum bilden. Häufig betrachtet man allerdings nur den größten Ljapunow-Exponenten, da dieser in der Regel das gesamte Systemverhalten bestimmt.
Betrachtet man allgemeiner Trajektorieverläufe im Phasenraum, dann liefern die Exponenten ein Maß für die Rate an Separation von einer Ursprungstrajektorie $ \Gamma (t_{0}) $. In Bezug auf eine zeitkontinuierliche Betrachtung eines dynamischen Systems lässt sich dieser Zusammenhang formal allgemein darstellen als: $ \delta \Gamma (t)\approx e^{\lambda t}\delta \Gamma (t_{0}) $, wobei $ \delta \Gamma (t) $ die Linearisierung der Trajektorie zum Zeitpunkt $ t $ darstellt.
Im Eindimensionalen gilt für eine rekursiv definierte Abbildung $ x_{n+1}=f(x_{n}) $, also ist $ x_{n}=\underbrace {f\circ f\circ \dots f} _{=f^{N}}(x_{0}) $ durch n-fache Verkettung gegeben.
Im Eindimensionalen ist der Ljapunow-Exponent $ \lambda (x_{0}) $ einer iterierten Abbildung $ x_{n+1}=f(x_{n}) $ wie folgt definiert:
Mit Hilfe der Kettenregel der Differentialrechnung erhält man für den Differentialquotienten in dieser Definition folgendes:
Damit lässt sich der Ljapunow-Exponent auch anders definieren:
Die Herleitung des Exponenten folgt aus der gegebenen Abbildung. Nach $ N $ Iterationen gilt $ \varepsilon e^{N\lambda (x_{0})}=\left|f^{N}(x_{0}+\varepsilon )-f^{N}(x_{0})\right| $. Man erhält die Definition, wenn man nach $ \lambda (x_{0}) $ umformt und die Grenzwerte dieses Ausdrucks für $ \varepsilon \to 0 $ und $ N\to \infty $ bildet.
Ein wichtiger Meilenstein in der Theorie der nichtlinearen dynamischen Systeme war der 1965 publizierte Satz von Valery Oseledets, der auch im selben Jahr noch von selbigem und ein Jahr später in einem anderen Zusammenhang von M. S. Raghunathan bewiesen worden ist. Der Satz, der eigentlich aus mehreren Sätzen besteht, macht unter anderem wichtige Existenzaussagen zu Ljapunow-Exponenten in Bezug auf eine große Klasse nichtlinearer dynamischer Systeme. Bis zur Veröffentlichung des Satzes war über diesen Bezug lediglich spekuliert worden und die Ermittlung der Exponenten nur für einfache (iterative) Abbildungen möglich.
In Bezug auf die Ljapunow-Exponenten spielt vor allem folgende Beziehung aus dem Satz von Oseledets eine große Rolle (differentialgeometrische Fassung):
Sei ein ergodisches dynamisches System gegeben, das auf einer Riemannschen Mannigfaltigkeit mit einer spezifizierten Metrik definiert ist. Sei weiterhin $ \mathbf {M} $ der Entwicklungsoperator des dynamischen Systems im entsprechenden Tangentialraum, der üblicherweise bei zeitdiskreter Betrachtung durch eine Fundamentalmatrix darstellbar ist.
Dann gilt in zeitkontinuierlicher Darstellung für fast jeden Nicht-Nullvektor $ \mathbf {e} \in \mathbb {R} ^{N} $, wobei $ N $ hier die Dimension der Riemannschen Mannigfaltigkeit ist:
Die ermittelbaren Skalare aus Oseledets Theorem entsprechen zwar per Definition Ljapunow-Exponenten, es ist jedoch nicht sofort ersichtlich, wie sich aus dieser Gesetzmäßigkeit das Spektrum der (charakteristischen) Ljapunow-Exponenten eines Systems ermitteln lässt, da die Wahl der zu evolvierenden Vektoren in Bezug eben auf dieses Gesetz und durch dieses nicht näher spezifiziert wird. Oseledet konnte in und mit weiteren Punkten seines Theorems zeigen, dass die Gesamtmenge an evolvierbaren Vektoren auf den Systementwicklungsprozess bezogen eine verschachtelte Unterraumstruktur aufspannt:
wobei die Ljapunow-Exponenten die Wachstums- bzw. Schrumpfraten (wieder je nach Vorzeichen) der Volumina dieser Unterräume repräsentieren. Wichtig im weiteren Verlauf ist, dass diese Unterräume eindeutig durch ein Orthogonalsystem beschreibbar sind.
Eine bewährte Methode, die Exponenten darauf aufbauend zu berechnen, wurde früh von Benettin et al. vorgeschlagen. Formuliert wurde ein Algorithmus, der bei zeitdiskreter Betrachtung die Exponenten mittels der Entwicklung sogenannter Gram-Schmidt-Vektoren auf statistische Art und Weise ermittelt: Bei zeitdiskreter Darstellung gilt für die Fundamentalmatrix:
wobei $ k $ einen diskreten Zeitabstand repräsentiert, $ n $ ein diskreter globaler Zeit- bzw. Iterationsschritt ist und $ \mathbf {J} $ die entsprechende Jacobi-Matrix darstellt. Entwickelt man diesbezüglich ein Orthogonalsystem an Vektoren, so muss, so die Prämisse von Benettin et al., dieses bei hinreichend großer Zeitentwicklung ausgehend von Oseledets Theorem direkt Information über die Ljapunow-Exponenten enthalten. Dem im Weg steht jedoch die problematische Tatsache, dass auf diese Weise entwickelte Orthogonalsysteme bei hinreichend großer Schrittweite in fast jedem Fall schnell ihre Orthogonalität verlieren. Dies hat nicht nur rein numerische Gründe bei der Berechnung mittels eines Computers, sondern auch Gründe in Bezug auf Oseledets Theorem an sich, da die Unterräume gegen ihre jeweiligen einbettenden Räume mit exponentieller Geschwindigkeit konvergieren. Das heißt, dass die Richtung der stärksten Unterraumvolumenänderung im Tangentialraum (bestimmt über den größten Ljapunow-Exponenten) dominierend wird. Um dies zu verhindern, muss die jeweilige Fundamentalmatrix nach einer festgelegten oder dynamisch ermittelbaren Schrittanzahl reorthogonalisiert werden. Die Namensgebung von Gram-Schmidt-Vektoren beruht genau darauf, dass man dafür ein modifiziertes oder iteratives Gram-Schmidt-Verfahren verwenden kann. Es gibt jedoch auch noch andere, numerisch stabilere Verfahren wie die explizite QR-Zerlegung oder die Givens-Rotation. Im Bereich des wissenschaftlichen Rechnens haben sich jedoch optimierte iterative Gram-Schmidt-Verfahren stark etabliert, da diese besonders gut parallelisierbar sind und hinreichend genau arbeiten.
Bei der Anwendung dieser Reorthogonalisierung auf $ \mathbf {M} $ erhält man die QR-Zerlegung $ \mathbf {M} =\mathbf {Q} \cdot \mathbf {R} $, wobei $ \mathbf {Q} $ die Matrix der reorthogonalisierten Gram-Schmidt-Vektoren und $ \mathbf {R} $ eine obere Dreiecksmatrix darstellt, die auf der Hauptdiagonalen die lokalen Wachstumsfaktoren der jeweiligen Unterräume enthält. Benettin et al. identifizieren nun mit $ \left\{{\tilde {\lambda }}(n)\right\} $ die Menge an sogenannten finite time Lyapunov exponents in Bezug auf den betrachteten Zeitbereich bis zur Reorthogonalisierung zum Zeitschritt $ n $. Diese berechnet sich aus dem natürlichen Logarithmus dieser lokalen Wachstumsfaktoren.
Mit $ \lambda ^{(j)}=\limsup _{n\rightarrow \infty }{\tilde {\lambda }}^{(j)}(n) $ lässt sich nun die Brücke zu den „echten“ Ljapunow-Exponenten des Systems schlagen.
Zusammenfassend bedeutet dies konkret für den Algorithmus:
Es ist zu betonen, dass das Verfahren von Benettin et al. nur ein mögliches unter vielen ist und für spezielle Problemfälle und Systeme andere Verfahren geeigneter sein können. Des Weiteren muss je nach System und Randbedingungen spezifiziert werden, ab wann in der Zeitentwicklung wirklich mit der Berechnung der Exponenten begonnen werden soll und wie viele Gesamtzeitschritte notwendig sind, um statistisch hinreichend gute Daten zu erhalten.
In Bezug auf diesen generellen Ansatz lassen sich mehrere Vektortypen klassifizieren, die im Allgemeinen, jedoch nicht überall konsistent, in der Fachwelt unter dem Begriff der Ljapunow-Vektoren subsumiert werden und einen mehr oder weniger starken Bezug zu den Exponenten aufweisen. Gemein ist all diesen Vektoren, dass sie Tangentialvektoren des jeweiligen Systems sind. Dies sind im Folgenden auszugsweise:
Die Kaplan-Yorke-Vermutung liefert eine Abschätzung für die obere Grenze der Informationsdimension $ D_{1} $ mit Hilfe des Ljapunow-Spektrums ab. Diese so genannte Kaplan-Yorke-Dimension $ D_{KY} $ ist wie folgt definiert:
wobei $ k $ die größte natürliche Zahl ist, für die die Summe positiv bleibt.
Das Inverse des größten Ljapunow-Exponenten, die sogenannte Ljapunow-Zeit bzw. die mittlere Prädiktionszeit, ist die Zeit, für die sich sinnvolle Vorhersagen über das Systemverhalten machen lassen.