next up previous
Nächste Seite: Lineare Differentialgleichungen mit konstanten Aufwärts: Sätze und Definitionen Vorherige Seite: Integration in geschlossenen Ausdrücken

Gleichgewichtspunkte und Stabilität (Definition)

Definition 10   Es sei $ k$ eine positive ganze Zahl, $ U$ eine offene zusammenhängende Teilmenge des $ \mathbb{R}^k$ , $ F:U\to\mathbb{R}^k$ ein Vektorfeld. Eine Punkt $ x\in U$ heißt Gleichgewichtspunkt oder Equilibrium von $ F$ wenn $ F(x)=0$ ist.

Für jeden Gleichgewichtspunkt $ x$ hat die Differentialgleichung $ \vec{y}'(t)=F(\vec{y}(t))$ eine konstante Lösung $ t\mapsto x$ .

Definition 11   Ein Gleichgewichtspunkt $ x\in U$ heißt stabil, wenn für jedes $ \epsilon>0$ ein $ \delta>0$ existiert, sodaß jede Lösung $ \vec{y}$ mit Startwert $ \vert\vert\vec{y}(0)-x\vert\vert<\delta$ für $ t>0$ definiert ist und dort $ \vert\vert\vec{y}(t)-x\vert\vert<\epsilon$ erfüllt.

Ein stabiler Gleichgewichtspunkt heißt asymptotisch stabil, wenn zusätzlich gilt: es existiert $ \epsilon>0$ , sodaß jede für Lösung $ \vec{y}$ mit Startwert $ \vert\vert\vec{y}(0)-x\vert\vert<\epsilon$ gilt:

$\displaystyle \lim_{t\to\infty} \vec{y}(t) = x . $

Für diskrete dynamische Systeme der Form

$\displaystyle \forall n\in\mathbb{N}: y_{n+1}=F(y_n) , $

wobei $ F:U\to U$ eine stetige Funktion ist, wird Stabilität bzw. asymptotische Stabilität genauso definiert wird (hier steht dann $ t$ ausnahmsweise für eine natürliche Zahl).

Literatur:
[2, I.1.3], [3, X.65]



Josef Schicho 2016-01-17