Uniwersytet Mikołaja Kopernika Wydział Matematyki i Informatyki Stabilność rozwiązań równań różniczkowych w ujęciu lokalnych układów dynamicznych. Adam Kanigowski Toruń 2010 1
Spis treści 1 Wprowadzenie 3 2 Pojęcie stabilności i asymptotycznej stabilności 4 2.1 Pojęcie lokalnego układu dynamicznego............. 4 2.2 Definicja stabilności i przykłady................. 7 3 Funkcja Lapunowa 12 3.1 Linearyzacja............................ 14 4 Przykłady i zadania 16 4.1 Zadania.............................. 16 4.2 Rozwiązania............................ 17 2
Rozdział 1 Wprowadzenie Wiemy, że bardzo często znalezienie rozwiązania równania różniczkowego w postaci wzoru analitycznego jest trudne. W praktyce często interesuje nas przybliżone rozwiązanie danego równania. Jedną z metod wykorzystywanych w tym celu są rozwiązania numeryczne, lecz ma ona wiele wad np.brak stabilności. Wtedy z pomocą przychodzi nam jakościowa analiza rozwiązań. Dzięki niej można uzyskać informacje, w jakim obszarze dane rozwiązanie zachowuje się regularnie. Dlatego chcemy wiedzieć jak zmieni się rozwiązanie równania pod wpływem małych zaburzeń warunków początkowych. Będziemy starali się odpowiedzieć na pytanie jakie warunki muszą być spełnione aby małe zaburzenie warunków początkowych powodowało małą zmianę rozwiązania. Stabilność będzie rozważana w przypadku równań autonomicznych. 3
Rozdział 2 Pojęcie stabilności i asymptotycznej stabilności 2.1 Pojęcie lokalnego układu dynamicznego Rozważmy równanie różniczkowe postaci ẋ = f(x), gdzie f jest określona na podzbiorze otwartym D pewnej przestrzeni wektorowej X (w szczególności X = R n ). Zauważmy, iż jest to równanie autonomiczne, gdyż prawa strona równania nie jest zależna od czasu. Wówczas wprowadzamy następujące pojęcie: Definicja 2.1. Niech X będzie przestrzenią topologiczną Ω X R takim, że X {0} Ω. Dla ustalonego x Xoznaczamy I x = {t R : (x, t) Ω}. Niech ϕ : Ω X będzie ustalonym odwzorowaniem. Trójkę (X,Ω,ϕ) nazywamy lokalnym układem dynamicznym, jeżeli: 1. Ω jest otwartym podzbiorem X R oraz dla wszyskich x X, I x jest przedziałem otwartym 2. Dla każdego x X ϕ(x, 0) = x 4
3. Jeżeli x X,t I x oraz s I ϕ(x,t), to t + s I x oraz 4. Jeżeli t I x, to t I ϕ(x,t). ϕ(ϕ(x, t), s) = ϕ(x, t + s) Definicję lokalnego układu dynamicznego można rozumieć następująco: Jeżeli w chwili początkowej układ znajdował się w stanie x, po czasie t jest w stanie y i startując ze stanu y po czasie s jest w stanie z, to startując z chwili zerowej ze stanu x można osiągnąć stan z po czasie t+s. Podamy teraz zasadnicze twierdzenie, które wyjaśni nam rolę jaką pełni układ dynamiczny w równaniach różniczkowych oraz pozwoli w prosty sposób sformułować pojęcie stabilności i asymptotycznej stabilności.przyjmujemy oznaczenia jak powyżej Twierdzenie 2.1. Niech f : D X będzie odwzorowaniem klasy C 1 na zbiorze otwartym D X. Dla x D niech I x będzie przedziałem na którym określone jest maksymalne rozwiązanie problemu (jest dokładnie jedno,gdyż funkcja f jest klasy C 1 ): ẋ = f(x), x(0) = x ( ) Niech Ω = {(x, t) D R : x D, t I x }. Określamy: ϕ : Ω D wzorem ϕ(x, t) = x(t), gdzie x = x(t) jest rozwiązaniem maksymalnym problemu ( ). Wtedy trójka (D, Ω, ϕ) jest lokalnym układem dynamicznym. Dowód twierdzenia nie jest trudny, lecz zajmuje dużo miejsca, ze względu na to, że przedmiotem naszych rozważań jest stabilność rozwiązań równań różniczkowych, zostanie on pominięty. Zdefiniujemy teraz trzy podstawowe pojęcia: 5
Definicja 2.2. Niech x X 1. Orbitą punktu x nazywamy zbiór o(x) = {ϕ(x, t), t I x } 2. Orbitą dodatnią punktu x nazywamy zbiór o + (x) = {ϕ(x, t), t I x, t 0} 3. Orbitą ujemną punktu x nazywamy zbiór o (x){ϕ(x, t), t I x, t 0}. Definicja 2.3. Zbiór A X nazywamy niezmienniczym jeżeli x A = o(x) A. Definicja 2.4. Niech x X i załózmy, że I x = R.Definiujemy zbiory: ω(x) = t R cl o + (ϕ(x, t)) α(x) = t R cl o (ϕ(x, t)) i nazywamy odpowiednio dodatnim i ujemnym zbiorem granicznym. Zbiorem granicznym są punkty stałe lub orbity okresowe. Lemat 1. Jeśli X jest przestrzenią metryczną, to ω(x) = {y X : ϕ(x, t n ) y, dla pewnego ciągu t n + } α(x) = {y X : ϕ(x, t n ) y, dla pewnego ciągu t n } Dowód. Dowód przeprowadzimy dla zbioru ω(x), dowód dla zbioru α(x) jest analogiczny. Jeżeli y = lim t + ϕ(x, t n ) i niech t R będzie ustalone y = lim t + ϕ(ϕ(x, t), t n t) clo + (ϕ(x, t)). Jeżeli punkt y ω(x), to rozważmy następujący ciąg t n := n + s n, gdzi s n jest takie, że ϕ(ϕ(x, n), s n ) U n, gdzie U n należy do przeliczalnej bazy otoczeń puntu y.(taki ciąg s n istnieje, gdyż y clo + (ϕ(x, n))). Stąd 6
ϕ(x, t n ) y oraz t n + Twierdzenie 2.2. Dla każdego x X zbiory ω(x) i α(x) są niezmiennicze. Dowód: Dowód przeprowadzimy dla ω(x). Niech y ω(x) czyli na mocy powyższego lematu dla pewnego ciągu t n + mamy ϕ(x, t n ) y. Stąd dla każdego t ϕ(x, t + t n ) = ϕ(ϕ(x, t n ), t) ϕ(y, t) Otrzymane rezultaty pozwolą nam zdefiniować stabilność w języku lokalnych układów dynamicznych i dadzą alternatywny dowód zasadniczego twierdzenia Lapunowa. Otrzymane wyniki zostaną wykorzystane w następnym rozdziale. 2.2 Definicja stabilności i przykłady Niech f : D X będzie odwzorowaniem klasy C 1,gdzie D X jest zbiorem otwartym. Rozważmy równanie: ẋ = f(x), x(0) = x Definicja 2.5. Każdy punkt x 0 o tej właśności, że f(x 0 ) = 0 nazywamy położeniem równowagi. Sens położenia równowagi jest taki, że jeśli układ opisywany danym równaniem znajduje się w tym położeniu, to zawsze w nim był i na zawsze w nim pozostanie.(rys.1) 7
Zauważmy, że obie kulki znajdują się w położeniu równowagi. Oba te położenia różnią się zasadniczo. Jeśli wychylimy kulkę z położenia równowagi to na lewej części rysunku za sprawą sił tarcia, po pewnym czasie wróci ona do początkowego położenia.czyli jest to stabline położenie równowagi, natomiast po prawej stronie gdy wytrącimy kulkę z położenia równowagi, to nigdy już do niego nie powróci, czyli jest to niestabilne położenie równowagi. Definicja 2.6. Niech y(t) będzie rozwiązaniem tego układu w przedziale [0, + ). Mówimy że rozwiązanie y(t) jest rozwiązaniem stabilnym w sensie Lapunowa dla t +, jeśli ε>0 s>0 η>0, że każde rozwiązanie x(t) takie że spełnia dla t > s warunek Jeśli dodatkowo x(s) y(s) < η x(t) y(t) < ε lim t + x(t) y(t) = 0 to mówimy, że rozwiązanie y(t) jest asymptotycznie stabilne. Badanie stabilności rozwiązań równania możemy sprowadzić do badania stabilności rozwiązania zerowego, o czym orzeka poniższy Lemat 2. Badanie stabilności i asymptotycznej stabilności rozwiązania równania różniczkowego sprowadza się do badania stabilności i asymptotycznej stabilności rozwiązania zerowego. Dowód: 8
Niech x 0 (t) bedzie rozwiązaniem układu ẋ = f(x), x(0) = x 0. x(t) = y(t) + x 0 (t). Wówczas: Połóżmy f(y(t) + x 0 (t)) = ẋ(t) = ẏ(t) + x 0 (t), stąd ẏ(t) = f(y(t) + x 0 (t)) x 0 (t) = f(y(t) + x 0 (t)) f(x 0 (t)), gdyż x 0 jest rozwiązaniem równania. Zauważmy, że y(t) = 0 jest rozwiązaniem tego równania. Czyli rozwiązanie x 0 (t) jest stabilne wtedy i tylko wtedy gdy stabilne jest rozwiązanie y(t) = 0. Przykład Rozważmy układ liniowy w R 2 ( ) α β ẋ = A x, gdzie A = β α ( ) 0 Funkcja stała z(t) = jest rozwiązaniem danego równania. 0 Zbadajmy stabilność naszago rozwiązania.wiemy, jakie są wzory na rozwiązania układu: x(t) = x 1 (t) = c 1 e αt cosβt + c 2 e αt sinβt x 2 (t) = c 3 e αt cosβt + c 4 e αt sinβt Rozważmy teraz 3 przypadki: ( ) x1 (t), gdzie x 2 (t) 1. α < 0, wówczas x 1 (t), x 2 (t) są dowolnie bliskie zeru dla dostatecznie dużych t.stąd z(t) jest asymptotycznie stabilnym rozwiązaniem. 2. α = 0, wówczas x(t) w zależności od warunku początkowego jest okręgiem, a więc rozwiązanie z(t)jest stabilne ale nie jest asymptotycznie stabilne, gdyż lim t + x(t) > 0. 3. α > 0, wówczas wartości x 1 (t), x 2 (t) oscylują między 0 a e αt, więc rozwiązanie z(t) nie jest stabilne. 9
Teraz zdefiniujemy pojęcie stabilności w języku dogodniejszym do naszych rozważań, w języku lokalnych układów dynamicznych. Niech jak wcześniej f : D X będzie odwzorowaniem klasy C 1,gdzie D X jest zbiorem otwartym oraz niech ϕ będzie lokalnym układem dynamicznym generowanym przez równanie ẋ = f(x) Definicja 2.7. Mówimy, że punkt p X jest punktem stałym jeżeli dla każdego t I p mamy ϕ(p, t) = p Teraz podamy związek między definicja punktu równowagi a punktu stałego. Twierdzenie 2.3. Niech p D.Wtedy p jest punktem stałym f(p) = 0 Teraz zdefiniujemy pojęcie stabilności w języku lokalnych układów dynamicznych. Niech p D będzie punktem stałym. Definicja 2.8. Punkt p jest stabilny,jeżeli: 1. Istnieje U 0, otoczenie p takie, że dla każdego x U 0, [0, + ) I x 2. Dla każdego otoczenia U punktu p, istnieje otoczenie punktu p V,że dla każdego x V {ϕ(x, t) : t I x, t 0} U. Aby lepiej uzmyslowić sobie istotę tej defnicji, zauważmy, że z ciągłości lokalnego układu dynamicznego ϕ oraz z tego, że I p = R, wynika następujący warunek zbliżony do warunku z definicji: 1. Dla każdego T > 0, istnieje U 0, otoczenie p takie, że dla każdego x U 0,[0, T ] I x 2. Dla każdego U, otoczenia p, istnieje V, otoczenie p takie, że dla każdego x V oraz 0 t T ϕ(x, t) U Interpretację pojęcia stabilności przedstawia rys. 2 10
Teraz podamy definicję asymptotycznej stabilności. Definicja 2.9. Punkt stały p jest asymptotycznie stabilny, jeżeli: 1. p jest stabilny 2. Istnieje U 1 U 0 że dla każdego x U 1 mamy lim t + ϕ(x, t) = p Łatwo zauważyć, że obie definicje stabilności i asymptotycznej stabilności są równoważne, gdyż ϕ(x, t) = x(t), gdzie x(t) jest rozwiązaniem równania oraz analogicznie jak w Lemacie 1 można pokazać że badanie stabilności punktu stałego p można sprowadzić do badania stabilności punktu zerowego. Jeśteśmy teraz przygotowani by zdefiniować funkcję Lapunowa,która pozwala badać stabilność i asymptotyczną stabilność również wtedy, gdy nie znamy jawnych wzorów na rozwiązanie rownania autonomicznego. 11
Rozdział 3 Funkcja Lapunowa Niech E D będzie otwartym otoczeniem punktu równowagi p i niech V : E [0, + ) będzie pewną funkcją. Przypuśćmy, że funkcja ta est różniczkowalna w pewnym punkcie x. Oznaczamy: V (x) = [grad V (x), f(x)] Funkcję V (x) nazywamy pochodną V wzdłuż trajektorii. Definicja 3.1. Funkcję V nazywamy funkcją Lapunowa, o ile: 1. V jest ciągła w E i różniczkowalna w E\{p} 2. V (x) 0, dla wszystkich x E, V (x) = 0 x = p 3. V (x) 0 dla wszyskich x E\{p} Jeśli dodatkowo: V (x) < 0 dla wszystkich x E\{p}, to V nazywamy mocną funkcją Lapunowa. 1 1 Od funkcji V wystarczy wymagać, by funkcja t V (x(t)), gdzie x(t) jest dowolnym rozwiązaniem równania ẋ = f(x) była nierosnącą funkcją zmiennej t.czyli by funkcja była nierosnąca wzdłuż rozwiązań. Oczywiście to implikuje, że V (x) 0 ale w praktyce jeśli nie znamy rozwiązań znacznie bardziej przydatna jest właśnie taka definicja. 12
Teraz sformułujemy główne twierdzenie. Twierdzenie 3.1. 1. Jeśli istnieje funkcja Lapunowa, to punkt równowagi p jest stabilny. 2. Jeśli istnieje mocna funckja Lapunowa, to punkt równowagi jest asymptotycznie stabilny. Dowód. Ad 1. Ustalmy dowolne ε tak, aby K(p, 2ε) E. Sfera S(p, ε) = {x : x p = ε} jest zbiorem zwartym, więc funkcja ciągła V osiąga na niej swoje kresy, w szczególności dodatnie minimum równe α. Ponieważ V (p) = 0, więc istnieje δ > 0 taka, że dla każdego x K(p, δ) mamy V (x) < α. Niech x K(p, δ). Pokażemy, że dla każdego dodatniego t I x, V (ϕ(x, t)) < α. Wiemy, że dotv < 0, więc funkcja t V (ϕ(x, t)) jest nierosnącą funkcją zmiennej t, czyli α > V (x) = V (ϕ(x, 0)) V (ϕ(x, t)) Stąd wiemy, że dla każdego x K(p, δ) oraz dodatniego t I x, ϕ(x, t) K(p, ε), gdyż gdyby tak nie było to dostalibyśmy punkt na sferze S(p, ε) ϕ(x, t 1 ). Z określenia liczby α wynika, że V (ϕ(x, t 1 )) α co jest sprzeczne z wyżej udowodnionym warunkiem. Rozwiązanie ϕ(x, t) jest wysycone dla każdego t I x więc dociera prawym końcem do brzegu zbioru R D i stąd [0, + ) I x. Ponieważ ε było dowolne, dowodzi to warunku 2 w definicji stabilności. Ad 2. Ustalmy ε > 0 dobierzmy do niego δ > 0, tak jak w dowodzie pierwszej części twierdzenia.niech x K(0, δ), x p. Wiemy, że o + (x) = {ϕ(x, t), t I x, t 0} K(p, ε). W takim razie ω(x), zbiór graniczny x, jest niepusty i zawiera się w K(p, 2ε).Niech y, z ω(x). Istnieją więc ciągi t n, s n + takie, że ϕ(x, t n ) = y, ϕ(x, s n ) = z ponieważ funkcja t V (ϕ(x, t)) ma ujemną pochodną, więc jest malejąca.mozemy założyć, że... < t n < s n < t n+1 < s n+1 <... dla każdego n.wówczas:... > V (ϕ(x, t n ) > V (ϕ(x, s n ) > V (ϕ(x, t n+1 ) > V (ϕ(x, s n+1 ) >..., dla wszystkich n i z ciągłości V mamy V (y) = V (z). Pokazaliśmy więc, że funkcja V jest stała na zbiorze ω(x). Z Twierdzenia 2 wiemy, że zbiór ten jest niezmienniczy. Niech y ω(x). Wtedy o + (y) ω(x). W takim razie y = p, gdyż w przeciwnym wypadku funkcja [0, + ) t V (ϕ(y, t)) byłaby funkcją malejącą. 13
W takim razie dlakażdego x K(p, δ), ω(x) = {p}, a to dowodzi asymptotycznej stabilności. Przykład 2. Rozpatrzmy następujący układ równań w R 2 : ẋ = y x 3 (3.1) ẏ = x y 3 (3.2) ( ) 0 Układ ma dokładnie jeden punkt stały p =. Aby zbadać jesgo stabilność 0 zdefiniujemy funkcje V : R 2 R daną wzorem: V (x, y) = x 2 + y 2 Policzmy V (x, y) : V (x, y) = 2xẋ + 2yẏ = 2x(y x 3 ) + 2y( x y 3 ) = 2(x 4 + y 4 ), czyli dla (x, y) (0, 0) mamy, że V (x, y) < 0, czyli V jest mocną funkcją Lapunowa, a więc punkt p jest asymptotycznie stabilny. 3.1 Linearyzacja Teraz zajmiemy się inną metodą, która pozwala badać stabilność rozwiązań równań różniczkowych, poprzez tzw. linearyzację. Będziemy starali się zastąpić problem nieliniowy problemem liniowym tak, by stabilność obu układów była w jakiś sposób stowarzyszona.rezultatem naszych rozważań będzie twierdzenie Hartmana-Grobmana.Najpierw jednak podamy kilka definicji. Twierdzenie 3.2. Równanie różniczkowe nazywamy równaniem liniowym jednorodnym, o ile ẋ = A x, x(0) = x, gdzie a jest pewną macierzą o współczynnikach rzeczywistych(bądź ogólniej w ciele) 14
Definicja 3.2. Widmem macierzy A nazywamy zbiór: σ(a)={λ C: λ jest wartością własną macierzy A}. Definicja 3.3. Układ dynamiczny generowany przez macierz A ma postać: czyli jest to układ liniowy. ϕ(x, t) = e A t x, Definicja 3.4. Liniowy układ dynamiczny generowany przez macierz A nazywamy hiperbolicznym liniowym układem dynamicznym, jeśli widmo σ(a) jest rozłączne z osią urojoną. Przykład 4. Układem hiperbolicznym jest np. : ẋ = A x, gdzie A = ( ) 1 0 0 1 Wiemy,że jeśli f : U R m i U R n, to pochodna f w dowolnym punkcie jest odwzorowaniem liniowym z R n do R m. Pochodną f w punkcie x 0 oznaczymy Df(x 0 ).Ale jako odwzorowanie liniowe Df(0) jest pewną macierzą nazwijmy ją A. Teraz jesteśmy przygotowani na sformułowanie twierdzenia : Twierdzenie 3.3. (Hartman-Grobman) Niech ψ będzie układem dynamicznym generowanym przez równanie liniowe ẋ = Ax, gdzie A = Df(0). Jeżeli A dyktuje układ hiperboliczny, to isnieje otoczenie U punktu p oraz otoczenie V punktu 0 oraz homeomorfizm h : U V, takie,że zlda każdego x U: h(ϕ(x, t) = ψ(h(x), t) Dowód tego twierdzenia jest dość skomplikowany i zostanie pominięty. Uzyskaliśmy więc, że dynamika w otoczeniu punktu równowagi p układu wyjściowego jest taka sama jak dynamika w otoczeniu punktu 0 równania liniowego, o ile pochodna odwzorowania f w zerze wyznacza układ hiperboliczny. 15
Rozdział 4 Przykłady i zadania 4.1 Zadania 1. Rozważmy układ liniowy w R 2 ( ) 1 0 ẋ = A x, gdzie A = 0 1 z warunkiem początkowym x(0, 0) = (a, b) Pokazać, że równanie to generuje układ dynamiczny. 2. Rozpatrzmy równanie skalarne ẋ = x. Wykaż że równanie to generuje układ dynamiczny oraz wyznacz jego trajektorie. 3. Rozpatrzmy Rozważmy układ liniowy w R 2 ẋ = B x, gdzie B = Z warunkiem początkowym x(0, 0) = (a, b) ( 0 ) 1 1 0 Wyznacz trajektorie rozwiązań dla tego układu. 16
4.2 Rozwiązania 1. Rozwiązanie danego problemu stanowi funkcja z(t) = (x(t), y(t)), gdzie x(t) = ae t, y(t) = be t. Zdefiniujemy funkcję f : R R 2 R 2, daną wzorem f(t, (x, y)) = (xe t, ye t ), mamy f(0, (x, y)) = (x, y) oraz f(s, f(t, (x, y))) = (xe ( t + s), ye ( t + s)) = f(t + s, (x, y)) Ciągłość f jest oczywista, a wieć f jest układem dynamicznym. 2. Zauważmy, że układ dynamiczny generowany przez to równanie jest postaci f : R R R dany wzorem f(t, x) = xe t. Układ ten ma tylko trzy różne trajektorie, a mianowicie T 0 = {0}, T 1 = (0, + ) dla x > 0 oraz T 2 = (, 0) dla x<0. 3. Zauważmy że rowiązanie tego równania jest postaci x(t) = (y(t), z(t)), gdzie x(t) = a cos(t) + b sin(t) y(t) = a sin(t) + b cos(t) Zdefiniujemy funkcję f : R R 2 R 2, daną wzorem f(t, (x, y)) = (x cos(t) + y sin(t), x sin(t) + y cos(t) Łatwo sprawdzić, że f jest układem dynamicznym. Zauważmy że trajektoria punktu (0, 0) składa się tylko z tego punktu. Jeżeli x = (x 0, y 0 ) (0, 0), to trajektorią jego jest okrąg. 17
Bibliografia [1] A.Pelczar, Wstęp do teorii równań różniczkowych część 2, Warszawa 1989 [2] J.Ombach, Wykłady z równań różniczkowych, Kraków 1996 [3] L.Górniewicz,R.S.Ingarden, Analiza matematyczna dla fizyków tom 2, Toruń 2000 18
Spis rysunków 1. Przykład położenia równowagi (Rys.1) 2. Pojęcie stabilności (Rys.2) 19