Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne. P. F. Góra

Podobne dokumenty
Wstęp do metod numerycznych 6. Numeryczne zagadnienie własne. P. F. Góra

Komputerowa analiza zagadnień różniczkowych 3. Numeryczne zagadnienie własne

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja QR i SVD. P. F. Góra

Zaawansowane metody numeryczne

Wstęp do metod numerycznych Eliminacja Gaussa Równania macierzowe. P. F. Góra

Wektory i wartości własne

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Wektory i wartości własne

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Zadania egzaminacyjne

Postać Jordana macierzy

Zaawansowane metody numeryczne

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Wstęp do metod numerycznych Algebraiczna metoda gradientów sprzężonych. P. F. Góra

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

10. Metody obliczeniowe najmniejszych kwadratów

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Metody numeryczne I Równania nieliniowe

Wstęp do metod numerycznych Zagadnienia wstępne Uwarunkowanie. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja Cholesky ego i QR. P. F. Góra

III. Układy liniowe równań różniczkowych. 1. Pojęcie stabilności rozwiązań.

Wstęp do metod numerycznych Rozwiazywanie równań algebraicznych. P. F. Góra

Wstęp do metod numerycznych SVD, metody iteracyjne i metoda gradientów. P. F. Góra

Analiza numeryczna Lista nr 3 (ćwiczenia) x x 2 n x.

ALGEBRA z GEOMETRIA, ANALITYCZNA,

Wartości i wektory własne

Wstęp do metod numerycznych Inne rodzaje faktoryzacji. P. F. Góra

Komputerowa analiza zagadnień różniczkowych 1. Równania różniczkowe zwyczajne podstawy teoretyczne. P. F. Góra

Metody numeryczne. materiały do wykładu dla studentów

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Układy równań i równania wyższych rzędów

Zadania przygotowawcze, 3 kolokwium

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Równania różniczkowe liniowe wyższych rzędów o stałych współcz

φ(x 1,..., x n ) = a i x 2 i +

Programowanie celowe #1

Wstęp do metod numerycznych 9. Miejsca zerowe wielomianów. P. F. Góra

Zaawansowane metody numeryczne

Optymalizacja ciągła

Metody numeryczne Wykład 4

Komputerowa analiza zagadnień różniczkowych 1. Równania różniczkowe zwyczajne podstawy teoretyczne. P. F. Góra

Własności wyznacznika

Diagonalizacja macierzy i jej zastosowania

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Wstęp do metod numerycznych Eliminacja Gaussa Faktoryzacja LU. P. F. Góra

Wstęp do metod numerycznych Równania macierzowe Faktoryzacja LU i Cholesky ego. P. F. Góra

Wykład 14. Elementy algebry macierzy

Lista nr 1 - Liczby zespolone

a 11 a a 1n a 21 a a 2n... a m1 a m2... a mn x 1 x 2... x m ...

jest rozwiązaniem równania jednorodnego oraz dla pewnego to jest toŝsamościowo równe zeru.

Równania różnicowe. Dodatkowo umawiamy się, że powyższy iloczyn po pustym zbiorze indeksów, czyli na przykład 0

Komputerowa analiza zagadnień różniczkowych 10. Dwupunktowe problemy brzegowe (BVP, Boundary Value Problems)

Niezb. ednik matematyczny. Niezb. ednik matematyczny

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 4. Równania różniczkowe zwyczajne podstawy teoretyczne

Algebra liniowa II. Lista 1. 1 u w 0 1 v 0 0 1

VII. Elementy teorii stabilności. Funkcja Lapunowa. 1. Stabilność w sensie Lapunowa.

Układy równań liniowych

3. FUNKCJA LINIOWA. gdzie ; ół,.

Wstęp do metod numerycznych Metody iteracyjne i metoda gradientów. P. F. Góra

ALGEBRA Z GEOMETRIĄ ANALITYCZNĄ

13 Układy równań liniowych

Funkcja kwadratowa. f(x) = ax 2 + bx + c = a

Przekształcanie równań stanu do postaci kanonicznej diagonalnej

Funkcja kwadratowa. f(x) = ax 2 + bx + c,

1. Liczby zespolone i

Zadania z Algebry liniowej 4 Semestr letni 2009

Wstęp do metod numerycznych Eliminacja Gaussa i faktoryzacja LU. P. F. Góra

Układy równań liniowych i metody ich rozwiązywania

= i Ponieważ pierwiastkami stopnia 3 z 1 są (jak łatwo wyliczyć) liczby 1, 1+i 3

Wykład 1. Na początku zajmować się będziemy zbiorem liczb całkowitych

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Macierze. Rozdział Działania na macierzach

Wykład z równań różnicowych

Układy równań i nierówności liniowych

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

Rozwiazywanie układów równań liniowych. Ax = b

Diagonalizacja macierzy i jej zastosowania

1 Macierze i wyznaczniki

Wykład 5. Metoda eliminacji Gaussa

Układy równań liniowych. Krzysztof Patan

Metody numeryczne. Równania nieliniowe. Janusz Szwabiński.

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2011

Przestrzenie wektorowe

Optymalizacja ciągła

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

PODSTAWY AUTOMATYKI. MATLAB - komputerowe środowisko obliczeń naukowoinżynierskich - podstawowe operacje na liczbach i macierzach.

Metody dekompozycji macierzy stosowane w automatyce

Wstęp do metod numerycznych Faktoryzacja macierzy. P. F. Góra

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. wykład z algebry liniowej Warszawa, styczeń 2009

(4) W zbiorze R R definiujemy działania i wzorami. (a, b) (c, d) =(a + c, b + d),

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

5. Rozwiązywanie układów równań liniowych

wszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów

, A T = A + B = [a ij + b ij ].

Lista. Algebra z Geometrią Analityczną. Zadanie 1 Przypomnij definicję grupy, które z podanych struktur są grupami:

1 Podobieństwo macierzy

Transkrypt:

Wstęp do metod numerycznych 5. Numeryczne zagadnienie własne P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2011

Zagadnienie własne Definicja: Niech A C N N. Liczbę λ C nazywam wartościa własna macierzy A, jeżeli istnieje niezerowy wektor x C N taki, że Ax = λx. (1) Wektor x nazywam wówczas wektorem własnym macierzy A do wartości własnej λ. Definicja jest sformułowana dla macierzy zespolonych, my jednak poza przypadkiem macierzy hermitowskich będziemy zajmować się macierzami rzeczywistymi. Należy jednak pamiętać, że także macierze rzeczywiste (niesymetryczne) moga mieć zespolone wartości własne. Problem poszukiwania wartości własnych macierzy nazywa się zagadnieniem własnym. Copyright c 2010-11 P. F. Góra 5 2

Równanie charakterystyczne Równanie (1) można zapisać w postaci (A λi) x = 0. (2) Jeżeli λ jest wartościa własna, równanie to musi mieć niezerowe rozwia- zanie ze względu na x. Jest to możliwe tylko w wypadku det (A λi) = 0. (3) Równanie (3) nazywane jest równaniem charakterystycznym macierzy A. Jest to równanie wielomianowe stopnia N. Widzimy, że każda wartość własna jest pierwiastkiem równania charakterystycznego, ale stwierdzenie odwrotne niekoniecznie jest prawda. Zbiór wszystkich rozwiazań równania (3) nazywam widmem macierzy A. Copyright c 2010-11 P. F. Góra 5 3

Macierz A C N N, która ma N niezależnych liniowo wektorów własnych, nazywam macierza diagonalizowalna. Łatwo sprawdzić, że jeżeli X C N N jest macierza, której kolumnami sa kolejne, liniowo niezależne wektory własne diagonalizowalnej macierzy A, zachodzi X 1 AX = diag{λ 1, λ 2,..., λ N }. (4) Uwaga! Poza przypadkami, które daje się rozwiazać analitycznie i poza pewnymi przypadkami specjalnymi, które wykraczaja poza zakres tego wykładu, próba poszukiwania wartości własnych macierzy poprzez rozwiazy- wanie jej równania charakterystycznego na ogół jest numerycznie nieefek- tywna. Trzeba znaleźć jakieś inne metody. Copyright c 2010-11 P. F. Góra 5 4

Transformacja podobieństwa Zależność (4) jest szczególnym przypadkiem transformacji podobieństwa. Ogólnie, dwie macierze A, B nazywam macierzami podobnymi, jeżeli istnieje taka nieosobliwa macierz S, że zachodzi B = S 1 AS. (5) Macierze podobne maja takie same widma, co wynika z faktu, że jeśli spełnione jest równanie (1), spełnione jest także równanie S 1 (A λi) SS 1 x = 0, (6) a zatem wektor S 1 x jest wektorem własnym macierzy (5) do wartości własnej λ. Copyright c 2010-11 P. F. Góra 5 5

Ortogonalna transformacja podobieństwa Na ogół zamiast ogólnej transformacji podobieństwa, używa się ortogonalnej transformacji podobieństwa B = O T AO, (7) gdzie O T O = I. Co więcej, typowo wykonuje się cały ciag transformacji A 2 = O T 1 A 1O 1, A 3 = O T 2 A 2O 2 itd, czyli A k = O T k... OT 2 OT 1 }{{} P T k A 1 O 1 O 2... O k }{{} P k (8) P k jest złożeniem macierzy ortogonalnych, a więc samo jest macierza ortogonalna. Copyright c 2010-11 P. F. Góra 5 6

Ponieważ kolejne transformacje wykonuje się w kolejności od wewnatrz, nie musimy pamiętać każdej z nich z osobna. Innymi słowy, jeżeli P 0 = I A 1 = Q T 1 AQ 1 P 1 = P 0 Q 1 A 2 = Q T 2 A 1Q 2 P 2 = P 1 Q 2.......................................................................... A diag = A s = Q T s A s 1 Q s P s = P s 1 Q s (9) zakumulowana macierz P s jest jest macierza, której kolumnami sa wektory własne macierzy A, porównaj (4). Macierz A diag może być numerycznie diagonalna, to znaczy jej pozadiagonalne elementy moga być zaniedbywalnie małe. Copyright c 2010-11 P. F. Góra 5 7

Uwaga: Jeżeli nie musimy znaleźć wszystkich wektorów własnych i interesuja nas tylko wartości własne, nie musimy zapamiętywać zakumulowanych macierzy transformacji, co istotnie przyczynia się do zmniejszenia numerycznego kosztu całej procedury. Copyright c 2010-11 P. F. Góra 5 8

Metoda potęgowa Niech A R N N będzie macierza symetryczna, A = A T. Wiadomo, że macierz taka jest diagonalizowalna, ma rzeczywiste wartości własne, a jej unormowane wektory własne tworza bazę ortonormalna w R N. Niech baza ta będzie {e i } N i=1, przy czym Ae i = λ i e i. Przyjmijmy dodatkowo, że wartości własne macierzy A sa dodatnie i uporzadkowane λ 1 > λ 2 > > λ N > 0. Weźmy wektor y R N. Posiada on rozkład y = N i=1 β i e i. (10) Copyright c 2010-11 P. F. Góra 5 9

Obliczamy Ay = A A 2 y = A N i=1 N β i e i = β i λ i e i = N i=1 N i=1 i=1 β i Ae i = β i λ 2 i e i N i=1 β i λ i e i (11a) (11b).......................................................................... A k y = N i=1 β i λ k i e i (11c) Widzimy, że dla dostatecznie dużych k wyraz zawierajacy λ k 1 będzie dominował w sumie po prawej stronie (11c): pozostałe współczynniki będa zaniedbywalnie małe, a zatem prawa strona (11c) dla dostatecznie dużych k będzie dażyć do wektora proporcjonalnego do e 1, czyli do wektora własnego do największej wartości własnej. Copyright c 2010-11 P. F. Góra 5 10

A zatem iteracja ( y 1 = 1, poza tym dowolny) Ay k = z k y k+1 = z k z k (12) zbiega się, przy przyjętych założeniach, do unormowanego wektora własnego macierzy A, odpowiadajacego największej wartości własnej. Gdy iteracja (12) zbiegnie się do punktu stałego (kolejne wektory y k e 1 przestana się zauważalnie zmieniać), wartość własna obliczamy jako λ 1 = z k. Copyright c 2010-11 P. F. Góra 5 11

Przykład 1 0 6 5 4 3 2 Kolejne wektory generowane przez metodę potęgowa, czyli iterację [ ](12), dla macierzy 4 1. 1 4 1 0 1 Copyright c 2010-11 P. F. Góra 5 12

Druga wartość własna Kiedy w sumie (11c) wyraz z wektorem własnym do największej wartości własnej nie będzie dominować? Wtedy i tylko wtedy, gdy współczynnik odpowiadajacy temu wektorowi w rozwinięciu (10) będzie znikać, β 1 = 0. To sugeruje sposób na szukanie wektora własnego odpowiadajacego drugiej co do wielkości wartości własnej: należy upewnić się, że wektor y 1 i wszystkie jego iteraty sa prostopadłe do uprzednio znalezionego e 1. Iteracja ( y 1 = 1, e T 1 y 1 = 0, poza tym dowolny) Ay k = z k z k = z k e 1 ( e T 1 z k ) y k+1 = z k z k (13) Copyright c 2010-11 P. F. Góra 5 13

zbiega się, przy przyjętych założeniach, do unormowanego wektora własnego macierzy A, odpowiadajacego drugiej co do wielkości wartości własnej. Drugi krok powyższego algorytmu oznacza ortogonalizację. Teoretycznie, skoro wektor startowy iteracji jest ortogonalny do e 1, krok tn możnaby pominać. Tak byłoby w arytmetyce dokładnej. W arytmetyce przybliżonej zakumulowany bład obcięcia może spowodować, że wygenerowane wektory będa miały niezerowy rzut na kierunek e 1, który w ten sposób zacznie dominować. Dlatego reortogonalizacja, jeśli nie w każdej iteracji, to przynajmniej co kilka, jest nieodzowna, podrażajac koszt numeryczny całego algorytmu. Copyright c 2010-11 P. F. Góra 5 14

Odwrotna metoda potęgowa Przypuśćmy, że zamiast największej, szukamy najmniejszej (lecz większej od zera) wartości własnej. Jak łatwo sprawdzić, jeżeli Ae i = λ i e i, to A 1 e i = λ 1 i e i, a zatem najmniejsza wartość własna jest największa wartościa własna macierzy odwrotnej. Prowadzimy więc iterację A 1 y k = z k y k+1 = z k z k (14) Należy pamiętać, że zapis A 1 y k = z k należy rozumieć jako konieczność rozwiazania równania Az k = y k. Widać, że kolejne równania rozwiazujemy korzystajac z dokonanego tylko raz rozkładu LU (lub rozkładu Cholesky ego, jeśli macierz jest dodatnio określona tak, jak przy obowiazuj acych dotad założeniach). Copyright c 2010-11 P. F. Góra 5 15

Uwagi o metodzie potęgowej 1. Jeżeli nie ograniczamy się do macierzy dodatnio określonych, dominujac a wartościa własna będzie wartość własna o największym module. Podobnie, dominujac a wartościa własna macierzy odwrotnej będzie wartość własna macierzy nieodwróconej o najmniejszym module; trzeba jednak pamiętać, że macierz odwrotna jest określona tylko wtedy, gdy żadna wartość własna nie jest zerowa. 2. Ujemne wartości własne rozpoznajemy po tym, że po ustabilizowaniu się kierunku wektora własnego, jego współrzędne zmieniaja znak w kolejnych iteracjach. 3. Jeżeli przy pomocy metody potęgowej trzeba znaleźć więcej niż kilka wartości i wektorów własnych, metoda, z uwagi na konieczność reortogonalizacji, staje się bardzo kosztowna. 4. Jeżeli w widmie macierzy pojawiaja się wartości własne bardzo zbliżone co do modułu na przykład 2 oraz 1.99999999, ale też 1 oraz 0.99999999 zbieżność będzie bardzo wolna, a nawet można spodziewać się stagnacji. 5. Metoda potęgowa nie działa dla macierzy niesymetrycznych! Copyright c 2010-11 P. F. Góra 5 16

Wartości własne macierzy hermitowskiej Niech H C N N będzie macierza hermitowska, H = H. Jak wiadomo, ma ona rzeczywiste wartości własne. Niech Hu = λu. (15) Rozłóżmy H na część rzeczywista i urojona, H = A+iB, A, B R N N. Łatwo pokazać, że A T = A, B T = B. Niech u = x + iy, x, y R N. Z (15) otrzymujemy (A + ib)(x + iy) = λ(x + iy) (16a) Ax By + i(bx + Ay) = λx + iλy (16b) Copyright c 2010-11 P. F. Góra 5 17

Równość w (16b) musi zachodzić jednocześnie dla części rzeczywistych i urojonych. Zapisujac te równości w notacji macierzowej, otrzymujemy [ A B B A ] } {{ } H = λ [ x y ] (17) Macierz H jest symetryczna i rzeczywista, a zatem wydaje się, że problem diagonalizacji macierzy hermitowskiej został sprowadzony do problemu diagonalizacji macierzy symetrycznej, rzeczywistej. Jest jednak pewien problem: macierz H C N N ma N wartości własnych. Macierz H R 2N 2N ma 2N wartości własnych. Copyright c 2010-11 P. F. Góra 5 18

Okazuje się, że przy przejściu od H do H, każda wartość własna się klonuje. Aby to zobaczyć, pomnóżmy obie strony (15) przez i. Postępujac jak poprzednio, zamiast (16b) otrzymujemy i(ax By) + Bx + Ay = iλx + λy (18a) Ay B( x) + i(by + A( x)) = λy + iλ( x) (18b) [ ] [ ] [ ] A B y y = λ B A x x (19) Porównujac (17) i (19) widzimy, że wektory [ x y ] i [ y x ] sa wektorami własnymi macierzy H do tej samej wartości własnej λ. Ponieważ wektory te sa ortogonalne, wartość własna λ (rozumiana jako wartość własna H, nie H) jest (co najmniej) dwukrotnie zdegenerowana. Copyright c 2010-11 P. F. Góra 5 19

Rezolwenta Niech A C N N i niech pewna liczba ξ C nie należy do widma A. Wynika stad, że det(a ξi) 0. Macierz Z = (A ξi) 1 nazywam rezolwenta macierzy A. (Rezolwenta jest funkcja argumentu ξ.) Niech λ i u będa wartościa własna i odpowiadajacym jej wektorem własnym A: Z (20a) wynika (ξ λ) Au = λu. (20a) Au ξu = λu ξu (20b) (A ξi)u = (λ ξ)u (20c) 1 λ ξ u = (A ξi) 1 u = Zu. (20d) Ostatnie równanie oznacza, że u jest wektorem własnym rezolwenty do wartości własnej (λ ξ) 1. Copyright c 2010-11 P. F. Góra 5 20

Transformacja Möbiusa Algorytmy znajdywania wartości własnych dużych macierzy sa na ogół szybko zbieżne do wartości skrajnych, izolowanych. Często znajomość takich wartości własnych wystarcza nam ze względów praktycznych. Jeżeli jednak chcemy dokładnie obliczyć dwie zbliżone wartości własne, leżace gdzieś w środku widma, zbieżność może być bardzo wolna. Można ja przyspiezyć za pomoca transformacji Möbiusa. Niech u 1, u 2 będa dwoma wektorami własnymi pewnej macierzy A, zaś λ 1, λ 2 będa odpowiadajacymi im wektorami własnymi, przy czym τ : λ 1 = τ + ε 1, λ 2 = τ + ε 2, ε 1,2 1 oraz τ nie jest wartościa własna A. Rozważmy rezolwentę (A τi) 1. Wektory u 1,2 sa jej wektorami własnymi do wartości własnych (τ +ε 1,2 τ) 1 = ε 1 1,2. Różnica tych wartości własnych wynosi ε 1 ε 2, co jest liczba duża, gdyż ε 1,2 sa małe. Widzimy, że Copyright c 2010-11 P. F. Góra 5 21

zbliżone wartości własne macierzy odpowiadaja dobrze rozseparowanym wartościom własnym rezolwenty, wektory własne zaś sa takie same. Dobre rozseparowanie wartości własnych rezolwenty powinno sprawić, że procedura poszukiwania tych wartości własnych powinna być szybko zbieżna, co zrekompensuje koszt obliczania samej rezolwenty. Dodatkowym ułatwieniem jest fakt, że przy obliczaniu rezolwenty (ściślej: wyników działania rezolwenty na jakieś wektory), możemy cały czas korzystać z tej samej faktoryzacji. Copyright c 2010-11 P. F. Góra 5 22

Poszukiwanie wektora własnego gdy znana jest wartość własna Jak wspomniano wyżej, poszukiwanie samych wartości własnych jest znacznie tańsze, niż jednoczesne poszukiwanie wartości i wektorów własnych. Bardzo często zdarza się, że chcemy poznać wszystkie (lub większość) wartości własnych, ale tylko kilka wektorów własnych, odpowiadajacych wybranym (na ogół skrajnym lub w inny sposób charakterystycznym) wartościom własnym. Przyjmijmy, że λ jest wartościa własna macierzy A, której wektory własne stanowia bazę w R N i niech τ λ nie należy do widma A. (Jako τ można brać przybliżenie λ otrzymane numerycznie, bo ono powinno być bliskie prawdziwej wartości własnej, ale różne od niej.) Copyright c 2010-11 P. F. Góra 5 23

Rozważamy rezolwentę (A τi) 1. Jej dominujac a wartościa własna będzie (λ τ) 1. Podobnie jak w metodzie potęgowej, iteracja ( y 1 = 1, poza tym dowolny) (A τi) 1 y k = z k y k+1 = z k z k (21) zbiega się, przy przyjętych założeniach, do unormowanego wektora własnego macierzy (A τi) 1, odpowiadajacego wartości własnej (λ τ) 1. Ten sam wektor jest jednocześnie wektorem własnym A, odpowiadajacym wartości własnej λ τ. W iteracji (21) wykorzystujemy cały czas ten sam rozkład LU. Ważne jest, aby obliczenia (i sam rozkład) prowadzić w podwyższonej precyzji, gdyż macierz A τi jest źle uwarunkowana. Copyright c 2010-11 P. F. Góra 5 24