Normy wektorów i macierzy

Podobne dokumenty
Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Rozdzia l 10. Formy dwuliniowe i kwadratowe Formy dwuliniowe Definicja i przyk lady

Wyk lad 11 Przekszta lcenia liniowe a macierze

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach

Wyk lad 10 Przestrzeń przekszta lceń liniowych

Wyk lad 9 Przekszta lcenia liniowe i ich zastosowania

Wyk lad 3 Wyznaczniki

Grupy i cia la, liczby zespolone

Wyk lad 14 Formy kwadratowe I

Niezb. ednik matematyczny. Niezb. ednik matematyczny

Geometria i Algebra Liniowa (dla I-go roku informatyki WMIM UW) Leszek Plaskota Instytut Matematyki Stosowanej i Mechaniki Uniwersytet Warszawski

Indeks odwzorowania zmiennej zespolonej wzgl. krzywej zamknietej

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Wyk lad 11 1 Wektory i wartości w lasne

Wyk lad 13 Funkcjona ly dwuliniowe

Wyk lad 8 macierzy i twierdzenie Kroneckera-Capellego

Wyk lad 9 Baza i wymiar przestrzeni liniowej

Pochodne cz ¾astkowe i ich zastosowanie.

Wyk lad 4 Dzia lania na macierzach. Określenie wyznacznika

Teoria miary WPPT IIr. semestr zimowy 2009 Wyk lady 6 i 7. Mierzalność w sensie Carathéodory ego Miara Lebesgue a na prostej

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Funkcje dwóch zmiennych

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka

Matematyka dyskretna. 1. Relacje

macierze jednostkowe (identyczności) macierze diagonalne, które na przekątnej mają same

1 Macierze i wyznaczniki

Przestrzenie wektorowe, liniowa niezależność Javier de Lucas

Liczby zespolone. x + 2 = 0.

Funkcje wielu zmiennych

Wyk lad 4 Macierz odwrotna i twierdzenie Cramera

Algebra liniowa. 1. Macierze.

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Konstrukcja liczb rzeczywistych przy pomocy ciągów Cauchy ego liczb wymiernych

Układy równań i nierówności liniowych

Niesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka

Informacja o przestrzeniach Hilberta

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wyk lad 1 Podstawowe struktury algebraiczne

Rachunek różniczkowy i całkowy w przestrzeniach R n

ANALIZA II 15 marca 2014 Semestr letni. Ćwiczenie 1. Czy dan a funkcjȩ da siȩ dookreślić w punkcie (0, 0) tak, żeby otrzymana funkcja by la ci ag la?

Liczby zespolone. Magdalena Nowak. 23 marca Uniwersytet Śląski

Funkcje wielu zmiennych

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wykład 2 Zmienne losowe i ich rozkłady

Wyk lad 5 Grupa ilorazowa, iloczyn prosty, homomorfizm

Ekonomia matematyczna i dynamiczna optymalizacja

Postać Jordana macierzy

Suma i przeciȩcie podprzestrzeni, przestrzeń ilorazowa Javier de Lucas

19 Własności iloczynu skalarnego: norma, kąt i odległość

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 14. wykład z algebry liniowej Warszawa, styczeń 2017

Zadania egzaminacyjne

Analiza funkcjonalna 1.

Wektory i wartości własne

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

y 1 y 2 = f 2 (t, y 1, y 2,..., y n )... y n = f n (t, y 1, y 2,..., y n ) f 1 (t, y 1, y 2,..., y n ) y = f(t, y),, f(t, y) =

7 Twierdzenie Fubiniego

P. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF

Wyznaczniki. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 6. Wykład z algebry liniowej Warszawa, listopad 2013

Wyk lad 6 Podprzestrzenie przestrzeni liniowych

Zajmijmy się najpierw pierwszym równaniem. Zapiszmy je w postaci trygonometrycznej, podstawiając z = r(cos ϕ + i sin ϕ).

1. Liczby zespolone. Jacek Jędrzejewski 2011/2012

Liczby zespolone, liniowa zależność i bazy Javier de Lucas. a d b c. ad bc

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Macierze. Rozdział Działania na macierzach

Niech X bȩdzie dowolnym zbiorem. Dobry porz adek to relacja P X X (bȩdziemy pisać x y zamiast x, y P ) o w lasnościach:

1 Przestrzenie unitarne i przestrzenie Hilberta.

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.

1 Rozwiązywanie układów równań. Wyznaczniki. 2 Wektory kilka faktów użytkowych

Grzegorz Bobiński. Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

FUNKCJE LICZBOWE. Na zbiorze X określona jest funkcja f : X Y gdy dowolnemu punktowi x X przyporządkowany jest punkt f(x) Y.

Ciągłość funkcji f : R R

8 Całka stochastyczna względem semimartyngałów

Matematyka A kolokwium 26 kwietnia 2017 r., godz. 18:05 20:00. i = = i. +i sin ) = 1024(cos 5π+i sin 5π) =

Wyk lad 12. (ii) najstarszy wspó lczynnik wielomianu f jest elementem odwracalnym w P. Dowód. Niech st(f) = n i niech a bedzie

Prostota grup A n. Pokażemy, że grupy A n sa. proste dla n 5. Dowód jest indukcyjny i poprzedzimy go lematem.

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

9 Przekształcenia liniowe

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

O zgodności procedur jednoczesnego testowania zastosowanych do problemu selekcji zmiennych w modelu liniowym

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

2. Definicja pochodnej w R n

Wyk lad 4 Warstwy, dzielniki normalne

Wyk lad 9 Baza i wymiar przestrzeni liniowej

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Wykład 14. Elementy algebry macierzy

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Wektory i wartości własne

1. Definicja granicy właściwej i niewłaściwej funkcji.

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Rozdział 5. Szeregi liczbowe. 5.1 Szeregi liczbowe. Definicja sumy częściowej ciągu. Niech dany będzie ciąg liczbowy (a n ) n=1.

w teorii funkcji. Dwa s lynne problemy. Micha l Jasiczak

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Sumy kwadratów. Twierdzenie Fermata-Eulera. Lemat Minkowskiego

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

Transkrypt:

Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0, (ii) A K m,n u K ψ(u A) = u ψ(a), (iii) A,B K m,n ψ(a + B) ψ(a) + ψ(b) (nierówność trójkata albo subaddytywność). Każde takie przekszta lcenie ψ nazywamy norma w K m,n i oznaczamy ψ(a) = A. Norma jest miara wielkości macierzy. Dlatego A B uznajemy za miar e odleg lości mi edzy macierzami A i B. Powiemy, że norma jest monotoniczna gdy warunek A B (tzn. gdy a i,j b i,j i,j) implikuje A B. Jeśli norma w K n,n spe lnia A B A B, A,B K n,n, to mówimy, że norma jest submultiplikatywna. 25

26 ROZDZIA L 3. NORMY WEKTORÓW I MACIERZY 3.2 Normy wektorów 3.2.1 Normy p-te Wektory w K n sa szczególnymi macierzami. W tym przypadku, ważnymi przyk ladami norm sa normy Schura, zdefiniowane dla danej p, 1 p, jako ( ) 1/p x p = x i p dla 1 p <, x = max 1 i n x i. Nietrudno zauważyć, że x = lim p x p, x K n. Warunki (i) i (ii) normy sa trywialnie spe lnione przez normy Schura. Warunek (iii) latwo sprawdzić dla p = 1,. Dla p = 1 mamy bowiem a dla p = x + y 1 = x i + y i x i + y i = x 1 + y 1, x + y = max 1 i n x i + y i max 1 i n x i + max 1 i n y i = x + y. (W obu przypadkach zastosowaliśmy nierówność trójkata u + v u + v dla liczb zespolonych u i v.) Dla innych wartości p warunek (iii) jest dużo trudniej pokazać. Dlatego ograniczymy si e tu jedynie do przypadku p = 2. Lemat 3.1 (Nierówność Schwarza) Dla dowolnych u, v K n mamy Dowód. Dla t K mamy u H v u 2 v 2. 0 u + v t 2 2 = ( u + v t) H ( u + v t) = u H u + t t v H v + u H v t + v H u t = u 2 2 + t 2 v 2 2 + t u H v (ω (ϕ+ψ) + ω (ϕ+ψ)), gdzie t = t ω ψ, u H v = u H v ω ϕ, ω = cos 1 + ı sin 1.

3.2. NORMY WEKTORÓW 27 Biorac teraz ψ = ϕ mamy a biorac ψ = π ϕ mamy 0 u 2 2 + 2 t u H v + t 2 v 2 2, 0 u 2 2 2 t u H v + t 2 v 2 2. Stad dla dowolnej τ R otrzymujemy 0 u 2 2 + 2τ u H v + τ 2 v 2 2. Ponieważ prawa strona ostatniej nierówności jest, jako funkcja τ, trójmianem kwadratowym o wartościach nieujemnych, to 0 = 4 ( u v 2 u 2 2 v 2 2), co implikuje u H v u 2 v 2 i kończy dowód. Na podstawie nierówności Schwarza mamy teraz u + v 2 2 = u 2 2 + v 2 2 + u H v + v H u = u 2 2 + v 2 2 + 2R( u H v) u 2 2 + v 2 2 + 2 u H v czyli nierówność trójkata dla 2. u 2 2 + v 2 2 + 2 u 2 v 2 = ( u 2 + v 2 ) 2, 3.2.2 Pożyteczne (nie)równości Nietrudno pokazać nast epuj ace nierówności l acz ace normy p-te Schura dla p = 1, 2,. Mianowicie, dla każdego u K n mamy u u 1 n u, u u 2 n u, u 2 u 1 n u 2,

28 ROZDZIA L 3. NORMY WEKTORÓW I MACIERZY przy czym ostatnia z tych nierówności jest konsekwencja nierówności Schwarza, u 1 = u i = ( ) 1/2 ( ) 1/2 u i 1 u i 2 1 2 = n u 2. Dodatkowo zauważamy, że nierówności tych nie można poprawić. Na przyk lad, dla pierwszego wersora e 1 mamy e 1 p = 1 p, a dla 1 = [1, 1,...,1] K n mamy 1 1 = n 1 2 = n 1. Kula jednostkowa w K n (ze wzgl edu na norm e ) nazywamy zbiór wektorów K = { u K n : u 1}. Z podanych powyżej nierówności wynika w szczególności, że K 1 K 2 K, gdzie K p jest kula jednostkowa w normie p-tej Schura. Zauważmy jeszcze, że normy p-te sa monotoniczne oraz, że dla dowolnej macierzy permutacji P K n,n i wektora x K n P x p = x p, tzn. norma p-ta wektora jest niezmiennicza ze wzgl edu na przestawienia kolejności jego wspó lrz ednych. 3.3 Normy macierzy 3.3.1 Normy p-te Normy p-te macierzy sa definiowane (indukowane) przez normy p-te wektorów w nast epuj acy sposób: A x p A p = sup 0 x K x n p = sup { A x p : x K n, x p = 1}. Zauważmy, że używamy tego samego oznaczenia dla norm wektora jak i macierzy. Jest to uzasadnione, gdyż norma p-ta macierzy jest uogólnieniem

3.3. NORMY MACIERZY 29 normy p-tej wektora. Dla A = [u 1,...,u m ] T K m,1 = K m mamy bowiem A p = sup t =1 A t p = ( m u i p ) 1/p. (Tutaj t K!) Wprost z definicji wynika, że normy indukowane macierzy spe lniaj a warunek zgodności (z norma wektorowa), tzn. A K m,n x K n A x p A p x p. Normy te sa również submultiplikatywne, A K m,l B K l,n A B p A p B p. Rzeczywiście, dla x K l mamy (A B) x p = A (B x) p A p B x p A p B p x p, skad (A B) x p sup A p B p. x 0 x p Dla macierzy permutacji P K m,m i Q K n,n mamy P A Q T p = A p, co oznacza, że przestawienie kolumn i wierszy macierzy nie zmienia jej p- tej normy. Rzeczywiście, ponieważ przestawienie wspó lrz ednych nie zmienia normy p-tej wektora, mamy P A Q T x p sup x 0 x p A Q T x p = sup x 0 Q T x p A y p = sup. y 0 y p 3.3.2 Pożyteczne (nie)równości Dla niektórych p, norm e można wyrazić w sposób pozwalajacy ja latwo obliczyć. Lemat 3.2 Dla dowolnej macierzy A = (a i,j ) K m,n (a) (b) A = max 1 i m n a i,j, A 1 = max 1 j n m a i,j.

30 ROZDZIA L 3. NORMY WEKTORÓW I MACIERZY Dowód. (a) Dla x = [x 1,...,x n ] T K n mamy A x = max a i,j x j max a i,j x j 1 i m 1 i m ( ) x a i,j. max 1 i m Z drugiej strony, weźmy x = (x j) taki, że x j = ω ϕ j, 1 j n, gdzie ϕ j jest argumentem liczby a s,j, tzn. a s,j = a s,j ω ϕ j, a s jest tym indeksem i, dla którego suma n a i,j jest najwi eksza. Wtedy x = 1 oraz A x a s,j x j = a s,j ω ϕ j ω ϕ j = a s,j, a stad A max n 1 i m a i,j. (b) Dla dowolnego x mamy m A x 1 = a i,j x j = x j m ( m a i,j a i,j x j max 1 j n ) m a i,j x 1. Z drugiej strony, dla x takiego, że x j = 0 dla j s, x j = 1 dla j = s, gdzie s jest tym indeksem j dla którego suma m a i,j jest najwi eksza, mamy x 1 = 1 oraz A x 1 = m a i,s, a stad A 1 max m 1 j n a i,j. Z powyższego lematu latwo widać, że A T = A H = A 1, A T 1 = A H 1 = A. Szczególna rol e odgrywa norma druga 2, ze wzgl edów, które b ed a jasne później. Niestety, nie wyraża si e ona w tak prosty sposób jak 1 i. W odróżnieniu od tych ostatnich, norma druga ma jednak dodatkowa ważna w lasność; mianowicie, dla dowolnej A K m,n A T 2 = A H 2 = A 2.

3.3. NORMY MACIERZY 31 Równość ta wynika bezpośrednio z faktu, że A 2 = sup sup y H A z, z y gdzie suprema wzi ete sa po z K n i y K m takich, że z 2 = 1 = y 2. Rzeczywiście, dla dowolnych y i z o jednostkowych normach mamy y H A z y 2 A z 2 = A z 2 A 2, przy czym w pierwszej nierówności zastosowaliśmy nierówność Schwarza. Z drugiej strony, dla z o jednostkowej normie i takiego, że A z 0 mamy A z 2 = A z 2 2 = (A z)h A z sup y H A z, A z 2 A z 2 y 2 =1 gdzie podstawiliśmy y = A z/ A z 2. 3.3.3 Norma Frobeniusa Norm e Frobeniusa (albo Euklidesowa) macierzy A K m,n definiujemy jako A F = ( m ) 1/2 a i,j 2. Zaleta normy F jest jej latwa obliczalność, natomiast wada, że nie jest to norma indukowana przez żadna norm e wektorowa. Zwiazek mi edzy norma Frobeniusa i norma druga pokazuje nast epuj acy lemat. Lemat 3.3 Dla dowolnej A K m,n mamy A 2 A F min(m,n) A 2. Dowód. Wykorzystujac nierówność Schwarza, dla dowolnego x K n o jednostkowej normie drugiej mamy m A x 2 2 ( m ) 2 2 = a i,j x j a i,j x j ( m ) ( ) a i,j 2 x j 2 = A 2 F,

32 ROZDZIA L 3. NORMY WEKTORÓW I MACIERZY a stad A 2 A F. Z drugiej strony, przedstawiajac A jako A = [ a 1, a 2,..., a n ], a j K m, mamy A 2 A e j 2 = a j 2, gdzie e j jest j-tym wersorem. Stad A 2 2 1 n a j 2 2 = 1 n A 2 F, czyli A F n A 2. Ale również co kończy dowód. A F = A T F m A T 2 = m A 2, Zauważymy jeszcze jedna w lasność norm p-tych macierzy. Niech macierz A b edzie dana w postaci blokowej, Wtedy A = [A 1,A 2,...,A s ]. A k p = sup A k x k p = x k p=1 Podobnie, jeśli to sup A x p = A p. x p=1 A = sup x k p=1, x j = 0,j k A 1 A 2. A t A k p p = sup A k x p p x p=1 sup x p=1 = sup A x p p = A p p. x p=1 s A j x j p t A j x p p

3.3. NORMY MACIERZY 33 Stad dostajemy wniosek, że jeśli A jest w postaci blokowej to dla każdego bloku A i,j mamy A i,j p A p, 1 p. Oczywiście, ta w lasność zachodzi również dla normy Frobeniusa.

34 ROZDZIA L 3. NORMY WEKTORÓW I MACIERZY