Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe."

Transkrypt

1 Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe. Janusz Dutkowski Przedstawimy tutaj metody stosowane w eksploracyjnej analizie danych z wielowymiarowej przestrzeni. Metody te nie biorą pod uwagę klasy badanych obiektów. Ich celem jest wyrażenie wielowymiarowych obserwacji przy użyciu małej liczby współrzędnych, możliwie najlepiej zachowując pewne relacje między nimi. Pierwsza z metod analiza składowych głównych (ang. Principal Component Analysis (PCA)) przedstawiona przez Hotellinga w 1933 r. znajduje kombinacje liniowe oryginalnych zmiennych (wzajemnie nieskorelowane), które zachowują maksimum oryginalnej wariancji danych. Druga metoda skalowanie wielowymiarowe ( ang. Multidimentional Scaling (MDS)) zachowuje zadane odległości między punktami w niskowymiarowej przestrzeni euklidesowej. Teoretyczna część prezontowanego tutaj materiału została opracowana głównie na podstawie [1]. 1 Wstęp Zakładamy, że nasze dane możemy zapisać w postaci macierzy liczb rzeczywistych X: x 11 x x 1n x 21 x x 2n X = x p1 x p2... x pn Kolumny macierzy X (obserwacje) bedziemy traktować jako próbkowe wartości pewnego wektora losowego x = [x (1),..., x (p) ] T o ciągłym rozkładzie w przestrzeni R p. W dalszej części będziemy korzystali z następujących wskaźników dla wielowymiarowych rozkładów: Wartość oczekiwana (wskaźnik położenia) wektora losowego jest wektorem wartości oczekiwanych jego składowych: E(x) Ex = [E(x (1) ),..., E(x (p) )] T. Estymatorem wartości oczekiwanej Ex jest wektor x: x = 1 n n x i, gdzie x i jest i-tą kolumną macierzy X. 1

2 Macierz kowariancji opisuje rozproszenie rozkładu wielowymiarowego. Na diagonali macierzy kowariancji występują wariancje składowych wektora losowego, a na pozostałych pozycjach kowariancje między nimi: Σ Cov(x) = E[(x Ex)(x Ex) T ] = [σ ij ] p i,j=1, σ ij = E[(x (i) Ex (i) )(x (j) Ex (j) )]. Macierz kowariancji estymujemy poprzez próbkową macierz kowariancji Σ X : Σ X = 1 n 1 n (x i x)(x i x) T. Przy analizie składowych głównych będzie nas interesowała wariancja zmiennej losowej a T x, czyli rzutu wektora losowego x na ustalowy wektor a. Zobaczmy, że jest ona równa: V ar(a T x) = E(a T x E(a T x)) 2 = E[a T (x Ex)(x Ex) T a] = = a T Cov(x)a = a T Σa. 2 Analiza składowych głównych Celem analizy jest wyznaczenie nowych nieskorelowanych zmiennych (składowych głównych wektora losowego), które będą miały największą możliwą wariancję. Nowych zmiennych będziemy szukać pośród kombinacji liniowych wektora losowego x. Na początku znajdujemy wektor v 1, taki że: V ar(v T 1 x) = max {V ar(a T x)} = max {a T Σa}. a R p,a T a=1 a R p,a T a=1 Poszukujemy więc takiego kierunku v 1, by rzut ortogonalny wektora losowego x na ten kierunek dawał zmienną losową o maksymalnej wariancji. Pierwsza składowa główna dana jest przez: v T 1 (x m), gdzie m jest wartością oczekiwaną wektora losowego x (wektor losowy x centrujemy nie zmienia to oczywiście wariancji). Kolejne główne składowe są zdefiniowane analogicznie, z tym że każda następna główna składowa ma być nieskorelowana ze wszystkimi wcześciejszymi. Wektor v i (i = 1,..., p) nazywany wektorem współczynników i-tej składowej głównej jest wybrany tak by spełniał: V ar(v T i x) = max {V ar(a T x)}. a R p, a T a=1 1 h<i E[(v T h (x m)vt i (x m))]=0 Kolejne wektory v i wyznaczają więc kolejne kierunki największej wariancji wektora losowego x. 2

3 Twierdzenie 1. Niech Σ będzie macierzą kowariancji wektora losowego x i niech λ 1... λ p > 0 będą wartościami własnymi Σ. Dla i = 1,..., p wektor v i (i-ty wektor współczynników i-tej głównej składowej) dany jest poprzez i-ty (jednostkowy) wektor własny macierzy Σ, odpowiadajacy wartości własnej λ i. Dowód. Weźmy rozkład spektralny symetrycznej macierzy Σ: Σ = ΓΛΓ T, gdzie Λ jest diagonalną macierzą dodatnich wartości własnych λ i (i = 1,..., p) natomiast Γ jest macierzą ortogonalną, której kolumny są kolejnymi (jednostkowymi) wektorami własnymi macierzy Σ odpowiadającymi kolejnym wartościom własnym λ 1,..., λ p : Γ = [γ 1... γ p ]. Pokażemy, że kolejne wektory własne γ 1,..., γ p są szukanymi przez nas wekorami v i (i = 1,..., p). Ponieważ wektory własne γ 1,..., γ p tworzą bazę w przestrzeni R p, dowolny wektor a, spełniajacy a T a = 1 można przedstawić w postaci: a = c 1 γ c p γ p, gdzie c 1,..., c p R oraz: Mamy wtedy c 2 i = 1. V ar(a T x) = a T Σa = a T ( λ i γ i γ T i )a = λ i c 2 i. Powyższa wariancja osiąga więc maksimum (równe λ 1 ), gdy c 1 = 1 oraz c i = 0 dla i = 2,..., p. Ma to miesce wtedy, gdy a = γ 1. Kolejne kombinacje liniowe vi T x mają być nieskorelowane z poprzednimi, a więc ich kowariancja musi być równa 0. Załóżmy, że v h = γ h dla 1 h < i. Znajdziemy optymalny wektor v i. Weźmy dowolny wektor a, spełniajacy a T a = 1 oraz E[a T (x m)vh T (x m)] = 0, 1 h < i. więc E[a T (x m)γ T h (x m)] = a T Σγ h = a T ( λ j γ j γ T j )γ h = λ h c h = 0, 1 h < i. j=1 3

4 Ponieważ wartości własne są dodatnie otrzymujemy dalej, że c h = 0 dla h i 1. Wyrażenie V ar(a T x) = λ j c 2 j, gdzie p j=i c2 j = 1 osiaga maksimum, gdy c i = 1 oraz c j = 0 dla j = i + 1,..., p. Ma to miejsce wtedy, gdy a = γ i. Kolejne wektory własne macierzy Σ są więc szukanymi wektorami współczynników składowych głównych wektora losowego x. j=i Uwaga. W założeniach Twierdzenia 1. przyjęliśmy, że wszystkie wartości własne macierzy kowariancji są dodatnie. Macierz kowariancji jest macierzą symetryczną i nieujemnie określoną więc jej wartości własne są rzeczywiste i nieujemne. Jeżeli niektóre z nich są równe zero, możemy ograniczyć się do właściwej podprzestrzeni R p, w której skupiony jest rozkład. Znajdziemy wtedy tyle głównych składowych ile jest dodatnich wartości własnych. Najczęstszym zastosowaniem opisywanej metody jest redukcja wymiaru danych. Zadanie to polega na opisaniu danych o dużym wymiarze (dużej liczbie cech) przy pomocy mniejszej liczby cech, jednocześnie zachowując maksimum informacji. W przypadku PCA informacja ta jest mierzona wariancją. Analiza składowych głównych umożliwia opisanie wielowymiarowych danych przy pomocy małej liczby nieskorelowanych współrzędnych (wyznaczonych przez wektory własne macierzy kowariancji), zachowując rozrzut między danymi. Wymiar nowej przestrzeni będzie zależał od tego, jak dużą część wariancji będziemy chcieli zachować. Ponieważ macierz kowariancji jest symetryczna suma wyrazów na jej przekątnej (czyli suma poszczególnych wariancji) jest równa sumie wartości własnych tej macierzy, a każda składowa główna zachowuje wariancje równą odpowiadajacej jej wartości własnej, procent wariancji wektora wyjaśniony przez k pierwszych składowych głównych można więc łatwo policzyć: λ λ k λ λ p 100%. Często kilka pierszych składowych głównych, zachowuje większość wariancji i wymiar danych może być istotnie zmniejszony (por. Rys. 2). W praktyce zadanie PCA sprowadza się do znalezienia wektorów i wartości własnych próbkowej macierzy kowariancji Σ X. W przypadku gdy liczba cech przewyższa liczbę obserwacji (p > n), zamiast znajdywania wektorów własnych macierzy kowariancji Σ X (p p) można rozwiązać mniejsze zadanie. Macierz 4

5 kowariancji, można zapisać (pomijając czynnik stały) następująco: Σ X = X X T, gdzie X jest macierzą powstałą poprzez odjęcie wartości średniej od kolumn macierzy X: X = [(x 1 x),..., (x n x)]. Zadanie znajdywania wektorów własnych macierzy X X T (p p) można zastąpić znajdywaniem wektorów własnych macierzy X T X (n n): X T X w i = α i w i. Mnożąc obie strony równania przez macierz X otrzymujemy wektory własne macierzy X X T, których szukamy: (X X T )(X w i ) = α i (X w i ). 3 Klasyczne skalowanie wielowymiarowe Mając daną macierz odległości euklidesowych D (n n) miedzy n punktami (kolumnami macierzy X) w przesztrzeni R p możemy przy pomocy metody MDS szukać punktów w przestrzeni R k (k < p), między którymi odległości euklidesowe najlepiej odpowiadają elementom macierzy D. Spośród wszystkich rzutów kolumn macierzy X do przestrzeni R k, reprezentacja punktów wyznaczona przez MDS minimalizuje sumę: n n (d 2 ij ˆd 2 ij), (1) j=1 gdzie d ij oraz ˆd ij to odległości między punktami i oraz j odpowiednio w przestrzeniach R p i R k. W przypadku, gdy na wejściu mamy macierz odległości euklidesowych, metoda MDS jest równoważna PCA. Ogólnie jednak na wejściu możemy mieć dowolną macierz odległości lub odmienności 1 między obiektami. Jeżeli istnieje przestrzeń euklidesowa, w której zachowane są dane odległości (odpowiednia macierz jest nieujemnie określona), klasyczny algorytm skalowania wielowymiarowego wyznaczy optymalną ze względu na (1) podprzestrzeń dowolnego niższego wymiaru. Przedstawimy teraz w skrócie jego działanie. Weźmy symetryczną macierz odmiennosci miedzy n punktami D (n n) o elementach d ij, spełniająca nierówność trójkąta. Tworzymy macierz Γ o elementach γ ij = 1 2 d2 ij. Następnie na jej podstawie tworzymy odpowiednio wyśrodkowaną macierz Φ: Φ = (I 11 T /n)γ(i 11 T /n), gdzie I jest macierza jednostkową i 1 jest wektorem jedynek. Jeżeli Φ jest nieujemnie określona, to istnieje przestrzeń euklidesowa, w której można dokładnie 1 Czasami stosuje się miary nie spełniajace warunków metryki. 5

6 odtworzyć zadane odległości między punktami. Reprezentacje punktów wyznacza się w następujacy sposób: 1. Znajdź wartości własne λ 1, λ 2,..., λ n = 0 oraz odpowaiadające im wektory własne v i, i = 1,..., n, macierzy Φ. 2. Przeskaluj wektory własne, by spełniony był warunek v T i v i = λ i, i = 1,..., n. 3. Wektor v i wyznacza i-te współrzędne n punktów. Wymiar przestrzeni wyjściowej będzie równy liczbie niezerowych wartości własnych. Podobnie jak w przypadku PCA często bierze się tylko kilka pierwszych wektorów własnych redukujac w ten sposób wymiar przestrzeni wyjściowej. 4 Przykłady zastosowań Opisane poniżej przykłady pochodzą z pracy magisterskiej [5]. Metody opisane powyżej zostały zastosowane do analizy danych spektrometrycznych pochodzacych od dwóch grup dawców (chorzy / zdrowi). Poszczególne zestawy danych zawierały od kilkudziesięciu do kilkuset obserwacji o wymiarze kilku do kilkudziesięciu tysięcy. W przypadku danych spektrometrycznych obserwacjami są odpowiednio przetworzone widma spektrometryczne. Wymiar obserwacji odpowiada zwykle liczbie wierzchołków w widnie. Wysokość wierzchołka zapisana na odpowiedniej pozycji wektora danych wyraża intensywność substancji o ustalonym stosunku masy do ładunku i ewentualnie o ustalonym czasie retencji, który określa hydrofobowość substancji. Analiza porównawcza widm chorych pacjentów i zdrowych dawców ma na celu znalezienie różnicujących substancji (tzw. biomarkerów), w skomplikowanych mieszaninach białkowych takich jak osocze czy surowica. 4.1 Metoda PCA Analiza składowych głównych została zastosowana do redukcji wymiaru danych przed klasyfikacją. Polegało to na znalezieniu odpowiedniego rzutowania na podstawie danych treningowych oraz zastosowanie algorytmu klasyfikacyjnego do zredukowanych danych. To podejście jest często stosowane w przypadku danych spekrometrycznych, a także mikromacierzowych (gdzie wymiar danych jest zwykle bardzo duży). Rysunek przedstawia rzutowanie danych na poszczególne pary najważniejszych składowych głównych. Obserwacje z poszczególnych klas są dosyć dobrze odseparowane. Nie jest to regułą, gdyż PCA nie bierze pod uwagę klasy badanych obiektów. Ma jedynie na celu zachowanie rozrzutu między nimi. W celu wychwycenia różnic między badanymi klasami, możemy po redukcji wymiaru zastosować algorytmy klasyfikacyjne. 6

7 1e+06 5e+05 3e+05 1e+05 pc1 2e+06 0e+00 1e+06 5e+05 pc2 pc3 6e+05 0e+00 3e+05 1e+05 pc4 pc5 2e+06 0e+00 6e+05 0e+00 3e+05 0e+00 3e+05 0e+00 Rysunek 1: Analiza składowych głównych dla zbioru danych z Clinical Proteomics Program Databank dotyczących raka jajnika. Rzutowanie obserwacji na układy współrzędnych wyznaczone przez pary pierwszych pięciu głównych składowych. Czerwone punkty odpowiadają chorym pacjentom, szare zdrowym. W tym przypadku rzutowanie na drugą i trzecią główną składową dobrze rozdziela obserwacje z różnych klas. 7

8 Rysunek 2: Procent wariancji danych wzdłuż kolejnych głównych składowych dla dwóch zbiorów danych z Clinical Proteomics Program Databank. Prawie cała wariancja jest zawarta w kilku pierwszych głównych składowych. Rysunek 3: Podobieństwa między obserwacjami mierzone w metodzie losowych lasów dla zbioru IBB (po lewej) oraz Keck (po prawej). Punkty odpowiadają poszczególnych obserwacjom, a kolory oznaczają klasę. Obserwacje odstające od innych z tej samej klasy mogą być wynikiem błędnych pomiarów lub sugerować specyficzny stan zdrowia pacjenta. 8

9 4.2 Metoda MDS Ciekawym zastosowaniem metody MDS jest wizualizacja podobieństw między obiektami wyznaczonych przy pomocy metody losowych lasów. Przypomnijmy, że metoda losowych lasów polega na budowaniu wielu drzew decyzyjnych, przy czym każde powstaje na podstawie nieco innego zbioru obserwacji i za każdym razem część obserwacji nie uczestniczy w budowie drzewa. Te obserwacje, które nie uczestniczyły w budowie danego drzewa mogą być użyte do jego testowania. Podczas działania algorytmu zliczana jest dla każdej pary obserwacji liczba razy kiedy obserwacje zostały przypisane do tego samego liścia (czyli z punktu widzenia danego drzewa były takie same). W rezultacie otrzymujemy macierz S wymiaru n n podobieństw między obserwacjami, gdzie s ij jest równe liczbie wspólnych wystąpień w liściach obserwacji i oraz j. Macierz tą można przekształcić na macierz odległości między obserwacjami, a następnie przy pomocy skalowania wielowymiarowego, wyrazić w dwuwymiarowej przestrzeni euklidesowej (por. [4]). Wykres 3 przedstawia odległości między punktami w sensie losowych lasów dla zbioru danych dotyczących mukowiscydozy. Graficzne przedstawienie tych odległości pozwoliło wychwycić obserwacje, które odstają od innych w swojej klasie. Tego typu kontrola wydaje się bardzo istotna przynajmniej z dwóch powodów. Po pierwsze, proces przetwarzania danych spektrometrycznych począwszy od zbierania próbek do cyfrowej obróbkiwidm jest dosyć skomplikowany i podatny na błędy zarówno ludzkie jak i sprzętowe. Najprostszym błędem jaki sobie można wyobrazić jest niepoprawne przypisanie klasy niektórym obserwacjom w danych wejściowych. Wykrycie dziwnych obserwacji może ustrzec przed propagacją błędu na dalsze etapy analizy. Po drugie, odkrycie zarówno podobieństw, jak i istotnych różnic w danych pacjentów jest interesujące z biologicznego lub medycznego punktu widzenia i może stanowić wskazówkę do dalszych badań. Literatura [1] Jacek Koronacki, Jan Ćwik, Statystyczne systemy uczące się, WNT, [2] W.Hardle, L.Simar, Applied Multivariate Statistical Analysis, Springer, [3] W.N. Venables, B.D. Ripley, Modern Applied Statistics with S (Forth ed.) Springer, [4] L. Breiman, A. Cutler, home.htm. [5] J. Dutkowski, Metody redukcji wymiaru i klasyfikacji danych spektrometrycznych, Praca magisterska, Uniwersytet Warszawski,

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Analiza składowych głównych

Analiza składowych głównych Analiza składowych głównych Wprowadzenie (1) W przypadku regresji naszym celem jest predykcja wartości zmiennej wyjściowej za pomocą zmiennych wejściowych, wykrycie związku między wielkościami wejściowymi

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Analiza głównych składowych- redukcja wymiaru, wykł. 12 Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q

Bardziej szczegółowo

10. Redukcja wymiaru - metoda PCA

10. Redukcja wymiaru - metoda PCA Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component

Bardziej szczegółowo

Klasteryzacja i klasyfikacja danych spektrometrycznych

Klasteryzacja i klasyfikacja danych spektrometrycznych Klasteryzacja i klasyfikacja danych spektrometrycznych Współpraca: Janusz Dutkowski, Anna Gambin, Krzysztof Kowalczyk, Joanna Reda, Jerzy Tiuryn, Michał Dadlez z zespołem (IBB PAN) Instytut Informatyki

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz

Bardziej szczegółowo

Wykład 10 Skalowanie wielowymiarowe

Wykład 10 Skalowanie wielowymiarowe Wykład 10 Skalowanie wielowymiarowe Wrocław, 30.05.2018r Skalowanie wielowymiarowe (Multidimensional Scaling (MDS)) Główne cele MDS: przedstawienie struktury badanych obiektów przez określenie treści wymiarów

Bardziej szczegółowo

Zadania egzaminacyjne

Zadania egzaminacyjne Rozdział 13 Zadania egzaminacyjne Egzamin z algebry liniowej AiR termin I 03022011 Zadanie 1 Wyznacz sumę rozwiązań równania: (8z + 1 i 2 2 7 iz 4 = 0 Zadanie 2 Niech u 0 = (1, 2, 1 Rozważmy odwzorowanie

Bardziej szczegółowo

Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem.

Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem. 1 Wektory Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem. 1.1 Dodawanie wektorów graficzne i algebraiczne. Graficzne - metoda równoległoboku. Sprowadzamy wektory

Bardziej szczegółowo

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu

Bardziej szczegółowo

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH Katedra Matematyki i Ekonomii Matematycznej SGH 23 października 2018 Definicja iloczynu skalarnego Definicja Iloczynem skalarnym w przestrzeni liniowej R n nazywamy odwzorowanie ( ) : R n R n R spełniające

Bardziej szczegółowo

Skalowanie wielowymiarowe idea

Skalowanie wielowymiarowe idea Skalowanie wielowymiarowe idea Jedną z wad metody PCA jest możliwość używania jedynie zmiennych ilościowych, kolejnym konieczność posiadania pełnych danych z doświadczenia(nie da się użyć PCA jeśli mamy

Bardziej szczegółowo

Hierarchiczna analiza skupień

Hierarchiczna analiza skupień Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

PROGRAMOWANIE KWADRATOWE

PROGRAMOWANIE KWADRATOWE PROGRAMOWANIE KWADRATOWE Programowanie kwadratowe Zadanie programowania kwadratowego: Funkcja celu lub/i co najmniej jedno z ograniczeń jest funkcją kwadratową. 2 Programowanie kwadratowe Nie ma uniwersalnej

Bardziej szczegółowo

Elementy statystyki wielowymiarowej

Elementy statystyki wielowymiarowej Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Elementy statystyki wielowymiarowej 1.1 Kowariancja i współczynnik korelacji 1.2 Macierz kowariancji 1.3 Dwumianowy rozkład normalny 1.4 Analiza składowych

Bardziej szczegółowo

Zmienne zależne i niezależne

Zmienne zależne i niezależne Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }

Bardziej szczegółowo

Układy równań liniowych

Układy równań liniowych Układy równań liniowych Niech K będzie ciałem. Niech n, m N. Równanie liniowe nad ciałem K z niewiadomymi (lub zmiennymi) x 1, x 2,..., x n K definiujemy jako formę zdaniową zmiennej (x 1,..., x n ) K

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Wektory i wartości własne

Wektory i wartości własne Treść wykładu Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń W V nazywamy niezmienniczą

Bardziej szczegółowo

TRANSFORMACJE I JAKOŚĆ DANYCH

TRANSFORMACJE I JAKOŚĆ DANYCH METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory; Wykłady 8 i 9 Pojęcia przestrzeni wektorowej i macierzy Układy równań liniowych Elementy algebry macierzy dodawanie, odejmowanie, mnożenie macierzy; macierz odwrotna dr Mariusz Grządziel 15,29 kwietnia

Bardziej szczegółowo

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący

Bardziej szczegółowo

3. FUNKCJA LINIOWA. gdzie ; ół,.

3. FUNKCJA LINIOWA. gdzie ; ół,. 1 WYKŁAD 3 3. FUNKCJA LINIOWA FUNKCJĄ LINIOWĄ nazywamy funkcję typu : dla, gdzie ; ół,. Załóżmy na początek, że wyraz wolny. Wtedy mamy do czynienia z funkcją typu :.. Wykresem tej funkcji jest prosta

Bardziej szczegółowo

Wektory i wartości własne

Wektory i wartości własne Treść wykładu Podprzestrzenie niezmiennicze Podprzestrzenie niezmiennicze... Twierdzenie Cayley Hamiltona Podprzestrzenie niezmiennicze Definicja Niech f : V V będzie przekształceniem liniowym. Podprzestrzeń

Bardziej szczegółowo

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B 1. Dla macierzy a) A = b) A = c) A = d) A = 3 1 + i 1 i i i 0 i i 0 1 + i 1 i 0 0 0 0 1 0 1 0 1 + i 1 i Wyznaczyć macierze spełniające własność komutacji: A, X = B. Obliczyć pierwiaski z macierzy: A =

Bardziej szczegółowo

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań ... Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty Centrum Wykładowe, blok informatyki, pok. 7 Wyłączenie odpowiedzialności

Bardziej szczegółowo

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn Metody numeryczne Wykład 3 Dr inż. Michał Łanczont Instytut Elektrotechniki i Elektrotechnologii E419, tel. 4293, m.lanczont@pollub.pl, http://m.lanczont.pollub.pl Zakres wykładu Pojęcia podstawowe Algebra

Bardziej szczegółowo

ANALIZA CZYNNIKOWA Przykład 1

ANALIZA CZYNNIKOWA Przykład 1 ANALIZA CZYNNIKOWA... stanowi zespół metod i procedur statystycznych pozwalających na badanie wzajemnych relacji między dużą liczbą zmiennych i wykrywanie ukrytych uwarunkowań, ktore wyjaśniają ich występowanie.

Bardziej szczegółowo

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim: Eksploracja Danych Nazwa w języku angielskim: Data Mining Kierunek studiów (jeśli dotyczy): MATEMATYKA I STATYSTYKA Stopień studiów i forma:

Bardziej szczegółowo

Macierze. Rozdział Działania na macierzach

Macierze. Rozdział Działania na macierzach Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i, j) (i 1,..., n; j 1,..., m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F R lub F C, nazywamy macierzą (rzeczywistą, gdy

Bardziej szczegółowo

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa SIMR 06/07, Analiza, wykład, 07-0- Przestrzeń wektorowa Przestrzeń wektorowa (liniowa) - przestrzeń (zbiór) w której określone są działania (funkcje) dodawania elementów i mnożenia elementów przez liczbę

Bardziej szczegółowo

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej WEKTORY I WARTOŚCI WŁASNE MACIERZY Ac λ c (*) ( A λi) c nietrywialne rozwiązanie gdy det A λi problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej A - macierzowa

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

Rozkłady wielu zmiennych

Rozkłady wielu zmiennych Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

Układy liniowo niezależne

Układy liniowo niezależne Układy liniowo niezależne Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 3.wykład z algebry liniowej Warszawa, październik 2016 Mirosław Sobolewski (UW) Warszawa, październik 2016 1

Bardziej szczegółowo

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler GAL (Informatyka) Wykład - formy hermitowskie Wersja z dnia 23 stycznia 2014 Paweł Bechler 1 Formy hermitowskie Niech X oznacza przestrzeń liniową nad ciałem K. Definicja 1. Funkcję φ : X X K nazywamy

Bardziej szczegółowo

V Konkurs Matematyczny Politechniki Białostockiej

V Konkurs Matematyczny Politechniki Białostockiej V Konkurs Matematyczny Politechniki Białostockiej Rozwiązania - klasy drugie 1. Znaleźć wszystkie pary liczb całkowitych (x, y) spełniające nierówności x + 1 + y 4 x + y 4 5 x 4 + y 1 > 4. Ważne jest zauważenie,

Bardziej szczegółowo

0 + 0 = 0, = 1, = 1, = 0.

0 + 0 = 0, = 1, = 1, = 0. 5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

Teoretyczne podstawy programowania liniowego

Teoretyczne podstawy programowania liniowego Teoretyczne podstawy programowania liniowego Elementy algebry liniowej Plan Kombinacja liniowa Definicja Kombinacja liniowa wektorów (punktów) x 1, x 2,, x k R n to wektor x R n k taki, że x = i=1 λ i

Bardziej szczegółowo

13 Układy równań liniowych

13 Układy równań liniowych 13 Układy równań liniowych Definicja 13.1 Niech m, n N. Układem równań liniowych nad ciałem F m równaniach i n niewiadomych x 1, x 2,..., x n nazywamy koniunkcję równań postaci a 11 x 1 + a 12 x 2 +...

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XIII: Prognoza. 26 stycznia 2015 Wykład XIII: Prognoza. Prognoza (predykcja) Przypuśćmy, że mamy dany ciąg liczb x 1, x 2,..., x n, stanowiących wyniki pomiaru pewnej zmiennej w czasie wielkości

Bardziej szczegółowo

12DRAP - parametry rozkładów wielowymiarowych

12DRAP - parametry rozkładów wielowymiarowych DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony

Bardziej szczegółowo

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych 1. [E.A 5.10.1996/zad.4] Funkcja gęstości dana jest wzorem { 3 x + 2xy + 1 y dla (x y) (0 1) (0 1) 4 4 P (X > 1 2 Y > 1 2 ) wynosi:

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 21 lutego 2017 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane

Bardziej szczegółowo

SPOTKANIE 9: Metody redukcji wymiarów

SPOTKANIE 9: Metody redukcji wymiarów Wrocław University of Technology SPOTKANIE 9: Metody redukcji wymiarów Piotr Klukowski* Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.wroc.pl 08.12.2015 *Część slajdów pochodzi z prezentacji dr

Bardziej szczegółowo

Procesy stochastyczne

Procesy stochastyczne Wykład I: Istnienie procesów stochastycznych 2 marca 2015 Forma zaliczenia przedmiotu Forma zaliczenia Literatura 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin ustny z teorii 3 Do wykładu przygotowane są

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski Modelowanie zależności pomiędzy zmiennymi losowymi Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski P Zmienne losowe niezależne - przypomnienie Dwie rzeczywiste zmienne losowe X i Y

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

Przekształcenia liniowe

Przekształcenia liniowe Przekształcenia liniowe Mirosław Sobolewski Wydział Matematyki, Informatyki i Mechaniki UW 4. wykład z algebry liniowej Warszawa, październik 2010 Mirosław Sobolewski (UW) Warszawa, wrzesień 2006 1 / 7

Bardziej szczegółowo

1.1 Klasyczny Model Regresji Liniowej

1.1 Klasyczny Model Regresji Liniowej 1.1 Klasyczny Model Regresji Liniowej Klasyczny model Regresji Liniowej jest bardzo użytecznym narzędziem służącym do analizy danych empirycznych. Analiza regresji zajmuje się opisem zależności między

Bardziej szczegółowo

1 Wartości własne oraz wektory własne macierzy

1 Wartości własne oraz wektory własne macierzy Rozwiązania zadania umieszczonego na końcu poniższych notatek proszę przynieść na kartkach Proszę o staranne i formalne uzasadnienie odpowiedzi Za zadanie można uzyskać do 6 punktów (jeżeli przyniesione

Bardziej szczegółowo

Informacja o przestrzeniach Hilberta

Informacja o przestrzeniach Hilberta Temat 10 Informacja o przestrzeniach Hilberta 10.1 Przestrzenie unitarne, iloczyn skalarny Niech dana będzie przestrzeń liniowa X. Załóżmy, że każdej parze elementów x, y X została przyporządkowana liczba

Bardziej szczegółowo

Zestaw zadań 5: Sumy i sumy proste podprzestrzeni. Baza i wymiar. Rzędy macierzy. Struktura zbioru rozwiązań układu równań.

Zestaw zadań 5: Sumy i sumy proste podprzestrzeni. Baza i wymiar. Rzędy macierzy. Struktura zbioru rozwiązań układu równań. Zestaw zadań : Sumy i sumy proste podprzestrzeni Baza i wymiar Rzędy macierzy Struktura zbioru rozwiązań układu równań () Pokazać, że jeśli U = lin(α, α,, α k ), U = lin(β, β,, β l ), to U + U = lin(α,

Bardziej szczegółowo

Rozdział 2. Krzywe stożkowe. 2.1 Elipsa. Krzywe stożkowe są zadane ogólnym równaniem kwadratowym na płaszczyźnie

Rozdział 2. Krzywe stożkowe. 2.1 Elipsa. Krzywe stożkowe są zadane ogólnym równaniem kwadratowym na płaszczyźnie Rozdział Krzywe stożkowe Krzywe stożkowe są zadane ogólnym równaniem kwadratowym na płaszczyźnie x + By + Cxy + Dx + Ey + F = 0. (.) W zależności od relacji pomiędzy współczynnikami otrzymujemy elipsę,

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany

Bardziej szczegółowo

Postać Jordana macierzy

Postać Jordana macierzy Rozdział 8 Postać Jordana macierzy Niech F = R lub F = C Macierz J r λ) F r r postaci λ 1 0 0 0 λ 1 J r λ) = 0 λ 1 0 0 λ gdzie λ F nazywamy klatką Jordana stopnia r Oczywiście J 1 λ) = [λ Definicja 81

Bardziej szczegółowo

4 Przekształcenia liniowe

4 Przekształcenia liniowe MIMUW 4. Przekształcenia liniowe 16 4 Przekształcenia liniowe Obok przestrzeni liniowych, podstawowym obiektem algebry liniowej są przekształcenia liniowe. Rozpatrując przekształcenia liniowe między przestrzeniami

Bardziej szczegółowo

15. Macierze. Definicja Macierzy. Definicja Delty Kroneckera. Definicja Macierzy Kwadratowej. Definicja Macierzy Jednostkowej

15. Macierze. Definicja Macierzy. Definicja Delty Kroneckera. Definicja Macierzy Kwadratowej. Definicja Macierzy Jednostkowej 15. Macierze Definicja Macierzy. Dla danego ciała F i dla danych m, n IN funkcję A : {1,...,m} {1,...,n} F nazywamy macierzą m n ( macierzą o m wierszach i n kolumnach) o wyrazach z F. Wartość A(i, j)

Bardziej szczegółowo

1. Liczby zespolone. Jacek Jędrzejewski 2011/2012

1. Liczby zespolone. Jacek Jędrzejewski 2011/2012 1. Liczby zespolone Jacek Jędrzejewski 2011/2012 Spis treści 1 Liczby zespolone 2 1.1 Definicja liczby zespolonej.................... 2 1.2 Postać kanoniczna liczby zespolonej............... 1. Postać

Bardziej szczegółowo

wszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów

wszystkich kombinacji liniowych wektorów układu, nazywa się powłoką liniową uk ładu wektorów KOINACJA LINIOWA UKŁADU WEKTORÓW Definicja 1 Niech będzie przestrzenią liniową (wektorową) nad,,,, układem wektorów z przestrzeni, a,, współczynnikami ze zbioru (skalarami). Wektor, nazywamy kombinacją

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych

Rozwiązywanie układów równań liniowych Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy

Bardziej szczegółowo

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe. Idea (ang. Principal Components Analysis PCA) jest popularnym używanym narzędziem analizy danych. Na metodę tę można spojrzeć jak na pewną technikę redukcji wymiarowości danych. Jest to metoda nieparametryczna,

Bardziej szczegółowo

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr :

Lista. Przestrzenie liniowe. Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr : Lista Przestrzenie liniowe Zadanie 1 Sprawdź, czy (V, +, ) jest przestrzenią liniową nadr : V = R[X], zbiór wielomianów jednej zmiennej o współczynnikach rzeczywistych, wraz ze standardowym dodawaniem

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Rozwiązania, seria 5.

Rozwiązania, seria 5. Rozwiązania, seria 5. 26 listopada 2012 Zadanie 1. Zbadaj, dla jakich wartości parametru r R wektor (r, r, 1) lin{(2, r, r), (1, 2, 2)} R 3? Rozwiązanie. Załóżmy, że (r, r, 1) lin{(2, r, r), (1, 2, 2)}.

Bardziej szczegółowo

VI. Równania różniczkowe liniowe wyższych rzędów

VI. Równania różniczkowe liniowe wyższych rzędów VI. 1. Równanie różniczkowe liniowe n-tego rzędu o zmiennych współczynnikach Niech podobnie jak w poprzednim paragrafie K = C lub K = R. Podobnie jak w dziedzinie rzeczywistej wprowadzamy pochodne wyższych

Bardziej szczegółowo

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań Przekształcenia liniowe, diagonalizacja macierzy 1. Podano współrzędne wektora v w bazie B. Znaleźć współrzędne tego wektora w bazie B, gdy: a) v = (1,

Bardziej szczegółowo

Zadania z Algebry liniowej 4 Semestr letni 2009

Zadania z Algebry liniowej 4 Semestr letni 2009 Zadania z Algebry liniowej 4 Semestr letni 2009 Ostatnie zmiany 23.05.2009 r. 1. Niech F będzie podciałem ciała K i niech n N. Pokazać, że niepusty liniowo niezależny podzbiór S przestrzeni F n jest także

Bardziej szczegółowo

Jak łatwo zauważyć, zbiór form symetrycznych (podobnie antysymetrycznych) stanowi podprzestrzeń przestrzeni L(V, V, K). Oznaczamy ją Sym(V ).

Jak łatwo zauważyć, zbiór form symetrycznych (podobnie antysymetrycznych) stanowi podprzestrzeń przestrzeni L(V, V, K). Oznaczamy ją Sym(V ). Odwzorowania n-liniowe; formy n-liniowe Definicja 1 Niech V 1,..., V n, U będą przestrzeniami liniowymi nad ciałem K. Odwzorowanie G: V 1 V n U nazywamy n-liniowym, jeśli dla każdego k [n] i wszelkich

Bardziej szczegółowo

Zawansowane modele wyborów dyskretnych

Zawansowane modele wyborów dyskretnych Zawansowane modele wyborów dyskretnych Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Zawansowane modele wyborów dyskretnych grudzien 2013 1 / 16 Model efektów

Bardziej szczegółowo

1 Układy równań liniowych

1 Układy równań liniowych II Metoda Gaussa-Jordana Na wykładzie zajmujemy się układami równań liniowych, pojawi się też po raz pierwszy macierz Formalną (i porządną) teorią macierzy zajmiemy się na kolejnych wykładach Na razie

Bardziej szczegółowo

Algebra liniowa z geometrią

Algebra liniowa z geometrią Algebra liniowa z geometrią Maciej Czarnecki 15 stycznia 2013 Spis treści 1 Geometria płaszczyzny 2 1.1 Wektory i skalary........................... 2 1.2 Macierze, wyznaczniki, układy równań liniowych.........

Bardziej szczegółowo

Analiza składowych głównych idea

Analiza składowych głównych idea Analiza składowych głównych idea Analiza składowych głównych jest najczęściej używanym narzędziem eksploracyjnej analizy danych. Na metodę tę można spojrzeć jak na pewną technikę redukcji wymiarowości

Bardziej szczegółowo

Matematyka ubezpieczeń majątkowych r.

Matematyka ubezpieczeń majątkowych r. Matematyka ubezpieczeń majątkowych 3..007 r. Zadanie. Każde z ryzyk pochodzących z pewnej populacji charakteryzuje się tym że przy danej wartości λ parametru ryzyka Λ rozkład wartości szkód z tego ryzyka

Bardziej szczegółowo

EGZAMIN MATURALNY W ROKU SZKOLNYM 2014/2015

EGZAMIN MATURALNY W ROKU SZKOLNYM 2014/2015 EGZAMIN MATURALNY W ROKU SZKOLNYM 0/0 FORMUŁA OD 0 ( NOWA MATURA ) MATEMATYKA POZIOM PODSTAWOWY ZASADY OCENIANIA ROZWIĄZAŃ ZADAŃ ARKUSZ MMA-P CZERWIEC 0 Egzamin maturalny z matematyki nowa formuła Klucz

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn

Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmienn Analiza czynnikowa Wprowadzenie (1) Przedmiotem analizy czynnikowej jest badanie wewnętrznych zależności w zbiorze zmiennych. Jest to modelowanie niejawne. Oprócz zmiennych, które są bezpośrednio obserwowalne

Bardziej szczegółowo

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja

Bardziej szczegółowo

2. Układy równań liniowych

2. Układy równań liniowych 2. Układy równań liniowych Grzegorz Kosiorowski Uniwersytet Ekonomiczny w Krakowie zima 2017/2018 rzegorz Kosiorowski (Uniwersytet Ekonomiczny w Krakowie) 2. Układy równań liniowych zima 2017/2018 1 /

Bardziej szczegółowo

Rozdział 1 PROGRAMOWANIE LINIOWE

Rozdział 1 PROGRAMOWANIE LINIOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 1 PROGRAMOWANIE LINIOWE 1.2 Ćwiczenia komputerowe Ćwiczenie 1.1 Wykorzystując

Bardziej szczegółowo

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm

Rozdział 5. Macierze. a 11 a a 1m a 21 a a 2m... a n1 a n2... a nm Rozdział 5 Macierze Funkcję, która każdej parze liczb naturalnych (i,j) (i = 1,,n;j = 1,,m) przyporządkowuje dokładnie jedną liczbę a ij F, gdzie F = R lub F = C, nazywamy macierzą (rzeczywistą, gdy F

Bardziej szczegółowo

Geometria Lista 0 Zadanie 1

Geometria Lista 0 Zadanie 1 Geometria Lista 0 Zadanie 1. Wyznaczyć wzór na pole równoległoboku rozpiętego na wektorach u, v: (a) nie odwołując się do współrzędnych tych wektorów; (b) odwołując się do współrzędnych względem odpowiednio

Bardziej szczegółowo