Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Podobne dokumenty
Prawdopodobieństwo i statystyka

Statystyka i eksploracja danych

Algebra Liniowa 2 (INF, TIN), MAP1152 Lista zadań

10. Redukcja wymiaru - metoda PCA

Ważne rozkłady i twierdzenia c.d.

Inteligentna analiza danych

5. Analiza dyskryminacyjna: FLD, LDA, QDA

Metody systemowe i decyzyjne w informatyce

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Rozkłady wielu zmiennych

1. Zbadać liniową niezależność funkcji x, 1, x, x 2 w przestrzeni liniowej funkcji ciągłych na przedziale [ 1, ).

Elementy statystyki wielowymiarowej

Przestrzeń unitarna. Jacek Kłopotowski. 23 października Katedra Matematyki i Ekonomii Matematycznej SGH

Zadania przygotowawcze, 3 kolokwium

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Zaawansowane metody numeryczne

Stosowana Analiza Regresji

Zagadnienie klasyfikacji (dyskryminacji)

Analiza metod wykrywania przekazów steganograficznych. Magdalena Pejas Wydział EiTI PW

Prawdopodobieństwo i statystyka

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

SPOTKANIE 9: Metody redukcji wymiarów

1 Formy hermitowskie. GAL (Informatyka) Wykład - formy hermitowskie. Paweł Bechler

Przykładowa analiza danych

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

Robert Susmaga. Instytut Informatyki ul. Piotrowo 2 Poznań

Metoda największej wiarygodności

Weryfikacja hipotez statystycznych

Metoda największej wiarygodności

φ(x 1,..., x n ) = a i x 2 i +

WEKTORY I WARTOŚCI WŁASNE MACIERZY. = λ c (*) problem przybliżonego rozwiązania zagadnienia własnego dla operatorów w mechanice kwantowej

Komputerowa Analiza Danych Doświadczalnych

Wykład 14. Elementy algebry macierzy

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Komputerowa analiza danych doświadczalnych

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Analiza matematyczna i algebra liniowa Macierze

1 Macierze i wyznaczniki

TRANSFORMACJE I JAKOŚĆ DANYCH

ALGORYTM RANDOM FOREST

Formy kwadratowe. Rozdział 10

Algebra liniowa II. Lista 1. 1 u w 0 1 v 0 0 1

Ekonometria Analiza dyskryminacyjna

KLASYFIKACJA. Słownik języka polskiego

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

KADD Minimalizacja funkcji

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Zadania egzaminacyjne

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Wektory i wartości własne

Ważne rozkłady i twierdzenia

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Przekształcenia liniowe

Wektory i wartości własne

Analiza składowych głównych

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA

Wstęp do metod numerycznych Zadania numeryczne 2016/17 1

Zaawansowane metody numeryczne

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Metody iteracyjne rozwiązywania układów równań liniowych (5.3) Normy wektorów i macierzy (5.3.1) Niech. x i. i =1

Podstawowe modele probabilistyczne

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łanc Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Statystyczna analiza Danych

Eksploracyjna analiza danych. Metody rzutowania: analiza składowych głównych oraz skalowanie wielowymiarowe.

Wprowadzenie do analizy dyskryminacyjnej

PROGRAMOWANIE KWADRATOWE

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

Wykład Ćwiczenia Laboratorium Projekt Seminarium Liczba godzin zajęć zorganizowanych w Uczelni 30 30

Postać Jordana macierzy

Diagonalizacja macierzy i jej zastosowania

Komputerowa analiza danych doświadczalnych

Spacery losowe generowanie realizacji procesu losowego

Diagonalizacja macierzy i jej zastosowania

dr Mariusz Grządziel 15,29 kwietnia 2014 Przestrzeń R k R k = R R... R k razy Elementy R k wektory;

Metody sztucznej inteligencji Zadanie 1: Perceptron Rosenblatt a w wersji nieliniowej

Formy kwadratowe. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. wykład z algebry liniowej Warszawa, styczeń 2009

Komputerowa analiza danych doświadczalnych

[ A i ' ]=[ D ][ A i ] (2.3)

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Analiza składowych głównych. Wprowadzenie

Stosowana Analiza Regresji

METODY INŻYNIERII WIEDZY

Diagonalizacja macierzy i jej zastosowania

Rozwiązania, seria 5.

08. Normalizacja wyników testu

Procesy stochastyczne

7. ELEMENTY PŁYTOWE. gdzie [N] oznacza przyjmowane funkcje kształtu, zdefinować odkształcenia i naprężenia: zdefiniować macierz sztywności:

Metody numeryczne Wykład 4

Iloczyn skalarny. Mirosław Sobolewski. Wydział Matematyki, Informatyki i Mechaniki UW. 10. wykład z algebry liniowej Warszawa, grudzień 2013

Zadania z Algebry liniowej 4 Semestr letni 2009

Rozpoznawanie obrazów

15. Macierze. Definicja Macierzy. Definicja Delty Kroneckera. Definicja Macierzy Kwadratowej. Definicja Macierzy Jednostkowej

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Metody Statystyczne. Metody Statystyczne.

Transkrypt:

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D

Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja wymiaru przy pomocy algebry liniowej i przybliżenia rozkładem Gaussa rzut oka na szczegóły na przykładzie Iris Sztuczna inteligencja, czyli jak zapomnieć matematykę i zawierzyć sieciom neuronowym liniowy auto-encoder i PCA pytania? Zakładam, że słuchacz tylko otarł się kiedyś o algebrę wektorów i macierzy i rachunek prawdopodobieństwa. Całość jest for dummies. Mam nadzieję... Przerywać proszę! Jak coś trzeba będzie pominąć to nie szkodzi! Dyskusja z Miłymi Słuchaczami zawsze ciekawsza! Rozglądanie się w D

Kosaciec, czyli Iris W 96 roku Ronald Fisher w klasycznej pracy o klasyfikacji (liniowej) oparł się na pomiarach czterech cech trzech gatunków kwiatów z rodziny kosaćców (5 pomiarów dla każdego gatunku). Rozglądanie się w D

iris data from sklearn import datasets, preprocessing irisdata = datasets.load_iris().data plus normalizacja preprocessing.standardscaler dla każdej cechy średnia i wariancja. - (sepal length-width) Rozglądanie się w D zakres [, ] ustalony na sztywno dla lepszego porównywania w dalszym ciągu odrzucimy Iris Setosa (czerwone) bo za dobrze się oddziela pozostanie Versicolor i Virginica (zielone i pomarańczowe)

bez Iris Setosa Ponownie dwie pierwsze cechy dla dwóch pozostawionych gatunków bez podziału i z podziałem na klasy. - - Rozglądanie się w D

wszystkie ściany z podziałem na klasy - - -.5 -..5.5 -..5.5 -..5.5..5.5..5.5..5 Poszukamy lepszego punktu widzenia... Rozglądanie się w D

Kierunki najlepiej rozrzucające dane PCA >>> from sklearn.decomposition import PCA >>> pca = PCA().fit(irisdata) >>> versic_pca, virgin_pca = map( pca.transform, (irisversic, irisvirgin)) PCA - PCA - Rozglądanie się w D

PCA Principal Component Analysis Próba z rozkładu gaussowskiego układa się w kształt elipsoidy. Kierunek najbardziej różnicujący dane jest kierunkiem w którym wariancja jest największa najdłuższą osią elipsoidy. Kolejnego kierunku szukamy w podprzestrzeni ortogonalnej do pierwszego, i tak dalej... Bardziej konkretnie i abstrahując od rozkładu Gaussa, analizujemy macierz kowariancji próby (zakładam, że średnie zostały już znormalizowane): S ij = N x ni x nj lub S = N xn T x n N N n= n= Rozglądanie się w D

PCA, c.d. Macierz kowariancji S jest symetryczna (oczywiście!) i dodatnio określona, bo wyrażenie v T Sv = ij v is ij v j = (/N) nij v ix ni x nj v j = (/N) n (v x n) jest wariancją rzutu próby na kierunek wektora v Z ogólnej teorii wynika, że: S ma D dodatnich wartości własnych λ i. Załóżmy, że różnych w praktyce degeneracja jest mało prawdopodobna. Wektory własne w i są wzajemnie ortogonalne i w bazie z nich zbudowanej S ma postać diagonalną z wartościami własnymi na przekątnej. Elementy diagonalne to wariancje w kierunku odpowiednich wektorów własnych. Czyli procedura jest jasna: kolejne kierunki główne, to kolejne wektory własne odpowiadające największym wartościom własnym! D wymiar przestrzeni cech Rozglądanie się w D

Wracamy do danych... PCA - PCA - >>> print pca.explained_variance_ [.9579.555.57.8 ] >>> print pca.components_ [[.5..5.5 ] [. -.88.7. ] [ -.69 -.5..7 ] [ -.6..7 -.5 ]] Rozglądanie się w D

Transformacja tam i z powrotem Składowe rzeczywiście tworzą układ ortonormalny: >>> U = pca.components_ >>> np.matmul(u, U.transpose()) array([[.e+, 5.55e-7, -5.55e-7, -8.e-7 ], [ 5.55e-7,.e+, -8.e-7, 8.e-7 ], [ -5.55e-7, -8.e-7,.e+, -.66e-6 ], [ -8.e-7, 8.e-7, -.66e-6,.e+ ]]) Ale to także oznacza, że U T jest macierzą odwrotną do U. U i U T są używane przez pca.transform() i pca.inverse_transform() Rozglądanie się w D

Macierz kowariancji tu i tam Nietrudno ręcznie przetransformować macierz kowariancji z próby: S U S U T >>> S = pca.get_covariance() >>> S array([[.,.55,.8,.59 ], [.55,.,.5,.56 ], [.8,.5,.,.8 ], [.59,.56,.8,. ]]) >>> S_pca = np.matmul(u, np.matmul(s, U.transpose())) >>> S_pca array([[.95e+,.e-6, -.99e-6, -.6e-6 ], [.e-6, 5.55e-, -6.9e-7,.e-6 ], [ -6.66e-6, -.e-6,.5e-, -6.9e-7 ], [ -.e-6, -.77e-7, -5.55e-7, 8.e- ]]) (pamiętamy: [.9579.555.57.8 ]) Rozglądanie się w D

Jak dobrze PCA-D tłumaczy dane? Weźmiemy tylko dwie pierwsze składowe PCA >>> N = len(irisdata) >>> iris_pca = pca.transform(irisdata) >>> for n in range(n): iris_pca[n,] = iris_pca[n,] =. zastosujemy transformację odwrotną i obliczymy średni błąd (na wektor i cechę) >>> irisdata_ = pca.inverse_transform(iris_pca) >>> loss = sum([... np.inner(v,v) for v in irisdata_ - irisdata ]) / N >>> loss, loss/ (.86977,.7) Zapamiętajmy ostatnią liczbę. Rozglądanie się w D

Czas na sztuczną inteligencję! from keras.models import Sequential from keras.layers import Dense gmdl = Sequential() gmdl.add(dense(, input_dim=, bias=false)) gmdl.add(dense(, bias=false)) gmdl.compile(optimizer="sgd", loss="mean_squared_error") gmdl.fit(irisdata, irisdata, batch_size=, nb_epoch=, validation_data=(irisdata, irisdata))....8.6.. 5 Liniowy auto-encoder: loss[] =.9 loss[] =.78 loss[] =. loss[999] =.8 (dla PCA mieliśmy:.7) Rozglądanie się w D

Jak wydobyć zanurzenie? emdl = Sequential() emdl.add(dense(, input_dim=, bias=false, weights=gmdl.layers[].get_weights())) emdl.compile(optimizer="sgd", loss="mean_squared_error") emdl.predict(irisdata, batch_size=) PCA -D -D NN lin-auto-enc Rozglądanie się w D

Pytania różne Czy jesteśmy zadowoleni z efektów działania modelu neuronowego? Może jesteśmy zdziwieni wynikiem? Jaki problem wiąże się z tym modelem? Warto przyjrzeć sie jak zmienia się zanurzenie w czasie uczenia? Jak skłonić sieć do poszukiwania tego samego modelu co PCA? W jakiś naturalny sposób? Jak skłonić sieć żeby zrobiła LDA? Inne pytania? Rozglądanie się w D

Lepiej? PCA -D -D NN lin-auto-enc-reg Rozglądanie się w D

Disclaimer Praca Fishera nie była o PCA, lecz o optymalnych klasyfikatorach liniowych, czyli kierunkach maksymalnie różnicujących klasy. PCA nie widzi klas! (ale rysunki są ładniejsze!) PCA -D LDA -D Rozglądanie się w D

Wikipedia credits CC BY-SA., https://commons.wikimedia.org/w/index.php?curid=798 CC BY-SA., https://commons.wikimedia.org/w/index.php?curid=895 By Frank Mayfield originally posted to Flickr as Iris virginica shrevei BLUE FLAG, CC BY-SA., https://commons.wikimedia.org/w/index.php?curid=98558 CC BY-SA., https://commons.wikimedia.org/w/index.php?curid=9679 By Nicoguaro - Own work, CC BY., https://commons.wikimedia.org/w/index.php?curid=68795 Rozglądanie się w D