Uczenie nienadzorowane

Wielkość: px
Rozpocząć pokaz od strony:

Download "Uczenie nienadzorowane"

Transkrypt

1 Uczenie nienadzorowane Nadzorowane, klasyfikacja: Nienadzorowane, analiza skupień (clustering): Zbiór uczacy: { (x 1 1,x1 2 ),c1, (x 2 1,x2 2 ),c2,... (x N 1,xN 2 ),cn } Zbiór uczacy: { (x 1 1,x1 2 ), (x2 1,x2 2 ),... (xn 1,xN 2 ) } Uczenie nienadzorowane 1

2 Uczenie nienadzorowane 2

3 Algorytm k-means Bardzo prosta, popularna i skuteczna metod e analizy skupień oferuje algorytm k-means. Oparty jest na porównywaniu odleg lości i wyznaczaniu skupień reprezentowanych przez ich środki geometryczne centroidy, minimalizujacych pewna funkcj e jakości. Algorytm zak lada, że liczba skupień K, które należy wygenerować jest znana. Algorytm wykonuje powtarzalnie dwa kroki: krok etykietowania i krok przesuni ecia centroidów. Algorytm k-means: Krok 0 (inicjalizacja): ustaw wartości poczatkowe wszystkich K centroidów REPEAT { Krok 1 (etykietowanie): oznacz wszystkie próbki etykieta najbliższego centroidu Krok 2 (przesuni ecie centroidów): przesuń wszystkie centroidy do geometrycznego środka ich skupień } Uczenie nienadzorowane algorytm k-means 3

4 Algorytm k-means przyk lad Uczenie nienadzorowane algorytm k-means 4

5 Krok 0 (inicjalizacja) Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Krok 1 (etykietowanie) Uczenie nienadzorowane algorytm k-means 5

6 Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Uczenie nienadzorowane algorytm k-means 6

7 Algorytm k-means kryterium jakości Algorytm k-means usi luje znaleźć minimum pewnej funkcji kosztu, która jest miara jakości wygenerowanego zbioru skupień. Ta funkcja kosztu jest ważona suma odleg lości wszystkich punktów od centroidów ich skupień. Można zauważyć, że pierwszy krok algorytmu (etykietowanie) dokonuje optymalizacji tej funkcji kosztu ze wzgl edu na sk ladowe odleg lości, przy zachowaniu aktualnych centroidów. Drugi krok algorytmu (przesuni ecie centroidów) dokonuje optymalizacji tej samej funkcji ze wzgl edu na po lożenie centroidów, przy zachowaniu aktualnych zbiorów punktów wszystkich skupień. Uczenie nienadzorowane algorytm k-means 7

8 Algorytm k-means przyk lad z Wikipedii Jak widać na powyższym przyk ladzie, nie zawsze algorytm k-means generuje tak intuicyjnie poprawne wyniki, jak na wcześniejszych przyk ladach. Istnieje szereg okoliczności specjalnych, które należy/warto uwzgl ednić, aby otrzymać optymalne wyniki. Ogólnie: ze wzgl edu na możliwa rozbieżność wielkości, podobnie jak w przypadku innych metod opartych na obliczaniu odleg lości, poszczególne wspó lrz edne należy skalować do obliczania odleg lości w przestrzeni cech. Wspó lczynnikiem skalowania może być wariancja wartości danej wspó lrz ednej na zbiorze treningowym. Uczenie nienadzorowane algorytm k-means 8

9 Przypadek specjalny k-means centroid ze zbiorem pustym Co robić, gdy w trakcie pracy algorytmu powstanie centroid z pustym zbiorem punktów? Metoda 1: pominać ten centroid w dalszym ciagu. Jednak jest możliwe, że liczba skupień jest narzucona, i chcemy ja utrzymywać. Wtedy: Metoda 2: ponownie zainicjalizować po lożenie tego centroidu, i kontynuować. Uczenie nienadzorowane algorytm k-means 9

10 Przypadek specjalny k-means brak separacji skupień Nie zawsze zbiór próbek uk lada si e w zdecydowanie odseparowane skupienia. Możemy chcieć mimo wszystko pogrupować dane. Np. producent koszulek T-shirt zrobi l badania antropometryczne aby zaprojektować dobrze dopasowane koszulki w kilku rozmiarach (np.: S,M,L): Algorytm nadal dzia la poprawnie, znajdujac zadana liczb e skupień w oparciu o odleg lości: Uczenie nienadzorowane algorytm k-means 10

11 Algorytm k-means inicjalizacja W najprostszym przypadku inicjalizacja może być przypadkowa, np. dowolne K próbek zbioru treningowego. Jednak nie zawsze daje to dobre wyniki. W przypadku jak powyżej po lewej można uzyskać pożadane rozwiazanie (powyżej po prawej). Jednak niefortunna inicjalizacja może wygenerować rozwiazania jak poniżej. Uczenie nienadzorowane algorytm k-means 11

12 Algorytm k-means inicjalizacja (cd.) Jak zapobiec niefortunnej inicjalizacji, która może prowadzić do wygenerowania nieoptymalnych skupień, osiagaj acych lokalne maksimum funkcji kosztu? Podobnie jak w metodzie wyżarzania, można porzucić wygenerowane centroidy, i wybrać je ponownie losowo. Jednak aby porównać miar e jakości (funkcj e kosztu, czyli ważona sum e odleg lości wszystkich punktów od centroidów ich skupień), należy doprowadzić algorytm w obu przypadkach do końca. W praktyce oznacza to wielokrotne (100?, 1000 razy?) powtórzenie algorytmu k-means dla losowo wybranych punktów startowych, i wybraniu globalnie najlepszego rozwiazania. Uczenie nienadzorowane algorytm k-means 12

13 Algorytm k-means określenie liczby skupień Wymagana przez algorytm liczba skupień K nie zawsze jest z góry znana, i czasami trzeba ja określić eksperymentalnie. Metoda punktu lokcia (elbow point): Uczenie nienadzorowane algorytm k-means 13

14 Metoda punktu lokcia nie zawsze si e sprawdza. Cz esto krzywa nie wykazuje charakterystycznego punktu za lamania, i po prostu asymptotycznie maleje wraz ze wzrostem liczby skupień. Niestety, w tym przypadku nie możemy próbować optymalizacji kryterium jakości, czyli ważonej sumy odleg lości wszystkich punktów od ich centroidów. Albowiem ta suma osiaga zero dla liczby skupień równej liczbie próbek K = N. W takim przypadku można odwo lać si e do specyfiki problemu, z którego pochodza próbki. Należy dokonać subiektywnej oceny, jaka liczba skupień b edzie odpowiednia dla tej dziedziny problemowej. Uczenie nienadzorowane algorytm k-means 14

15 Algorytm k-means problemy specjalne Algorytm k-means dobrze dzia la w wielu przypadkach praktycznych, jednak sa przypadki, gdzie definitywnie nie radzi sobie. Takimi przypadkami sa skupienia różniace si e wielkościa, a także skupienia różniace si e g estości a próbek w zbiorze treningowym. Uczenie nienadzorowane algorytm k-means 15

16 Algorytm k-means problemy specjalne (2) Problem z wkl es lymi skupieniami można rozwiazać pośrednio, zwi ekszaj ac liczb e skupień. Uczenie nienadzorowane algorytm k-means 16

17 Algorytm k-means podsumowanie Algorytm k-means jest prostym i skutecznym algorytmem analizy skupień. Jego z lożoność obliczeniowa wynosi O(tKN) gdzie K,N sa odpowiednio liczba skupień i próbek, natomiast t jest liczba iteracji algorytmu. Zwykle K,t N. Jednak posiada kilka istotnych problemów, które utrudniaja, lub uniemożliwiaja jego zastosowanie: wymaga wyznaczenia liczby skupień K, wrażliwy na inicjalizacj e centroidów, może zbiegać si e do maksimów nielokalnych, ma zastosowanie do danych liczbowych (obliczanie średnich i odleg lości), problemy z danymi kategorycznymi, problemy ze skupieniami o niewypuk lych kszta ltach, problemy ze skupieniami różniacymi si e wielkościami, problemy ze skupieniami różniacymi si e g estościami. Uczenie nienadzorowane algorytm k-means 17

18 Uczenie nienadzorowane algorytm k-means 18

19 Hierarchiczna analiza skupień Uczenie nienadzorowane hierarchiczna analiza skupień 19

20 Uczenie nienadzorowane hierarchiczna analiza skupień 20

21 Algorytm EM Expectation Maximization Można zastosować podejście podobne do algorytmu k-means na gruncie probabilistycznym. Zak ladajac, że punkty zbioru treningowego należa do K skupień z pewnym losowym rozk ladem prawdopodobieństwa, naturalnie jest przyjać, że te skupienia wynikaja z normalnych rozk ladów prawdopodobieństw, tzw. mieszaniny rozk ladów normalnych albo gausowskich (mixture of Gaussians). Algorytm EM (Expectation Maximization) uczy si e parametrów takiej mieszaniny rozk ladów. Rysunek po lewej przedstawia mieszanin e trzech symulowanych rozk ladów normalnych. Środkowy rysunek przedstawia zbiór punktów wygenerowanych dla tego rozk ladu. Rysunek po prawej przedstawia mieszanin e rozk ladów wyuczona przez algorytm EM. Uczenie nienadzorowane algorytm EM 21

22 Algorytm EM Expectation Maximization (cd.) Zak ladajac, że zmienna C oznacza sk ladowa mieszaniny z wartościa 1,...,K, rozk lad prawdopodobieństwa mieszaniny dany jest wzorem: P(x) = K P(C = i)p(x C = i) i=1 gdzie x jest wektorem atrybutów próbki. Parametrami rozk ladu sa: w i = P(C = i) (waga sk ladowej i), µ i (średnia sk ladowej i), i i (kowariancja sk ladowej i). Idea algorytmu polega na tym, że poczatkowo zak ladamy pewne wartości parametrów powyższego rozk ladu. W każdym cyklu algorytmu, dla każdego punktu obliczane sa prawdopodobieństwa, że należy on do poszczególnych sk ladowych. Nast epnie, przeliczane sa parametry wszystkich sk ladowych na podstawie wszystkich punktów, z wagami b ed acymi prawdopodobieństwami przynależności danego punktu do danej sk ladowej. Te dwa kroki powtarzane sa aż do uzyskania zbieżności algorytmu, podobnie jak w metodzie k-means. Uczenie nienadzorowane algorytm EM 22

23 Algorytm EM: Algorytm EM Expectation Maximization (cd.) Inicjalizacja: ustaw wartości poczatkowe parametrów wszystkich sk ladowych REPEAT { Krok E: Oblicz prawdopodobieństwa p ij = P(C = i x j ), że próbka x j należy do sk ladowej i. Na mocy regu ly Bayesa mamy: p ij = αp(x j C = i)p(c = i). Określamy n i = j p ij, czyli efektywna liczb e punktów aktualnie przypisanych do sk ladowej i. Krok M: Oblicz nowe średnie, kowariancje, i wagi sk ladowych za pomoca nast epuj acych wzorów: µ i j p ij x j /n i Σ i j p ij (x j µ i )(x j µ i ) /n i } w i n i /N Uczenie nienadzorowane algorytm EM 23

24 Algorytm EM Expectation Maximization (cd.) Algorytm EM nie jest wolny od pewnych problemów. Możliwy jest przypadek, kiedy jedna ze sk ladowych zredukuje si e do pojedynczego punktu, z zerowa wariancja i prawdopodobieństwem równym 1. Innym problemem jest na lożenie si e dwóch sk ladowych, które nast epnie wspó ldziela ten sam zbiór punktów. Takie zjawiska prowadza do zbiegni ecia si e algorytmu w lokalnym maksimum. Jest to poważny problem, zw laszcza w wielowymiarowych przestrzeniach. Rozwiazaniem może być reinicjalizacja sk ladowej z nowymi parametrami, podobnie jak w przypadku algorytmu k-means. Uczenie nienadzorowane algorytm EM 24

25 Algorytm PCA (Principal Component Analysis) Algorytm PCA znajduje M-wymiarowe przybliżenie zbioru danych {x n : n = 1,...,N} o wymiarze oryginalnym dim(x n ) = D (M < D): 1. Wyznacz wektor średnich m zbioru próbek o rozmiarze D 1 i macierz kowariancji S o rozmiarze D D: m = 1 N x n, S = 1 N (x n m)(x n m) T. N N 1 n=1 2. Wyznacz wektory w lasne e 1,...,e D macierzy kowariancji S posortowane wed lug malejacych wartości w lasnych wektorów w lasnych. Utwórz macierz E = [e 1,...e M ]. 3. Niskowymiarowa reprezentacja y n, oraz przybliżona rekonstrukcja każdej z próbek x n sa dane przez: y n = E T (x n m), x n m+ey n. n=1 4. Ca lkowity b lad kwadratowy przybliżenia dla zbioru treningowego wynosi: N D (x n y n ) = (N 1) n=1 j=m+1 gdzie λ M+1,...,λ N sa pomini etymi wartościami w lasnymi. λ j Uczenie nienadzorowane Principal Component Analysis 25

26 Uczenie nienadzorowane Principal Component Analysis 26

27 Materia ly W tej prezentacji wykorzystane zosta ly materia ly z nast epuj acych prac: 1. Andrew Ng: Unsupervised learning, Coursera video lecture 2. Stuart J. Russell, Peter Norvig: Artificial Intelligence A Modern Approach (Third Edition), Prentice-Hall, Kevin P. Murphy: Machine Learning A Probabilistic Perspective, MIT Press, 2012 Uczenie nienadzorowane materia ly 27

28 Uczenie nienadzorowane materia ly 28

CLUSTERING. Metody grupowania danych

CLUSTERING. Metody grupowania danych CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means

Bardziej szczegółowo

Normy wektorów i macierzy

Normy wektorów i macierzy Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0,

Bardziej szczegółowo

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera Wyk lad 7 Metoda eliminacji Gaussa Wzory Cramera Metoda eliminacji Gaussa Metoda eliminacji Gaussa polega na znalezieniu dla danego uk ladu a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n =

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y

Bardziej szczegółowo

Suma i przeciȩcie podprzestrzeń, suma prosta, przestrzeń ilorazowa Javier de Lucas

Suma i przeciȩcie podprzestrzeń, suma prosta, przestrzeń ilorazowa Javier de Lucas Suma i przeciȩcie podprzestrzeń suma prosta przestrzeń ilorazowa Javier de Lucas Ćwiczenie 1 W zależności od wartości parametru p podaj wymiar przestrzeni W = v 1 v v 3 gdzie p 0 v 1 = 1 + p 3 v = 5 3

Bardziej szczegółowo

Oddzia lywania miedzycz. jony molekularne lub atomy. edzy A i B:

Oddzia lywania miedzycz. jony molekularne lub atomy. edzy A i B: Notatki do wyk ladu XIII Oddzia lywania miedzycz asteczkowe A i B zamknietopow lokowe czasteczki, jony molekularne lub atomy. Energia oddzia lywania E oddz mi edzy A i B: E oddz = E AB (E A + E B ) ()

Bardziej szczegółowo

Obliczenia iteracyjne

Obliczenia iteracyjne Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac: SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ Ewa Madalińska na podstawie prac: [1] Lukaszewicz,W. (1988) Considerations on Default Logic: An Alternative Approach. Computational Intelligence, 44[1],

Bardziej szczegółowo

Zastosowanie Robotów. Ćwiczenie 6. Mariusz Janusz-Bielecki. laboratorium

Zastosowanie Robotów. Ćwiczenie 6. Mariusz Janusz-Bielecki. laboratorium Zastosowanie Robotów laboratorium Ćwiczenie 6 Mariusz Janusz-Bielecki Zak lad Informatyki i Robotyki Wersja 0.002.01, 7 Listopada, 2005 Wst ep Do zadań inżynierów robotyków należa wszelkie dzia lania

Bardziej szczegółowo

Grupy i cia la, liczby zespolone

Grupy i cia la, liczby zespolone Rozdzia l 1 Grupy i cia la, liczby zespolone Dla ustalenia uwagi, b edziemy używać nast epuj acych oznaczeń: N = { 1, 2, 3,... } - liczby naturalne, Z = { 0, ±1, ±2,... } - liczby ca lkowite, W = { m n

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 9.03.2014-3 godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar

Bardziej szczegółowo

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu

Bardziej szczegółowo

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach Rozdzia l 4 Przestrzenie liniowe 4.1 Przestrzenie i podprzestrzenie 4.1.1 Definicja i podstawowe w lasności Niech X z dzia laniem dodawania + b edzie grupa przemienna (abelowa). Oznaczmy przez 0 element

Bardziej szczegółowo

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka Zagadnienie Dualne Zadania Programowania Liniowego Seminarium Szkoleniowe Edyta Mrówka Ogólne zagadnienie PL Znajdź taki wektor X = (x 1, x 2,..., x n ), który minimalizuje kombinacje liniow a przy ograniczeniach

Bardziej szczegółowo

Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2016/2017. Forma studiów: Stacjonarne Kod kierunku: 11.

Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2016/2017. Forma studiów: Stacjonarne Kod kierunku: 11. Państwowa Wyższa Szko la Zawodowa w Nowym Sa czu Karta przedmiotu Instytut Techniczny obowiązuje studentów rozpoczynających studia w roku akademickim 2016/2017 Kierunek studiów: Informatyka Profil: Praktyczny

Bardziej szczegółowo

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec

Systemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa

Bardziej szczegółowo

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Analiza głównych składowych- redukcja wymiaru, wykł. 12 Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają

Bardziej szczegółowo

Algorytm grupowania danych typu kwantyzacji wektorów

Algorytm grupowania danych typu kwantyzacji wektorów Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji

Bardziej szczegółowo

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji

Oznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 22 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Statystyczna analiza danych

Statystyczna analiza danych Statystyczna analiza danych ukryte modele Markowa, algorytm EM Anna Gambin Instytut Informatyki Uniwersytet Warszawski ńczonymi l łańcuch Markowa Q, zbiór stanów M = (p k,l ) k,l Q, stochastyczna ścia

Bardziej szczegółowo

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.

Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki. Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki. Zaj ecia 5 Natalia Nehrebeceka 04 maja, 2010 Plan zaj eć 1 Rachunek prawdopodobieństwa Wektor losowy Wartość oczekiwana Wariancja Odchylenie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

CLUSTERING METODY GRUPOWANIA DANYCH

CLUSTERING METODY GRUPOWANIA DANYCH CLUSTERING METODY GRUPOWANIA DANYCH Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means

Bardziej szczegółowo

Wyk ad II. Stacjonarne szeregi czasowe.

Wyk ad II. Stacjonarne szeregi czasowe. Wyk ad II. Stacjonarne szeregi czasowe. W wi ekszości przypadków poszukiwanie modelu, który dok adnie by opisywa zachowanie sk adnika losowego " t, polega na analizie pewnej klasy losowych ciagów czasowych

Bardziej szczegółowo

Analiza zrekonstruowanych śladów w danych pp 13 TeV

Analiza zrekonstruowanych śladów w danych pp 13 TeV Analiza zrekonstruowanych śladów w danych pp 13 TeV Odtwarzanie rozk ladów za pomoc a danych Monte Carlo Jakub Cholewiński, pod opiek a dr hab. Krzysztofa Woźniaka 31 lipca 2015 r. Jakub Cholewiński, pod

Bardziej szczegółowo

2. Równania nieliniowe i ich uk lady

2. Równania nieliniowe i ich uk lady Metoda Newtona stycznych dla równania f(x) 0: x n+ x n f(x n) f (x n ) Chcemy rozwia ι zać uk lad N równań dla N niewiadomych f (x,x,,x N ) 0 f (x,x,,x N ) 0, f N (x,x,,x N ) 0 krócej: Czy jest jakaś analogia?

Bardziej szczegółowo

Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010

Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010 R. Rȩbowski 1 WPROWADZENIE Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010 1 Wprowadzenie Powszechnie uważa siȩ, że metoda simplex, jako uniwersalny algorytm pozwalaj acyznaleźć rozwi azanie optymalne

Bardziej szczegółowo

Dyskretne modele populacji

Dyskretne modele populacji Dyskretne modele populacji Micha l Machtel Adam Soboczyński 19 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których

Bardziej szczegółowo

Optymalizacja systemów

Optymalizacja systemów Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym. Rozdzia l 11 Przestrzenie Euklidesowe 11.1 Definicja, iloczyn skalarny i norma Definicja 11.1 Przestrzenia Euklidesowa nazywamy par e { X K,ϕ }, gdzie X K jest przestrzenia liniowa nad K, a ϕ forma dwuliniowa

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.

Bardziej szczegółowo

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je. Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Pochodne cz ¾astkowe i ich zastosowanie.

Pochodne cz ¾astkowe i ich zastosowanie. Pochodne cz ¾astkowe i ich zastosowanie. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Pochodne cz ¾astkowe i ich zastosowanie. maj 2013 1 / 18 Zanim przejdziemy do omawiania pochodnych funkcji wielu zmiennych

Bardziej szczegółowo

0.1 Sposȯb rozk ladu liczb na czynniki pierwsze

0.1 Sposȯb rozk ladu liczb na czynniki pierwsze 1 Temat 5: Liczby pierwsze Zacznijmy od definicji liczb pierwszych Definition 0.1 Liczbȩ naturaln a p > 1 nazywamy liczb a pierwsz a, jeżeli ma dok ladnie dwa dzielniki, to jest liczbȩ 1 i sam a siebie

Bardziej szczegółowo

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. Analiza dyskryminacyjna: FLD, LDA, QDA Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną

Bardziej szczegółowo

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji

Bardziej szczegółowo

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji

Bardziej szczegółowo

Przestrzeń algorytmów klastrowania

Przestrzeń algorytmów klastrowania 20 listopada 2008 Plan prezentacji 1 Podstawowe pojęcia Przykłady algorytmów klastrowania 2 Odległość algorytmów klastrowania Odległość podziałów 3 Dane wejściowe Eksperymenty Praca źródłowa Podstawowe

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym

Bardziej szczegółowo

Rotacje i drgania czasteczek

Rotacje i drgania czasteczek Rotacje i drgania czasteczek wieloatomowych Gdy znamy powierzchnie energii potencjalnej V( R 1, R 2,..., R N ) to możemy obliczyć poziomy energetyczne czasteczki. Poziomy te sa w ogólności efektem: rotacji

Bardziej szczegółowo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu 1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie

Bardziej szczegółowo

i elektronów w czasteczkach (laboratoryjnym) operator Hamiltona dla czasteczki dwuatomowej (jadra 2M b a i b; m -masa elektronu e 2 r ij

i elektronów w czasteczkach (laboratoryjnym) operator Hamiltona dla czasteczki dwuatomowej (jadra 2M b a i b; m -masa elektronu e 2 r ij Notatki do wyk ladu IX Rozdzielenie ruchu jader i elektronów w czasteczkach W dowolnym uk ladzie wspó lrzednych (laboratoryjnym) operator Hamiltona dla czasteczki dwuatomowej (jadra a i b)ma postać: Ĥ

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

Dyskretne modele populacji

Dyskretne modele populacji Dyskretne modele populacji Micha l Machtel Adam Soboczyński 17 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna

Wyk lad 5 W lasności wyznaczników. Macierz odwrotna Wyk lad 5 W lasności wyznaczników Macierz odwrotna 1 Operacje elementarne na macierzach Bardzo ważne znaczenie w algebrze liniowej odgrywaja tzw operacje elementarne na wierszach lub kolumnach macierzy

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Uklady modelowe III - rotator, atom wodoru

Uklady modelowe III - rotator, atom wodoru Wyk lad 5 Uklady modelowe III - rotator, atom wodoru Model Separacja ruchu środka masy R = m 1r 1 + m 2 r 2 m 1 + m 2 Ĥ = Ĥ tr (R) + Ĥ rot (r) Ĥ tr 2 (R) = 2(m 1 + m 2 ) R [ Ψ E tr (R; t) = exp i (k R

Bardziej szczegółowo

Czastka swobodna Bariera potencja lu Pud lo jednowymiarowe FEMO Pud la wielowymiarowe. Wyk lad 3. Uk lady modelowe I

Czastka swobodna Bariera potencja lu Pud lo jednowymiarowe FEMO Pud la wielowymiarowe. Wyk lad 3. Uk lady modelowe I Wyk lad 3 Uk lady modelowe I Hamiltonian, równania Schrödingera hamiltonian Ĥ(x) = ˆT (x) = 2 d 2 2m dx 2 równanie Schrödingera zależne od czasu stany stacjonarne 2 2 Ψ(x, t) Ψ(x, t) 2m x 2 = i t dψ E

Bardziej szczegółowo

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ

ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany

Bardziej szczegółowo

Jak matematyka pomaga w wyszukiwanie wzorca

Jak matematyka pomaga w wyszukiwanie wzorca Jak matematyka pomaga w wyszukiwanie wzorca Artur Jeż 28 września 2011 Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 1 / 18 Wiek nauki Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 2 /

Bardziej szczegółowo

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Modelowanie rynków finansowych z wykorzystaniem pakietu R Modelowanie rynków finansowych z wykorzystaniem pakietu R Metody numeryczne i symulacje stochastyczne Mateusz Topolewski woland@mat.umk.pl Wydział Matematyki i Informatyki UMK Plan działania 1 Całkowanie

Bardziej szczegółowo

Uk lady modelowe II - oscylator

Uk lady modelowe II - oscylator Wyk lad 4 Uk lady modelowe II - oscylator Model Prawo Hooke a F = m d 2 x = kx = dv dt2 dx Potencja l Równanie ruchu V = 1 2 kx2 d 2 x dt 2 + k m x = 0 Obraz klasyczny Rozwiazania k x = A sin t = A sin

Bardziej szczegółowo

Funkcje dwóch zmiennych

Funkcje dwóch zmiennych Funkcje dwóch zmiennych Je zeli ka zdemu punktowi P o wspó rzednych x; y) z pewnego obszaru D na p aszczyźnie R 2 przyporzadkujemy w sposób jednoznaczny liczb e rzeczywista z, to przyporzadkowanie to nazywamy

Bardziej szczegółowo

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich

Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i

Bardziej szczegółowo

Fuzja sygnałów i filtry bayesowskie

Fuzja sygnałów i filtry bayesowskie Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 19 kwietnia 2011 Testy dla dwóch grup 1 Analiza danych dla dwóch grup: test t-studenta dla dwóch grup sparowanych; test t-studenta dla dwóch grup niezależnych (jednakowe wariancje) test Z dla dwóch grup

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 5 marca 2011 Zasady 10 wyk ladów; egzamin pisemny; Literatura 1 A. Lomnicki Wprowadzenie do statystyki dla przyrodników PWN 1999. 2 W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski Rachunek

Bardziej szczegółowo

Jeden przyk lad... czyli dlaczego warto wybrać MIESI.

Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Micha l Ramsza Szko la G lówna Handlowa Micha l Ramsza (Szko la G lówna Handlowa) Jeden przyk lad... czyli dlaczego warto wybrać MIESI. 1 / 13 Dlaczego

Bardziej szczegółowo

Po co maszynowe uczenie?

Po co maszynowe uczenie? Po co maszynowe uczenie? Można powiedzieć, że geneza maszynowego uczenia jest dwojaka: sztuczna inteligencja Ludzka inteligencja jest nierozerwalnie zwiazana z uczeniem sie. Każde dzia lanie cz lowieka

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.

Bardziej szczegółowo

Metoda największej wiarygodności

Metoda największej wiarygodności Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany

Bardziej szczegółowo

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne.

Rachunek prawdopodobieństwa 1B; zadania egzaminacyjne. Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja

Bardziej szczegółowo

TRANSFORMACJE I JAKOŚĆ DANYCH

TRANSFORMACJE I JAKOŚĆ DANYCH METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,

Bardziej szczegółowo

Równania ró znicowe wg A. Ostoja - Ostaszewski "Matematyka w ekonomii. Modele i metody".

Równania ró znicowe wg A. Ostoja - Ostaszewski Matematyka w ekonomii. Modele i metody. Równania ró znicowe wg A. Ostoja - Ostaszewski "Matematyka w ekonomii. Modele i metody". Przyk ad. Za ó zmy, ze w chwili t = 0 populacja liczy P 0 osób. Roczny wskaźnik urodzeń wynosi b = 00, a roczna

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Wersja testu D 14 września 2011 r. 1. Czy prawda jest, że a) x Z y Z y 2 = 2 ; b) x Z y Z x 2 = 1 ; c) x Z y Z x 2 = 2 ; d) x Z y Z y 2 = 1?

Wersja testu D 14 września 2011 r. 1. Czy prawda jest, że a) x Z y Z y 2 = 2 ; b) x Z y Z x 2 = 1 ; c) x Z y Z x 2 = 2 ; d) x Z y Z y 2 = 1? 1. Czy prawda jest, że a) x Z y Z y 2 = 2 ; b) x Z y Z x 2 = 1 ; c) x Z y Z x 2 = 2 ; d) x Z y Z y 2 = 1? 2. Czy prawda jest, że a) 5 8 1 jest podzielne przez 4 ; b) 5 7 1 jest podzielne przez 4 ; c) 3

Bardziej szczegółowo

Rozkład materiału nauczania

Rozkład materiału nauczania Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2015/2016 Przedmiot: MATEMATYKA Klasa: III 2 godz/tyg 30 = 60 godzin Rozkład materiału nauczania Temat I. LOGARYTMY

Bardziej szczegółowo

WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3

WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 Definicja 1 Przestrzenia R 3 nazywamy zbiór uporzadkowanych trójek (x, y, z), czyli R 3 = {(x, y, z) : x, y, z R} Przestrzeń

Bardziej szczegółowo

Iteracyjne rozwiązywanie równań

Iteracyjne rozwiązywanie równań Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie

Bardziej szczegółowo

KLASYFIKACJA. Słownik języka polskiego

KLASYFIKACJA. Słownik języka polskiego KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu

Bardziej szczegółowo

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja

Bardziej szczegółowo

Niesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka

Niesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka Niesimpleksowe metody rozwia zywania zadań PL Seminarium Szkoleniowe Metoda Simplex: wady i zalety Algorytm SIMPLEX jest szeroko znany i stosowany do rozwi azywania zadań programowania liniowego w praktyce.

Bardziej szczegółowo

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób: CMAES Covariance Matrix Adaptation Evolution Strategy Opracowanie: Lidia Wojciechowska W algorytmie CMAES, podobnie jak w algorytmie EDA, adaptowany jest rozkład prawdopodobieństwa generacji punktów, opisany

Bardziej szczegółowo

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Określenie podpierścienia Definicja 9.. Podpierścieniem pierścienia (P, +,, 0, ) nazywamy taki podzbiór A P, który jest pierścieniem ze wzgledu

Bardziej szczegółowo

Programowanie w języku C++ Agnieszka Nowak Brzezińska Laboratorium nr 2

Programowanie w języku C++ Agnieszka Nowak Brzezińska Laboratorium nr 2 Programowanie w języku C++ Agnieszka Nowak Brzezińska Laboratorium nr 2 1 program Kontynuujemy program który wczytuje dystans i ilości paliwa zużytego na trasie, ale z kontrolą danych. A więc jeśli coś

Bardziej szczegółowo