Uczenie nienadzorowane
|
|
- Damian Sobolewski
- 4 lat temu
- Przeglądów:
Transkrypt
1 Uczenie nienadzorowane Nadzorowane, klasyfikacja: Nienadzorowane, analiza skupień (clustering): Zbiór uczacy: { (x 1 1,x1 2 ),c1, (x 2 1,x2 2 ),c2,... (x N 1,xN 2 ),cn } Zbiór uczacy: { (x 1 1,x1 2 ), (x2 1,x2 2 ),... (xn 1,xN 2 ) } Uczenie nienadzorowane 1
2 Uczenie nienadzorowane 2
3 Algorytm k-means Bardzo prosta, popularna i skuteczna metod e analizy skupień oferuje algorytm k-means. Oparty jest na porównywaniu odleg lości i wyznaczaniu skupień reprezentowanych przez ich środki geometryczne centroidy, minimalizujacych pewna funkcj e jakości. Algorytm zak lada, że liczba skupień K, które należy wygenerować jest znana. Algorytm wykonuje powtarzalnie dwa kroki: krok etykietowania i krok przesuni ecia centroidów. Algorytm k-means: Krok 0 (inicjalizacja): ustaw wartości poczatkowe wszystkich K centroidów REPEAT { Krok 1 (etykietowanie): oznacz wszystkie próbki etykieta najbliższego centroidu Krok 2 (przesuni ecie centroidów): przesuń wszystkie centroidy do geometrycznego środka ich skupień } Uczenie nienadzorowane algorytm k-means 3
4 Algorytm k-means przyk lad Uczenie nienadzorowane algorytm k-means 4
5 Krok 0 (inicjalizacja) Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Krok 1 (etykietowanie) Uczenie nienadzorowane algorytm k-means 5
6 Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Krok 1 (etykietowanie) Krok 2 (przesuni ecie centroidów) Uczenie nienadzorowane algorytm k-means 6
7 Algorytm k-means kryterium jakości Algorytm k-means usi luje znaleźć minimum pewnej funkcji kosztu, która jest miara jakości wygenerowanego zbioru skupień. Ta funkcja kosztu jest ważona suma odleg lości wszystkich punktów od centroidów ich skupień. Można zauważyć, że pierwszy krok algorytmu (etykietowanie) dokonuje optymalizacji tej funkcji kosztu ze wzgl edu na sk ladowe odleg lości, przy zachowaniu aktualnych centroidów. Drugi krok algorytmu (przesuni ecie centroidów) dokonuje optymalizacji tej samej funkcji ze wzgl edu na po lożenie centroidów, przy zachowaniu aktualnych zbiorów punktów wszystkich skupień. Uczenie nienadzorowane algorytm k-means 7
8 Algorytm k-means przyk lad z Wikipedii Jak widać na powyższym przyk ladzie, nie zawsze algorytm k-means generuje tak intuicyjnie poprawne wyniki, jak na wcześniejszych przyk ladach. Istnieje szereg okoliczności specjalnych, które należy/warto uwzgl ednić, aby otrzymać optymalne wyniki. Ogólnie: ze wzgl edu na możliwa rozbieżność wielkości, podobnie jak w przypadku innych metod opartych na obliczaniu odleg lości, poszczególne wspó lrz edne należy skalować do obliczania odleg lości w przestrzeni cech. Wspó lczynnikiem skalowania może być wariancja wartości danej wspó lrz ednej na zbiorze treningowym. Uczenie nienadzorowane algorytm k-means 8
9 Przypadek specjalny k-means centroid ze zbiorem pustym Co robić, gdy w trakcie pracy algorytmu powstanie centroid z pustym zbiorem punktów? Metoda 1: pominać ten centroid w dalszym ciagu. Jednak jest możliwe, że liczba skupień jest narzucona, i chcemy ja utrzymywać. Wtedy: Metoda 2: ponownie zainicjalizować po lożenie tego centroidu, i kontynuować. Uczenie nienadzorowane algorytm k-means 9
10 Przypadek specjalny k-means brak separacji skupień Nie zawsze zbiór próbek uk lada si e w zdecydowanie odseparowane skupienia. Możemy chcieć mimo wszystko pogrupować dane. Np. producent koszulek T-shirt zrobi l badania antropometryczne aby zaprojektować dobrze dopasowane koszulki w kilku rozmiarach (np.: S,M,L): Algorytm nadal dzia la poprawnie, znajdujac zadana liczb e skupień w oparciu o odleg lości: Uczenie nienadzorowane algorytm k-means 10
11 Algorytm k-means inicjalizacja W najprostszym przypadku inicjalizacja może być przypadkowa, np. dowolne K próbek zbioru treningowego. Jednak nie zawsze daje to dobre wyniki. W przypadku jak powyżej po lewej można uzyskać pożadane rozwiazanie (powyżej po prawej). Jednak niefortunna inicjalizacja może wygenerować rozwiazania jak poniżej. Uczenie nienadzorowane algorytm k-means 11
12 Algorytm k-means inicjalizacja (cd.) Jak zapobiec niefortunnej inicjalizacji, która może prowadzić do wygenerowania nieoptymalnych skupień, osiagaj acych lokalne maksimum funkcji kosztu? Podobnie jak w metodzie wyżarzania, można porzucić wygenerowane centroidy, i wybrać je ponownie losowo. Jednak aby porównać miar e jakości (funkcj e kosztu, czyli ważona sum e odleg lości wszystkich punktów od centroidów ich skupień), należy doprowadzić algorytm w obu przypadkach do końca. W praktyce oznacza to wielokrotne (100?, 1000 razy?) powtórzenie algorytmu k-means dla losowo wybranych punktów startowych, i wybraniu globalnie najlepszego rozwiazania. Uczenie nienadzorowane algorytm k-means 12
13 Algorytm k-means określenie liczby skupień Wymagana przez algorytm liczba skupień K nie zawsze jest z góry znana, i czasami trzeba ja określić eksperymentalnie. Metoda punktu lokcia (elbow point): Uczenie nienadzorowane algorytm k-means 13
14 Metoda punktu lokcia nie zawsze si e sprawdza. Cz esto krzywa nie wykazuje charakterystycznego punktu za lamania, i po prostu asymptotycznie maleje wraz ze wzrostem liczby skupień. Niestety, w tym przypadku nie możemy próbować optymalizacji kryterium jakości, czyli ważonej sumy odleg lości wszystkich punktów od ich centroidów. Albowiem ta suma osiaga zero dla liczby skupień równej liczbie próbek K = N. W takim przypadku można odwo lać si e do specyfiki problemu, z którego pochodza próbki. Należy dokonać subiektywnej oceny, jaka liczba skupień b edzie odpowiednia dla tej dziedziny problemowej. Uczenie nienadzorowane algorytm k-means 14
15 Algorytm k-means problemy specjalne Algorytm k-means dobrze dzia la w wielu przypadkach praktycznych, jednak sa przypadki, gdzie definitywnie nie radzi sobie. Takimi przypadkami sa skupienia różniace si e wielkościa, a także skupienia różniace si e g estości a próbek w zbiorze treningowym. Uczenie nienadzorowane algorytm k-means 15
16 Algorytm k-means problemy specjalne (2) Problem z wkl es lymi skupieniami można rozwiazać pośrednio, zwi ekszaj ac liczb e skupień. Uczenie nienadzorowane algorytm k-means 16
17 Algorytm k-means podsumowanie Algorytm k-means jest prostym i skutecznym algorytmem analizy skupień. Jego z lożoność obliczeniowa wynosi O(tKN) gdzie K,N sa odpowiednio liczba skupień i próbek, natomiast t jest liczba iteracji algorytmu. Zwykle K,t N. Jednak posiada kilka istotnych problemów, które utrudniaja, lub uniemożliwiaja jego zastosowanie: wymaga wyznaczenia liczby skupień K, wrażliwy na inicjalizacj e centroidów, może zbiegać si e do maksimów nielokalnych, ma zastosowanie do danych liczbowych (obliczanie średnich i odleg lości), problemy z danymi kategorycznymi, problemy ze skupieniami o niewypuk lych kszta ltach, problemy ze skupieniami różniacymi si e wielkościami, problemy ze skupieniami różniacymi si e g estościami. Uczenie nienadzorowane algorytm k-means 17
18 Uczenie nienadzorowane algorytm k-means 18
19 Hierarchiczna analiza skupień Uczenie nienadzorowane hierarchiczna analiza skupień 19
20 Uczenie nienadzorowane hierarchiczna analiza skupień 20
21 Algorytm EM Expectation Maximization Można zastosować podejście podobne do algorytmu k-means na gruncie probabilistycznym. Zak ladajac, że punkty zbioru treningowego należa do K skupień z pewnym losowym rozk ladem prawdopodobieństwa, naturalnie jest przyjać, że te skupienia wynikaja z normalnych rozk ladów prawdopodobieństw, tzw. mieszaniny rozk ladów normalnych albo gausowskich (mixture of Gaussians). Algorytm EM (Expectation Maximization) uczy si e parametrów takiej mieszaniny rozk ladów. Rysunek po lewej przedstawia mieszanin e trzech symulowanych rozk ladów normalnych. Środkowy rysunek przedstawia zbiór punktów wygenerowanych dla tego rozk ladu. Rysunek po prawej przedstawia mieszanin e rozk ladów wyuczona przez algorytm EM. Uczenie nienadzorowane algorytm EM 21
22 Algorytm EM Expectation Maximization (cd.) Zak ladajac, że zmienna C oznacza sk ladowa mieszaniny z wartościa 1,...,K, rozk lad prawdopodobieństwa mieszaniny dany jest wzorem: P(x) = K P(C = i)p(x C = i) i=1 gdzie x jest wektorem atrybutów próbki. Parametrami rozk ladu sa: w i = P(C = i) (waga sk ladowej i), µ i (średnia sk ladowej i), i i (kowariancja sk ladowej i). Idea algorytmu polega na tym, że poczatkowo zak ladamy pewne wartości parametrów powyższego rozk ladu. W każdym cyklu algorytmu, dla każdego punktu obliczane sa prawdopodobieństwa, że należy on do poszczególnych sk ladowych. Nast epnie, przeliczane sa parametry wszystkich sk ladowych na podstawie wszystkich punktów, z wagami b ed acymi prawdopodobieństwami przynależności danego punktu do danej sk ladowej. Te dwa kroki powtarzane sa aż do uzyskania zbieżności algorytmu, podobnie jak w metodzie k-means. Uczenie nienadzorowane algorytm EM 22
23 Algorytm EM: Algorytm EM Expectation Maximization (cd.) Inicjalizacja: ustaw wartości poczatkowe parametrów wszystkich sk ladowych REPEAT { Krok E: Oblicz prawdopodobieństwa p ij = P(C = i x j ), że próbka x j należy do sk ladowej i. Na mocy regu ly Bayesa mamy: p ij = αp(x j C = i)p(c = i). Określamy n i = j p ij, czyli efektywna liczb e punktów aktualnie przypisanych do sk ladowej i. Krok M: Oblicz nowe średnie, kowariancje, i wagi sk ladowych za pomoca nast epuj acych wzorów: µ i j p ij x j /n i Σ i j p ij (x j µ i )(x j µ i ) /n i } w i n i /N Uczenie nienadzorowane algorytm EM 23
24 Algorytm EM Expectation Maximization (cd.) Algorytm EM nie jest wolny od pewnych problemów. Możliwy jest przypadek, kiedy jedna ze sk ladowych zredukuje si e do pojedynczego punktu, z zerowa wariancja i prawdopodobieństwem równym 1. Innym problemem jest na lożenie si e dwóch sk ladowych, które nast epnie wspó ldziela ten sam zbiór punktów. Takie zjawiska prowadza do zbiegni ecia si e algorytmu w lokalnym maksimum. Jest to poważny problem, zw laszcza w wielowymiarowych przestrzeniach. Rozwiazaniem może być reinicjalizacja sk ladowej z nowymi parametrami, podobnie jak w przypadku algorytmu k-means. Uczenie nienadzorowane algorytm EM 24
25 Algorytm PCA (Principal Component Analysis) Algorytm PCA znajduje M-wymiarowe przybliżenie zbioru danych {x n : n = 1,...,N} o wymiarze oryginalnym dim(x n ) = D (M < D): 1. Wyznacz wektor średnich m zbioru próbek o rozmiarze D 1 i macierz kowariancji S o rozmiarze D D: m = 1 N x n, S = 1 N (x n m)(x n m) T. N N 1 n=1 2. Wyznacz wektory w lasne e 1,...,e D macierzy kowariancji S posortowane wed lug malejacych wartości w lasnych wektorów w lasnych. Utwórz macierz E = [e 1,...e M ]. 3. Niskowymiarowa reprezentacja y n, oraz przybliżona rekonstrukcja każdej z próbek x n sa dane przez: y n = E T (x n m), x n m+ey n. n=1 4. Ca lkowity b lad kwadratowy przybliżenia dla zbioru treningowego wynosi: N D (x n y n ) = (N 1) n=1 j=m+1 gdzie λ M+1,...,λ N sa pomini etymi wartościami w lasnymi. λ j Uczenie nienadzorowane Principal Component Analysis 25
26 Uczenie nienadzorowane Principal Component Analysis 26
27 Materia ly W tej prezentacji wykorzystane zosta ly materia ly z nast epuj acych prac: 1. Andrew Ng: Unsupervised learning, Coursera video lecture 2. Stuart J. Russell, Peter Norvig: Artificial Intelligence A Modern Approach (Third Edition), Prentice-Hall, Kevin P. Murphy: Machine Learning A Probabilistic Perspective, MIT Press, 2012 Uczenie nienadzorowane materia ly 27
28 Uczenie nienadzorowane materia ly 28
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Bardziej szczegółowoNormy wektorów i macierzy
Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0,
Bardziej szczegółowoSPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization
Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoWyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera
Wyk lad 7 Metoda eliminacji Gaussa Wzory Cramera Metoda eliminacji Gaussa Metoda eliminacji Gaussa polega na znalezieniu dla danego uk ladu a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n =
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoWNIOSKOWANIE W MODELU REGRESJI LINIOWEJ
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y
Bardziej szczegółowoSuma i przeciȩcie podprzestrzeń, suma prosta, przestrzeń ilorazowa Javier de Lucas
Suma i przeciȩcie podprzestrzeń suma prosta przestrzeń ilorazowa Javier de Lucas Ćwiczenie 1 W zależności od wartości parametru p podaj wymiar przestrzeni W = v 1 v v 3 gdzie p 0 v 1 = 1 + p 3 v = 5 3
Bardziej szczegółowoOddzia lywania miedzycz. jony molekularne lub atomy. edzy A i B:
Notatki do wyk ladu XIII Oddzia lywania miedzycz asteczkowe A i B zamknietopow lokowe czasteczki, jony molekularne lub atomy. Energia oddzia lywania E oddz mi edzy A i B: E oddz = E AB (E A + E B ) ()
Bardziej szczegółowoObliczenia iteracyjne
Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoSYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:
SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ Ewa Madalińska na podstawie prac: [1] Lukaszewicz,W. (1988) Considerations on Default Logic: An Alternative Approach. Computational Intelligence, 44[1],
Bardziej szczegółowoZastosowanie Robotów. Ćwiczenie 6. Mariusz Janusz-Bielecki. laboratorium
Zastosowanie Robotów laboratorium Ćwiczenie 6 Mariusz Janusz-Bielecki Zak lad Informatyki i Robotyki Wersja 0.002.01, 7 Listopada, 2005 Wst ep Do zadań inżynierów robotyków należa wszelkie dzia lania
Bardziej szczegółowoGrupy i cia la, liczby zespolone
Rozdzia l 1 Grupy i cia la, liczby zespolone Dla ustalenia uwagi, b edziemy używać nast epuj acych oznaczeń: N = { 1, 2, 3,... } - liczby naturalne, Z = { 0, ±1, ±2,... } - liczby ca lkowite, W = { m n
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być
Bardziej szczegółowoWYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Bardziej szczegółowo1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL
Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 9.03.2014-3 godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar
Bardziej szczegółowoData Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Bardziej szczegółowo(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach
Rozdzia l 4 Przestrzenie liniowe 4.1 Przestrzenie i podprzestrzenie 4.1.1 Definicja i podstawowe w lasności Niech X z dzia laniem dodawania + b edzie grupa przemienna (abelowa). Oznaczmy przez 0 element
Bardziej szczegółowoZagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka
Zagadnienie Dualne Zadania Programowania Liniowego Seminarium Szkoleniowe Edyta Mrówka Ogólne zagadnienie PL Znajdź taki wektor X = (x 1, x 2,..., x n ), który minimalizuje kombinacje liniow a przy ograniczeniach
Bardziej szczegółowoKarta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2016/2017. Forma studiów: Stacjonarne Kod kierunku: 11.
Państwowa Wyższa Szko la Zawodowa w Nowym Sa czu Karta przedmiotu Instytut Techniczny obowiązuje studentów rozpoczynających studia w roku akademickim 2016/2017 Kierunek studiów: Informatyka Profil: Praktyczny
Bardziej szczegółowoSystemy agentowe. Uwagi organizacyjne i wprowadzenie. Jędrzej Potoniec
Systemy agentowe Uwagi organizacyjne i wprowadzenie Jędrzej Potoniec Kontakt mgr inż. Jędrzej Potoniec Jedrzej.Potoniec@cs.put.poznan.pl http://www.cs.put.poznan.pl/jpotoniec https://github.com/jpotoniec/sa
Bardziej szczegółowoAnaliza głównych składowych- redukcja wymiaru, wykł. 12
Analiza głównych składowych- redukcja wymiaru, wykł. 12 Joanna Jędrzejowicz Instytut Informatyki Konieczność redukcji wymiaru w eksploracji danych bazy danych spotykane w zadaniach eksploracji danych mają
Bardziej szczegółowoAlgorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji
Bardziej szczegółowoOznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji
Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
22 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś
Bardziej szczegółowoStatystyczna analiza danych
Statystyczna analiza danych ukryte modele Markowa, algorytm EM Anna Gambin Instytut Informatyki Uniwersytet Warszawski ńczonymi l łańcuch Markowa Q, zbiór stanów M = (p k,l ) k,l Q, stochastyczna ścia
Bardziej szczegółowoPowtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki.
Powtórzenie wiadomości z rachunku prawdopodobieństwa i statystyki. Zaj ecia 5 Natalia Nehrebeceka 04 maja, 2010 Plan zaj eć 1 Rachunek prawdopodobieństwa Wektor losowy Wartość oczekiwana Wariancja Odchylenie
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoCLUSTERING METODY GRUPOWANIA DANYCH
CLUSTERING METODY GRUPOWANIA DANYCH Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Bardziej szczegółowoWyk ad II. Stacjonarne szeregi czasowe.
Wyk ad II. Stacjonarne szeregi czasowe. W wi ekszości przypadków poszukiwanie modelu, który dok adnie by opisywa zachowanie sk adnika losowego " t, polega na analizie pewnej klasy losowych ciagów czasowych
Bardziej szczegółowoAnaliza zrekonstruowanych śladów w danych pp 13 TeV
Analiza zrekonstruowanych śladów w danych pp 13 TeV Odtwarzanie rozk ladów za pomoc a danych Monte Carlo Jakub Cholewiński, pod opiek a dr hab. Krzysztofa Woźniaka 31 lipca 2015 r. Jakub Cholewiński, pod
Bardziej szczegółowo2. Równania nieliniowe i ich uk lady
Metoda Newtona stycznych dla równania f(x) 0: x n+ x n f(x n) f (x n ) Chcemy rozwia ι zać uk lad N równań dla N niewiadomych f (x,x,,x N ) 0 f (x,x,,x N ) 0, f N (x,x,,x N ) 0 krócej: Czy jest jakaś analogia?
Bardziej szczegółowoMetoda Simplex bez użycia tabel simplex 29 kwietnia 2010
R. Rȩbowski 1 WPROWADZENIE Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010 1 Wprowadzenie Powszechnie uważa siȩ, że metoda simplex, jako uniwersalny algorytm pozwalaj acyznaleźć rozwi azanie optymalne
Bardziej szczegółowoDyskretne modele populacji
Dyskretne modele populacji Micha l Machtel Adam Soboczyński 19 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoCo to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Bardziej szczegółowoRozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.
Rozdzia l 11 Przestrzenie Euklidesowe 11.1 Definicja, iloczyn skalarny i norma Definicja 11.1 Przestrzenia Euklidesowa nazywamy par e { X K,ϕ }, gdzie X K jest przestrzenia liniowa nad K, a ϕ forma dwuliniowa
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VII: Metody specjalne Monte Carlo 24 listopada 2014 Transformacje specjalne Przykład - symulacja rozkładu geometrycznego Niech X Ex(λ). Rozważmy zmienną losową [X ], która przyjmuje wartości naturalne.
Bardziej szczegółowooperacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.
Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoPochodne cz ¾astkowe i ich zastosowanie.
Pochodne cz ¾astkowe i ich zastosowanie. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Pochodne cz ¾astkowe i ich zastosowanie. maj 2013 1 / 18 Zanim przejdziemy do omawiania pochodnych funkcji wielu zmiennych
Bardziej szczegółowo0.1 Sposȯb rozk ladu liczb na czynniki pierwsze
1 Temat 5: Liczby pierwsze Zacznijmy od definicji liczb pierwszych Definition 0.1 Liczbȩ naturaln a p > 1 nazywamy liczb a pierwsz a, jeżeli ma dok ladnie dwa dzielniki, to jest liczbȩ 1 i sam a siebie
Bardziej szczegółowo5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Bardziej szczegółowopo lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)
Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji
Bardziej szczegółowopo lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)
Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji
Bardziej szczegółowoPrzestrzeń algorytmów klastrowania
20 listopada 2008 Plan prezentacji 1 Podstawowe pojęcia Przykłady algorytmów klastrowania 2 Odległość algorytmów klastrowania Odległość podziałów 3 Dane wejściowe Eksperymenty Praca źródłowa Podstawowe
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Bardziej szczegółowoRotacje i drgania czasteczek
Rotacje i drgania czasteczek wieloatomowych Gdy znamy powierzchnie energii potencjalnej V( R 1, R 2,..., R N ) to możemy obliczyć poziomy energetyczne czasteczki. Poziomy te sa w ogólności efektem: rotacji
Bardziej szczegółowo1 Metody rozwiązywania równań nieliniowych. Postawienie problemu
1 Metody rozwiązywania równań nieliniowych. Postawienie problemu Dla danej funkcji ciągłej f znaleźć wartości x, dla których f(x) = 0. (1) 2 Przedział izolacji pierwiastka Będziemy zakładać, że równanie
Bardziej szczegółowoi elektronów w czasteczkach (laboratoryjnym) operator Hamiltona dla czasteczki dwuatomowej (jadra 2M b a i b; m -masa elektronu e 2 r ij
Notatki do wyk ladu IX Rozdzielenie ruchu jader i elektronów w czasteczkach W dowolnym uk ladzie wspó lrzednych (laboratoryjnym) operator Hamiltona dla czasteczki dwuatomowej (jadra a i b)ma postać: Ĥ
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoRedukcja wariancji w metodach Monte-Carlo
14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda
Bardziej szczegółowoDyskretne modele populacji
Dyskretne modele populacji Micha l Machtel Adam Soboczyński 17 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których
Bardziej szczegółowoSpis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Bardziej szczegółowoWyk lad 5 W lasności wyznaczników. Macierz odwrotna
Wyk lad 5 W lasności wyznaczników Macierz odwrotna 1 Operacje elementarne na macierzach Bardzo ważne znaczenie w algebrze liniowej odgrywaja tzw operacje elementarne na wierszach lub kolumnach macierzy
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoUklady modelowe III - rotator, atom wodoru
Wyk lad 5 Uklady modelowe III - rotator, atom wodoru Model Separacja ruchu środka masy R = m 1r 1 + m 2 r 2 m 1 + m 2 Ĥ = Ĥ tr (R) + Ĥ rot (r) Ĥ tr 2 (R) = 2(m 1 + m 2 ) R [ Ψ E tr (R; t) = exp i (k R
Bardziej szczegółowoCzastka swobodna Bariera potencja lu Pud lo jednowymiarowe FEMO Pud la wielowymiarowe. Wyk lad 3. Uk lady modelowe I
Wyk lad 3 Uk lady modelowe I Hamiltonian, równania Schrödingera hamiltonian Ĥ(x) = ˆT (x) = 2 d 2 2m dx 2 równanie Schrödingera zależne od czasu stany stacjonarne 2 2 Ψ(x, t) Ψ(x, t) 2m x 2 = i t dψ E
Bardziej szczegółowoZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Bardziej szczegółowoZaawansowane metody numeryczne
Wykład 11 Ogólna postać metody iteracyjnej Definicja 11.1. (metoda iteracyjna rozwiązywania układów równań) Metodą iteracyjną rozwiązywania { układów równań liniowych nazywamy ciąg wektorów zdefiniowany
Bardziej szczegółowoJak matematyka pomaga w wyszukiwanie wzorca
Jak matematyka pomaga w wyszukiwanie wzorca Artur Jeż 28 września 2011 Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 1 / 18 Wiek nauki Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 2 /
Bardziej szczegółowoModelowanie rynków finansowych z wykorzystaniem pakietu R
Modelowanie rynków finansowych z wykorzystaniem pakietu R Metody numeryczne i symulacje stochastyczne Mateusz Topolewski woland@mat.umk.pl Wydział Matematyki i Informatyki UMK Plan działania 1 Całkowanie
Bardziej szczegółowoUk lady modelowe II - oscylator
Wyk lad 4 Uk lady modelowe II - oscylator Model Prawo Hooke a F = m d 2 x = kx = dv dt2 dx Potencja l Równanie ruchu V = 1 2 kx2 d 2 x dt 2 + k m x = 0 Obraz klasyczny Rozwiazania k x = A sin t = A sin
Bardziej szczegółowoFunkcje dwóch zmiennych
Funkcje dwóch zmiennych Je zeli ka zdemu punktowi P o wspó rzednych x; y) z pewnego obszaru D na p aszczyźnie R 2 przyporzadkujemy w sposób jednoznaczny liczb e rzeczywista z, to przyporzadkowanie to nazywamy
Bardziej szczegółowoAlgorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich
Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i
Bardziej szczegółowoFuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
19 kwietnia 2011 Testy dla dwóch grup 1 Analiza danych dla dwóch grup: test t-studenta dla dwóch grup sparowanych; test t-studenta dla dwóch grup niezależnych (jednakowe wariancje) test Z dla dwóch grup
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
5 marca 2011 Zasady 10 wyk ladów; egzamin pisemny; Literatura 1 A. Lomnicki Wprowadzenie do statystyki dla przyrodników PWN 1999. 2 W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski Rachunek
Bardziej szczegółowoJeden przyk lad... czyli dlaczego warto wybrać MIESI.
Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Micha l Ramsza Szko la G lówna Handlowa Micha l Ramsza (Szko la G lówna Handlowa) Jeden przyk lad... czyli dlaczego warto wybrać MIESI. 1 / 13 Dlaczego
Bardziej szczegółowoPo co maszynowe uczenie?
Po co maszynowe uczenie? Można powiedzieć, że geneza maszynowego uczenia jest dwojaka: sztuczna inteligencja Ludzka inteligencja jest nierozerwalnie zwiazana z uczeniem sie. Każde dzia lanie cz lowieka
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład XV: Zagadnienia redukcji wymiaru danych 2 lutego 2015 r. Standaryzacja danych Standaryzacja danych Własności macierzy korelacji Definicja Niech X będzie zmienną losową o skończonym drugim momencie.
Bardziej szczegółowoMetoda największej wiarygodności
Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany
Bardziej szczegółowoRachunek prawdopodobieństwa 1B; zadania egzaminacyjne.
Rachunek prawdopodobieństwa B; zadania egzaminacyjne.. Niech µ będzie rozkładem probabilistycznym na (0, ) (0, ): µ(b) = l({x (0,) : (x, x) B}), dla B B((0, ) (0, ))), gdzie l jest miarą Lebesgue a na
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja
Bardziej szczegółowoTRANSFORMACJE I JAKOŚĆ DANYCH
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING TRANSFORMACJE I JAKOŚĆ DANYCH Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoRównania ró znicowe wg A. Ostoja - Ostaszewski "Matematyka w ekonomii. Modele i metody".
Równania ró znicowe wg A. Ostoja - Ostaszewski "Matematyka w ekonomii. Modele i metody". Przyk ad. Za ó zmy, ze w chwili t = 0 populacja liczy P 0 osób. Roczny wskaźnik urodzeń wynosi b = 00, a roczna
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład XII: Zagadnienia redukcji wymiaru danych 12 maja 2014 Definicja Niech X będzie zmienną losową o skończonym drugim momencie. Standaryzacją zmiennej X nazywamy zmienną losową Z = X EX Var (X ). Definicja
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoWersja testu D 14 września 2011 r. 1. Czy prawda jest, że a) x Z y Z y 2 = 2 ; b) x Z y Z x 2 = 1 ; c) x Z y Z x 2 = 2 ; d) x Z y Z y 2 = 1?
1. Czy prawda jest, że a) x Z y Z y 2 = 2 ; b) x Z y Z x 2 = 1 ; c) x Z y Z x 2 = 2 ; d) x Z y Z y 2 = 1? 2. Czy prawda jest, że a) 5 8 1 jest podzielne przez 4 ; b) 5 7 1 jest podzielne przez 4 ; c) 3
Bardziej szczegółowoRozkład materiału nauczania
Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2015/2016 Przedmiot: MATEMATYKA Klasa: III 2 godz/tyg 30 = 60 godzin Rozkład materiału nauczania Temat I. LOGARYTMY
Bardziej szczegółowoWYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3
WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 Definicja 1 Przestrzenia R 3 nazywamy zbiór uporzadkowanych trójek (x, y, z), czyli R 3 = {(x, y, z) : x, y, z R} Przestrzeń
Bardziej szczegółowoIteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Bardziej szczegółowoKLASYFIKACJA. Słownik języka polskiego
KLASYFIKACJA KLASYFIKACJA Słownik języka polskiego Klasyfikacja systematyczny podział przedmiotów lub zjawisk na klasy, działy, poddziały, wykonywany według określonej zasady Klasyfikacja polega na przyporządkowaniu
Bardziej szczegółowoRozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach
Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach maja, 7 Rozglądanie się w D Plan Klasyka z brodą: zbiór danych Iris analiza składowych głównych (PCA), czyli redukcja
Bardziej szczegółowoNiesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka
Niesimpleksowe metody rozwia zywania zadań PL Seminarium Szkoleniowe Metoda Simplex: wady i zalety Algorytm SIMPLEX jest szeroko znany i stosowany do rozwi azywania zadań programowania liniowego w praktyce.
Bardziej szczegółowoCMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:
CMAES Covariance Matrix Adaptation Evolution Strategy Opracowanie: Lidia Wojciechowska W algorytmie CMAES, podobnie jak w algorytmie EDA, adaptowany jest rozkład prawdopodobieństwa generacji punktów, opisany
Bardziej szczegółowoWyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera
Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Określenie podpierścienia Definicja 9.. Podpierścieniem pierścienia (P, +,, 0, ) nazywamy taki podzbiór A P, który jest pierścieniem ze wzgledu
Bardziej szczegółowoProgramowanie w języku C++ Agnieszka Nowak Brzezińska Laboratorium nr 2
Programowanie w języku C++ Agnieszka Nowak Brzezińska Laboratorium nr 2 1 program Kontynuujemy program który wczytuje dystans i ilości paliwa zużytego na trasie, ale z kontrolą danych. A więc jeśli coś
Bardziej szczegółowo