Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.
|
|
- Teodor Białek
- 8 lat temu
- Przeglądów:
Transkrypt
1 Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland
2 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych
3 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych
4 Idea Sztuczna sie neuronowa uczona w sposób nadzorowany modykuje swoje dziaªanie za pomoc informacji z zewn trz. Takiej korekty nie dostaje sie uczona w sposób nienadzorowany (bez nauczyciela), która sama wypracowuje funkcje przetwarzania danych np. uporz dkowywania, wykrywania regularno±ci w danych, ich klasykacji, kodowania itd. Metody uczenia nienadzorowanego s wa»nym narz dziem przetwarzania danych w sytuacjach, gdy nie mo»na zorganizowa nadzorowanego procesu uczenia.
5 Przykªadowe zadania, które mog by realizowane przez sieci samoorganizuj ce si : wykrywanie podobie«stwa ocena stopnia podobie«stwa pomi dzy wzorcami (wg wybranego kryterium), analiza skªadowych gªównych jest to metoda redukcji wymiarowo±ci danych, w której wektory wzorców wej±ciowych s rzutowane na najistotniejsze kierunki ich zmian w przestrzeni o zredukowanej liczbie wymiarów, tworzenie map cech porz dkowanie danych wedªug wybranego kryterium podobie«stwa,
6 klasykacja grupowanie danych, w trakcie którego kryterium jest podobie«stwo wybranych cech, okre±lanie prototypu wskazanie typowego reprezentanta grupy, tzw. prototypu, kodowanie wyznaczanie zbioru prototypów o liczno±ci znacznie mniejszej ni» caªy zbiór danych wej±ciowych, zbiór prototypów w mo»liwie jak najlepszy sposób reprezentuje dane wej±ciowe (uzyskuje si efekt kompresji stratnej danych).
7 Idea Jednym z podstawowych sposobów uczenia nienadzorowanego jest tzw. uczenie konkurencyjne (ang. competitive learning). W tej metodzie uczenia sieci, poszczególne neurony konkuruj ze sob o prawo do reprezentacji danych wej±ciowych.
8 Cechy charakterystyczne 1 zwykle sieci skªadaj ce si z jednej warstwy wej±ciowej i jednej warstwy wyj±ciowej, 2 ka»dy neuron jest poª czony ze wszystkim skªadowymi K-wymiarowego wektora wej±ciowego x, 3 neurony liniowe,
9 Winner Takes All W konkurencyjnej metodzie uczenia sieci, tylko jeden element wyj±ciowy mo»e znajdowa si w stanie aktywnym. Nazywany jest on zwyci zc, a schemat takiej reguªy aktywacji neuronów okre±lany jest mianem zwyci zca bierze wszystko (ang. Winner Takes All - WTA). Neuron, który wygraª, jeszcze bardziej jest upodobniany do przykªadu, którym uczymy.
10 Ka»da komórka w warstwie wyj±ciowej jest poª czona ze wszystkimi elementami x k wzorca wej±ciowego x za pomoc poª cze«wagowych, neuron m-ty jest poª czony z warstw wej±ciow za pomoc wektora wag w m = [w m1, w m2,..., w mk ].
11 W wyniku zastosowania takiej struktury poª cze«m-ty neuron warstwy wyj±ciowej sieci otrzymuje sygnaª pobudzenia: y m = K k=1 w mk x k = w T m x, m = 1, 2,..., M, gdzie K dªugo± wzorca, M ilo± neuronów. 1 M 1 K
12 Komórka zwyci ska Komórka zwyci ska warstwy wyj±ciowej sieci, oznaczona indeksem m, jest to neuron otrzymuj cy najsilniejszy sygnaª pobudzenia y m. Zatem dla komórki zwyci skiej speªniona jest nierówno± : w 1 w m* T x>w i T x w T m x > w T m x, m = 1, 2,..., M. A co zyskuje zwyci zca? W procesie samoorganizacji jego wagi s modykowane. w 2 w 3
13 Algorytm uczenia Zakªadamy,»e przykªady ucz ce s znormalizowane. Do uczenia sieci u»ywamy nast puj cego algorytmu: 1 generujemy losowo znormalizowane wektory wag w m dla m = 1, 2,..., M, 2 losujemy wektor x oraz liczymy dla niego aktywacj y m = w T m x, dla wszystkich neuronów m = 1, 2,..., M, nast pnie szukamy neuronu zwyci zcy w m, 3 modykujemy wektor wag zwyci zcy, w m = w m + ηx (w m = w m + η(x w m )), a nast pnie go normalizujemy, 4 zatrzymujemy algorytm po odpowiednio du»ej liczbie iteracji.
14 Modykacja wektora wag w m = w m + ηx w m = w m + η(x w m ) x wold w new x (1- )w old
15 Normalizacja wektorów U»ywaj c normalizacji wektorów, uniemo»liwiamy jednemu wektorowi stanie si tak du»ym,»e mógªby wygrywa wspóªzawodnictwo zbyt cz sto. Konsekwencj byªoby to,»e inne neurony nigdy by nie zwyci»yªy wspóªzawodnictwa i ich wagi nie byªyby modykowane. Takie jednostki s nazywane martwymi.
16 Normalizacja wektorów w 1 w 2
17 Normalizacja wektorów Normalizacja gwarantuje,»e jednostk, która jest zwyci zc dla wektora wej±ciowego, jest ta jednostka, która le»y najbli»ej wektora wej±ciowego (cosinus k ta mi dzy wektorem wej±ciowym a zwyci zc jest najwi kszy). Modykacja wag powoduje,»e wektor wag zostaje przyci gni ty w kierunku wektora wej±ciowego. To znaczy,»e neuron zwyci ski w przyszªo±ci jeszcze silniej b dzie reagowaª na ten wektor wej±ciowy (reguªa Hebba).
18 Normalizacja wektorów w 1 w 2
19 Samoorganizacja i SPL W podanym wy»ej algorytmie przykªad wej±ciowy nie mo»e by z góry klasykowany jako pozytywny albo negatywny wektor tak, jak dzieje si to w algorytmach uczenia dla perceptronu. W powy»szym algorytmie w wyniku nauki wektor wag m-tej jednostki zostaje przyci gni ty w kierunku klastra jednostek wej±ciowych, dla których jego aktywacja jest najwi ksza w±ród wszystkich neuronów.
20 Samoorganizacja i SPL w 3 w 1 w w 2
21 Stopie«podobie«stwa Iloczyn skalarny wskazuje nam stopie«podobie«stwa pomi dzy wektorem wej±ciowym a wektorami wag poszczególnych neuronów. W procesie wyboru zwyci zcy mo»emy u»ywa innych metod do mierzenia podobie«stwa, w szczególno±ci mo»emy u»ywa funkcji odlegªo±ci, wtedy zwyci»a ten neuron, którego wektor wag poªo»ony jest najbli»ej wzgl dem danej metryki od wektora wej±ciowego. Najcz ±ciej u»ywane metryki to: euklidesowa: d(x, w m ) = K (x k w mk ) 2. k=1
22 Normy odlegªo± wzgl dem normy L 1 (odlegªo± Manhattan): K d(x, w m ) = x k w mk, k=1 odlegªo± wzgl dem normy L : d(x, w m ) = max k x k w mk,
23 Stopie«podobie«stwa iloczyn skalarny: d(x, w m ) = x, w m,
24 Odlegªo± Minkowskiego Odlegªo± Minkowskiego jest to uogólniona funkcja odlegªo±ci mi dzy punktami przestrzeni euklidesowej. Nazywana jest równie» odlegªo±ci L m. Wzór na t funkcj w zale»no±ci od m ma posta : K d(x, y) = ( (x k y k ) m ) m 1. k=1
25 Odlegªo± Minkowskiego m=0.5 m=1 m=1.5 m=2 m=4 m=
26 Strefy wpªywów Przy u»yciu metryki euklidesowej przestrze«danych wej±ciowych jest dzielona na strefy dominacji danego neuronu. Zastosowanie innej odlego±ci lub iloczynu skalarnego przy samoorganizacji, ksztaªtuje podziaª stref wpªywów inaczej. Szczególnie nale»y pami ta,»e zastosowanie iloczynu skalarnego bez normalizacji wektorów, mo»e prowadzi do niespójnego podziaªu przestrzeni - tak,»e w jednym obszarze wyst puje kilka neuronów, a w innym nie ma»adnego.
27 Strefy wpªywów norma euklidesowa
28 Strefy wpªywów iloczyn skalarny
29 Kwantowanie wektorowe danych Celem uczenia sieci samoorganizuj cych si przez konkurencj neuronów jest takie uporz dkowanie neuronów (dobór warto±ci ich wag), które zminimalizuje warto± oczekiwan bª du popeªnionego przy aproksymacji wektora wej±ciowego x warto±ciami wag neuronu zwyci»aj cego w konkurencji. Przy N wektorach wej±ciowych i zastosowaniu normy euklidesowej bª d ten mo»e by wyra»ony wzorem: E = 1 N x n W w(n), N n=1 w którym W w(n) jest wag neuronu zwyci»aj cego przy prezentacji wektora x n.
30 Kwantowanie wektorowe danych Zadanie to jest równie» zwane kwantowaniem wektorowym. Numery neuronów zwyci»aj cych przy kolejnych prezentacjach wektorów tworz tak zwan ksi»k kodow. Przestrze«danych podzielona jest, w efekcie stosowania takiej reguªy, tzw. mozaik Voronoi wyznaczaj c obszary klas.
31 Mozaika Veronoi
32 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych
33 Idea Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Kohonen zaproponowaª reguª uczenia konkurencyjnego, w której, w odró»nieniu od reguªy standardowej, modykacji wag dokonuje si nie tylko dla neuronu zwyci skiego, lecz równie» dla pewnej liczby neuronów z jego s siedztwa. S siedztwem tym s inne neurony le» ce blisko danej jednostki w strukturze grafowej neuronów.
34 Winner Takes Most Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Dlaczego WTA nie wystarcza? Taka reguªa adaptacji powoduje,»e algorytm sªabo zbiega. Reguªa, w której modykuje si nie tylko wagi zwyci zcy, ale równie» jego s siadów, jest zwana reguª WTM (Winer Takes Most). W praktyce reguªa WTA zostaªa zast piona reguª WTM.
35 Reprezentacja sieci Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Dana jest sie neuronowa modelowana przy pomocy grafu nieskierowanego H = (V, E), gdzie V jest zbiorem wierzchoªków (neuronów), za± E zbiorem kraw dzi. Dla ka»dego wierzchoªka v V okre±lamy tak zwane s siedztwo s(v) = {u V (v, u) E}. Zaªó»my ponadto,»e mamy pewn ilo± obiektów (przykªadów) opisywanych punktami przestrzeni R d.
36 Topologie sieci Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena
37 Cele Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Stawiamy sobie nast puj ce cele: ka»demu neuronowi chcemy przypisa d wag (reprezentuj cych wspóªrz dne pewnego punktu w R d ), powy»sze przypisanie ma odpowiada rozkªadowi przestrzennemu przykªadów (tzn. je»eli w danej okolicy jest du»o przykªadów, powinno do niej zosta przypisanych wiele neuronów), przypisanie ma odpowiada strukturze topologicznej grafu, tzn. s siaduj ce ze sob neurony powinny traa w niedaleko od siebie poªo»one obszary R d.
38 Cele Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena
39 Algorytm - zaªo»enia wst pne Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Niech dany b dzie zbiór przykªadów P = {P 1,...P N } R d. Ka»demu neuronowi v V przypisujemy wektor wag π(v) R d.
40 Algorytm Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 wybieramy pewn liczb T oznaczaj c liczb powtórze«algorytmu, 2 losujemy wagi przy wszystkich neuronach, 3 dla t = 1..T wykonujemy: 1 losujemy przykªad P, 2 znajdujemy jednostk v V, której zestaw wag π(v) le»y najbli»ej P, 3 dla neuronu zwyci zcy i wszystkich neuronów z jego s siedztwa s(v) wykonujemy: π(w) = π(w) + α(t)(p π(w)),
41 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena α(t) jest funkcj o warto±ciach dodatnich, malej c w kolejnych iteracjach algorytmu, na przykªad α(t) = 1 t 1 T,
42 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Do algorytmu mo»na wprowadza modykacje, które w znacznym stopniu mog poprawi jego dziaªanie. Bardzo cz sto inaczej deniuje si s siedztwo s(v) i wprowadza drobne zmiany w sposobie uaktualniania wag.
43 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena W rozszerzonej wersji algorytmu Kohonena s siedztwem dla neuronu zwyci zcy v jest zbiór: s(v) = {u W ρ(u, v) λ}, gdzie ρ(u, v) jest to dªugo± najkrótszej ±cie»ki pomi dzy wierzchoªkami u i v. Natomiast λ jest to tak zwany promie«s siedztwa, dodatni parametr algorytmu, pocz tkowo jego warto± powinna by taka,»e s siedztwo mo»e obejmowa wi cej ni» poªow z ogólnej liczby neuronów. Parametr λ nale»y zmniejsza w czasie uczenia tak, by w ko«cowej fazie uczenia s siedztwo byªo puste i modykacji podlegaª tylko neuron zwyci zcy.
44 Rozszerzony algorytm Kohonena Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 wybieramy pewn liczb T oznaczaj c liczb powtórze«algorytmu, 2 losujemy wagi przy wszystkich neuronach, 3 dla t = 1..T wykonujemy: 1 losujemy przykªad P, 2 znajdujemy jednostk v V, której zestaw wag π(v) le»y najbli»ej P, 3 dla neuronu zwyci zcy i wszystkich neuronów z jego s siedztwa s(v) wykonujemy π(w) = π(w) + α(t)g(w, v)(p π(w)),
45 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena G(w, v) jest to tak zwana funkcja s siedztwa, ma ona warto±ci dodatnie, jej przykªadowe postacie to: kwadratowa funkcja s siedztwa, gdzie: { 1 ρ(w, v) λ G(w, v) = 0 w p. p. gaussowska funkcja s siedztwa, gdzie: G(w, v) = exp( ρ2 (w, v) 2λ 2 ).
46 Kwadratowa funkcja s siedztwa Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena
47 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Gaussowska funkcja s siedztwa dla rosn cej λ kliknij
48 Funkcja s siedztwa - mexican hat Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena
49 Funkcja s siedztwa - mexican hat Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Wzór na t funkcj ma posta : gdzie λ 1 < λ 2. MH(v, w) = 2exp( ρ2 (v, w) 2λ 2 1 ) exp( ρ2 (v, w) ), 2λ 2 2
50 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Zastosowanie w mapach Kohonena s siedztwa gaussowskiego i zmiennego wspóªczynnika adaptacji powinno poprawi rezultaty uczenia i organizacj sieci.
51 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez algorytm Kohonena na trzech ±cianach (o wspólnym wierzchoªku) sze±cianu.
52 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez rozszerzony algorytm Kohonena na trzech ±cianach (o wspólnym wierzchoªku) sze±cianu. W algorytmie zastosowano gaussowsk funkcj s siedztwa.
53 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez algorytm Kohonena na powierzchni kuli.
54 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez rozszerzony algorytm Kohonena na powierzchni kuli. W algorytmie zastosowano gaussowsk funkcj s siedztwa.
55 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Zªy dobór parametrów mo»e mie wpªyw na to,»e sie nie osi gnie po» danej zbie»no±ci. Na przykªad je±li stopie«adaptacji α(t) b dzie miaª za maªe warto±ci, mo»e powsta w zeª, który si nie rozwi»e.
56 Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Wizualizacja danych za pomoc danej struktury przestrzennej (zadajej przez graf) w innym wymiarze (przykªady s wtedy rozªo»one jednostajnie na obszarze reprezentacji) przej±cie do wy»szego wymiaru (np. krzywa wypeªniaj ca przestrze«), przej±cie do ni»szego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odlegªo±ci).
57 Przej±cie do wy»szego wymiaru Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Rysunek za Stanisªaw Ossowski, Sieci neuronowe w uj ciu algorytmicznym.
58 Przej±cie do ni»szego wymiaru Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena
59 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych
60 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Dane Odwzorowanie Sammona pozwala na graczne przedstawienie danych wielowymiarowych w przestrzeni o mniejszej liczbie wymiarów. Zaªo»enia: danych jest N wektorów K-wymiarowych x n (n = 1, 2,..., N) i odpowiednio do nich deniuje si N wektorów w przestrzeni L-wymiarowej (L = 2, 3) oznaczonych przez y n, odlegªo±ci pomi dzy poszczególnymi wektorami w przestrzeni K-wymiarowej oznaczono przez d nm = d(n, m), odlegªo±ci pomi dzy poszczególnymi wektorami w przestrzeni L-wymiarowej oznaczono przez d nm = d(n, m), do okre±lenia odlegªo±ci mi dzy wektorami mo»na zastosowa dowoln metryk, w szczególno±ci euklidesow.
61 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Idea Zadanie odwzorowania nieliniowego Sammona polega na takim doborze wektorów y, aby zminimalizowa funkcj bª du E zdeniowan w postaci: E = 1 m<n N (d nm d nm ) 2. d nm Do optymalizacji tej funkcji u»ywa si algorytmów gradientowych.
62 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Zaªo»enia Dane: Sie H = (V, E), zbiór danych symbolicznych x wraz z funkcj odlegªo±ci d. Powinno zachodzi : d(x, x) = 0, d(x, y) = d(y, x) 0.
63 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Mediana uogólniona Mediana uogólniona zbioru {a 1,..., a n } element a i, który minimalizuje j d 2 (a i, a j ).
64 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Algorytm Kohonena dla wej± symbolicznych 1 przypisz w zªom losowe prototypy, 2 powtarzaj wiele razy: ka»demu wierzchoªkowi w przypisz list takich przykªadów,»e prototyp p(w) jest do nich najbli»szy, ka»demu wierzchoªkowi w przypisz nowy prototyp median uogólnion z listy klasykacyjnej w i list s siadów w, wyczy± listy klasykacyjne, 3 zwró sie.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.
Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń,
Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego
Uczenie Wielowarstwowych Sieci Neuronów o
Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji
Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.
Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-23
Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe
Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-18-02 Motywacja Liczby
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania
WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie
Metody bioinformatyki (MBI)
Metody bioinformatyki (MBI) Wykªad 9 - mikromacierze DNA, analiza danych wielowymiarowych Robert Nowak 2016Z Metody bioinformatyki (MBI) 1/42 mikromacierze DNA Metoda badawcza, pozwalaj ca bada obecno±
Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.
Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING
AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady
c Marcin Sydow Spójno± Grafy i Zastosowania Grafy Eulerowskie 2: Drogi i Cykle Grafy Hamiltonowskie Podsumowanie
2: Drogi i Cykle Spis Zagadnie«drogi i cykle spójno± w tym sªaba i silna k-spójno± (wierzchoªkowa i kraw dziowa) dekompozycja grafu na bloki odlegªo±ci w grae i poj cia pochodne grafy Eulera i Hamiltona
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z grupowania danych - Rough k-medoids Liczba osób realizuj cych projekt: 1 osoba 1. Wczytanie danych w formatach
WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14
WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14 Spis tre±ci 1 Kodowanie i dekodowanie 4 1.1 Kodowanie a szyfrowanie..................... 4 1.2 Podstawowe poj cia........................
XVII Warmi«sko-Mazurskie Zawody Matematyczne
1 XVII Warmi«sko-Mazurskie Zawody Matematyczne Kategoria: klasa VIII szkoªy podstawowej i III gimnazjum Olsztyn, 16 maja 2019r. Zad. 1. Udowodnij,»e dla dowolnych liczb rzeczywistych x, y, z speªniaj cych
r = x x2 2 + x2 3.
Przestrze«aniczna Def. 1. Przestrzeni aniczn zwi zan z przestrzeni liniow V nazywamy dowolny niepusty zbiór P z dziaªaniem ω : P P V (które dowolnej parze elementów zbioru P przyporz dkowuje wektor z przestrzeni
Lab. 02: Algorytm Schrage
Lab. 02: Algorytm Schrage Andrzej Gnatowski 5 kwietnia 2015 1 Opis zadania Celem zadania laboratoryjnego jest zapoznanie si z jednym z przybli»onych algorytmów sªu» cych do szukania rozwi za«znanego z
WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14
WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 203/4 Spis tre±ci Kodowanie i dekodowanie 4. Kodowanie a szyfrowanie..................... 4.2 Podstawowe poj cia........................
Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.
Relacje 1 Relacj n-argumentow nazywamy podzbiór ϱ X 1 X 2... X n. Je±li ϱ X Y jest relacj dwuargumentow (binarn ), to zamiast (x, y) ϱ piszemy xϱy. Relacj binarn okre±lon w zbiorze X nazywamy podzbiór
ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15
ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku
1 Metody iteracyjne rozwi zywania równania f(x)=0
1 Metody iteracyjne rozwi zywania równania f()=0 1.1 Metoda bisekcji Zaªó»my,»e funkcja f jest ci gªa w [a 0, b 0 ]. Pierwiastek jest w przedziale [a 0, b 0 ] gdy f(a 0 )f(b 0 ) < 0. (1) Ustalmy f(a 0
Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.
Wydziaª Matematyki, Fizyki i Informatyki 10 marca 2008 Spis tre±ci Listy 1 Listy 2 3 Co to jest lista? Listy List w Mathematice jest wyra»enie oddzielone przecinkami i zamkni te w { klamrach }. Elementy
c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach
12: w sieciach Spis zagadnie«sieci przepªywowe przepªywy w sieciach ±cie»ka powi kszaj ca tw. Forda-Fulkersona Znajdowanie maksymalnego przepªywu Zastosowania przepªywów Sieci przepªywowe Sie przepªywowa
Wykªad 4. Funkcje wielu zmiennych.
Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 4. Funkcje wielu zmiennych. Zbiory na pªaszczy¹nie i w przestrzeni.
1 Bª dy i arytmetyka zmiennopozycyjna
1 Bª dy i arytmetyka zmiennopozycyjna Liczby w pami ci komputera przedstawiamy w ukªadzie dwójkowym w postaci zmiennopozycyjnej Oznacza to,»e s one postaci ±m c, 01 m < 1, c min c c max, (1) gdzie m nazywamy
Wektory w przestrzeni
Wektory w przestrzeni Informacje pomocnicze Denicja 1. Wektorem nazywamy uporz dkowan par punktów. Pierwszy z tych punktów nazywamy pocz tkiem wektora albo punktem zaczepienia wektora, a drugi - ko«cem
Teoria grafów i jej zastosowania. 1 / 126
Teoria grafów i jej zastosowania. 1 / 126 Mosty królewieckie W Królewcu, na rzece Pregole znajduj si dwie wyspy poª czone ze sob, a tak»e z brzegami za pomoc siedmiu mostów, tak jak pokazuje rysunek 2
Metody numeryczne i statystyka dla in»ynierów
Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci
Elementy geometrii w przestrzeni R 3
Elementy geometrii w przestrzeni R 3 Z.Šagodowski Politechnika Lubelska 29 maja 2016 Podstawowe denicje Wektorem nazywamy uporz dkowan par punktów (A,B) z których pierwszy nazywa si pocz tkiem a drugi
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału
Aproksymacja funkcji metod najmniejszych kwadratów
Aproksymacja funkcji metod najmniejszych kwadratów Teoria Interpolacja polega na znajdowaniu krzywej przechodz cej przez wszystkie w zªy. Zdarzaj si jednak sytuacje, w których dane te mog by obarczone
AM II /2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium
AM II.1 2018/2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium Normy w R n, iloczyn skalarny sprawd¹ czy dana funkcja jest norm sprawd¹, czy dany zbiór jest kul w jakiej± normie i oblicz norm wybranego
i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017
i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski Uniwersytet Šódzki, Wydziaª Matematyki i Informatyki UŠ piotr@fulmanski.pl http://fulmanski.pl/zajecia/prezentacje/festiwalnauki2017/festiwal_wmii_2017_
PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:
Plan Spis tre±ci 1 Homomorzm 1 1.1 Macierz homomorzmu....................... 2 1.2 Dziaªania............................... 3 2 Ukªady równa«6 3 Zadania 8 1 Homomorzm PRZYPOMNIENIE Ka»d przestrze«wektorow
Podstawy modelowania w j zyku UML
Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 8 Diagram pakietów I Diagram pakietów (ang. package diagram) jest diagramem strukturalnym,
A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.
Logika i teoria mnogo±ci, konspekt wykªad 12 Teoria mocy, cz ± II Def. 12.1 Ka»demu zbiorowi X przyporz dkowujemy oznaczany symbolem X obiekt zwany liczb kardynaln (lub moc zbioru X) w taki sposób,»e ta
Algorytm propagacji wstecznej
Algorytm propagacji wstecznej M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-16 Powtórzenie Architektury sieci Dlacezgo MLP? W sieciach
Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja
Macierze 1 Podstawowe denicje Macierz wymiaru m n, gdzie m, n N nazywamy tablic liczb rzeczywistych (lub zespolonych) postaci a 11 a 1j a 1n A = A m n = [a ij ] m n = a i1 a ij a in a m1 a mj a mn W macierzy
Wst p do sieci neuronowych, wykªad 05a Algorytm wstecznej propagacji bª du
Wst p do sieci neuronowych, wykªad 05a M. Czoków, J. Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2012-11-14 Projekt pn. Wzmocnienie potencjaªu dydaktycznego UMK w
Teoria grafów i sieci 1 / 58
Teoria grafów i sieci 1 / 58 Literatura 1 B.Korte, J.Vygen, Combinatorial optimization 2 D.Jungnickel, Graphs, Networks and Algorithms 3 M.Sysªo, N.Deo Metody optymalizacji dyskretnej z przykªadami w Turbo
JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1
J zyki formalne i operacje na j zykach J zyki formalne s abstrakcyjnie zbiorami sªów nad alfabetem sko«czonym Σ. J zyk formalny L to opis pewnego problemu decyzyjnego: sªowa to kody instancji (wej±cia)
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne
Arkusz maturalny Šukasz Dawidowski Powtórki maturalne 25 kwietnia 2016r. Odwrotno±ci liczby rzeczywistej 1. 9 8 2. 0, (1) 3. 8 9 4. 0, (8) 3 4 4 4 1 jest liczba Odwrotno±ci liczby rzeczywistej 3 4 4 4
. 0 0... 1 0. 0 0 0 0 1 gdzie wektory α i tworz baz ortonormaln przestrzeni E n
GAL II 2013-2014 A. Strojnowski str.45 Wykªad 20 Denicja 20.1 Przeksztaªcenie aniczne f : H H anicznej przestrzeni euklidesowej nazywamy izometri gdy przeksztaªcenie pochodne f : T (H) T (H) jest izometri
Wst p do sieci neuronowych, wykªad 4 Algorytm wstecznej propagacji bª du, cz. 1
Wst p do sieci neuronowych, wykªad 4, cz. 1 M. Czoków, J. Piersa, A. Rutkowski Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2018-10-28 Projekt pn. Wzmocnienie potencjaªu dydaktycznego
Grafy. Andrzej Jastrz bski. Akademia ET I. Politechnika Gda«ska
Andrzej Jastrz bski Akademia ET I Graf Grafem nazywamy par G = (V, E), gdzie V to zbiór wierzchoªków, E zbiór kraw dzi taki,»e E {{u, v} : u, v V u v}. Wierzchoªki v, u V s s siaduj ce je±li s poª czone
Szeregowanie zada« Wykªad nr 5. dr Hanna Furma«czyk. 4 kwietnia 2013
Wykªad nr 5 4 kwietnia 2013 Procesory dedykowane Przypomnienie: zadania s podzielone na operacje (zadanie Z j skªada si z operacji O ij do wykonania na maszynach M i, o dªugo±ciach czasowych p ij ); zadanie
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Elementy geometrii analitycznej w przestrzeni
Wykªad 3 Elementy geometrii analitycznej w przestrzeni W wykªadzie tym wi kszy nacisk zostaª poªo»ony raczej na intuicyjne rozumienie deniowanych poj, ni» ±cisªe ich zdeniowanie. Dlatego niniejszy wykªad
Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.
Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Poni»sze zadania s wyborem zada«z kolokwiów ze Wst pu do Informatyki jakie przeprowadziªem w ci gu ostatnich lat. Marek Zawadowski Zadanie 1 Napisz
Metody dowodzenia twierdze«
Metody dowodzenia twierdze«1 Metoda indukcji matematycznej Je±li T (n) jest form zdaniow okre±lon w zbiorze liczb naturalnych, to prawdziwe jest zdanie (T (0) n N (T (n) T (n + 1))) n N T (n). 2 W przypadku
Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na.
Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA Zadanko 1 (12p.) Na imprezie w Noc Kupaªy s 44 dziewczyny. Nosz one 11 ró»nych imion, a dla ka»dego imienia s dokªadnie 4 dziewczyny o tym imieniu przy czym ka»da
Wykªad 1. Wprowadzenie do teorii grafów
Wykªad 1. Wprowadzenie do teorii grafów 1 / 112 Literatura 1 W. Lipski; Kombinatoryka dla programistów. 2 T. Cormen, Ch. E. Leiserson, R. L. Rivest; Wprowadzenie do algorytmów. 3 K. A. Ross, Ch. R. B.
Funkcja kwadratowa, wielomiany oraz funkcje wymierne
Funkcja kwadratowa, wielomiany oraz funkcje wymierne Šukasz Dawidowski Nocne powtórki maturalne 28 kwietnia 2014 r. Troch teorii Funkcj f : R R dan wzorem: f (x) = ax 2 + bx + c gdzie a 0 nazywamy funkcj
Statystyka matematyczna
Statystyka matematyczna Aleksandra Ki±lak-Malinowska akis@uwm.edu.pl http://wmii.uwm.edu.pl/ akis/ Czym zajmuje si statystyka? Statystyka zajmuje si opisywaniem i analiz zjawisk masowych otaczaj cej czªowieka
Podstawowe algorytmy grafowe i ich zastosowania
Podstawowe algorytmy grafowe i ich zastosowania Autor projektu: dr Andrzej Mróz (UMK) Projekt pn. Wzmocnienie potencjaªu dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany
Ekstremalnie fajne równania
Ekstremalnie fajne równania ELEMENTY RACHUNKU WARIACYJNEGO Zaczniemy od ogólnych uwag nt. rachunku wariacyjnego, który jest bardzo przydatnym narz dziem mog cym posªu»y do rozwi zywania wielu problemów
1 Klasy. 1.1 Denicja klasy. 1.2 Skªadniki klasy.
1 Klasy. Klasa to inaczej mówi c typ który podobnie jak struktura skªada si z ró»nych typów danych. Tworz c klas programista tworzy nowy typ danych, który mo»e by modelem rzeczywistego obiektu. 1.1 Denicja
2 Liczby rzeczywiste - cz. 2
2 Liczby rzeczywiste - cz. 2 W tej lekcji omówimy pozostaªe tematy zwi zane z liczbami rzeczywistymi. 2. Przedziaªy liczbowe Wyró»niamy nast puj ce rodzaje przedziaªów liczbowych: (a) przedziaªy ograniczone:
Podstawy modelowania w j zyku UML
Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 2 Zwi zki mi dzy klasami Asocjacja (ang. Associations) Uogólnienie, dziedziczenie (ang.
Ÿ1 Oznaczenia, poj cia wst pne
Ÿ1 Oznaczenia, poj cia wst pne Symbol sumy, j, k Z, j k: k x i = x j + x j+1 + + x k. i=j Przykªad 1.1. Oblicz 5 i=1 2i. Odpowied¹ 1.1. 5 i=1 2i = 2 1 + 2 2 + 2 3 + 2 4 + 2 5 = 2 + 4 + 8 + 16 + 32 = 62.
Ekonometria Bayesowska
Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych
Opis matematyczny ukªadów liniowych
Rozdziaª 1 Opis matematyczny ukªadów liniowych Autorzy: Alicja Golnik 1.1 Formy opisu ukªadów dynamicznych 1.1.1 Liniowe równanie ró»niczkowe Podstawow metod przedstawienia procesu dynamicznego jest zbiór
Modele wielorównaniowe. Problem identykacji
Modele wielorównaniowe. Problem identykacji Ekonometria Szeregów Czasowych SGH Identykacja 1 / 43 Plan wykªadu 1 Wprowadzenie 2 Trzy przykªady 3 Przykªady: interpretacja 4 Warunki identykowalno±ci 5 Restrykcje
Macierz A: macierz problemów liniowych (IIII); Macierz rozszerzona problemów liniowych (IIII): a 11 a 1m b 1 B = a n1 a nm b n
Plan Spis tre±ci 1 Problemy liniowe 1 2 Zadania I 3 3 Formy biliniowe 3 3.1 Odwzorowania wieloliniowe..................... 3 3.2 Formy biliniowe............................ 4 4 Formy kwadratowe 4 1 Problemy
1 Poj cia pomocnicze. Przykªad 1. A A d
Poj cia pomocnicze Otoczeniem punktu x nazywamy dowolny zbiór otwarty zawieraj cy punkt x. Najcz ±ciej rozwa»amy otoczenia kuliste, tj. kule o danym promieniu ε i ±rodku x. S siedztwem punktu x nazywamy
Macierze i Wyznaczniki
Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja 1. Tablic nast puj cej postaci a 11 a 12... a 1n a 21 a 22... a 2n A =... a m1 a m2... a mn nazywamy macierz o m wierszach i n kolumnach,
Macierze i Wyznaczniki
dr Krzysztof yjewski Mechatronika; S-I.in». 5 pa¹dziernika 6 Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja. Tablic nast puj cej postaci a a... a n a a... a n A =... a m a m...
Wst p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne.
Wst p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne. Maja Czoków, Jarosªaw Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika 2012-11-21 Projekt pn.
a) f : R R R: f(x, y) = x 2 y 2 ; f(x, y) = 3xy; f(x, y) = max(xy, xy); b) g : R 2 R 2 R: g((x 1, y 1 ), (x 2, y 2 )) = 2x 1 y 1 x 2 y 2 ;
Zadania oznaczone * s troch trudniejsze, co nie oznacza,»e trudne.. Zbadaj czy funkcjonaª jest dwuliniowy, symetryczny, antysymetryczny, dodatniookre±lony: a) f : R R R: f(x, y) = x y ; f(x, y) = 3xy;
Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow
Plan dyskretny perceptron i jego ograniczenia inne funkcje aktywacji wielo-klasykacja przy pomocy jedno-warstwowe sieci neuronowej ograniczenia jedno-warstwowej sieci neuronowej miary ewaluacyjne dla klasykacji
Obliczenia inteligentne Zadanie 4
Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część
Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych
Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdziaª 9 RÓWNANIA ELIPTYCZNE 9.1 Zastosowanie eliptycznych równa«ró»niczkowych cz stkowych 9.1.1 Problemy z warunkami brzegowymi W przestrzeni dwuwymiarowej
Listy i operacje pytania
Listy i operacje pytania Iwona Polak iwona.polak@us.edu.pl Uniwersytet l ski Instytut Informatyki pa¹dziernika 07 Który atrybut NIE wyst puje jako atrybut elementów listy? klucz elementu (key) wska¹nik
O pewnym zadaniu olimpijskim
O pewnym zadaniu olimpijskim Michaª Seweryn, V LO w Krakowie opiekun pracy: dr Jacek Dymel Problem pocz tkowy Na drugim etapie LXII Olimpiady Matematycznej pojawiª si nast puj cy problem: Dla ka»dej liczby
Algorytmy i Struktury Danych
Lista zada«. Nr 4. 9 kwietnia 2016 IIUWr. II rok informatyki. Algorytmy i Struktury Danych 1. (0pkt) Rozwi» wszystkie zadania dodatkowe. 2. (1pkt) Uªó» algorytm znajduj cy najta«sz drog przej±cia przez
wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia
wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. wiczenia 1 2 do wiczenia 3 4 Badanie do±wiadczalne 5 pomiarów 6 7 Cel Celem wiczenia jest zapoznanie studentów z etapami przygotowania i
STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH
STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH WYKŠAD 4 03 listopad 2014 1 / 47 Plan wykªadu 1. Testowanie zaªo»e«o proporcjonalnym hazardzie w modelu Cox'a 2. Wybór zmiennych do modelu Cox'a 3. Meta analiza
Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
I Rok LOGISTYKI: wykªad 2 Pochodna funkcji. iloraz ró»nicowy x y x
I Rok LOGISTYKI: wykªad 2 Pochodna funkcji Niech f jest okre±lona w Q(x 0, δ) i x Q(x 0, δ). Oznaczenia: x = x x 0 y = y y 0 = f(x 0 + x) f(x 0 ) y x = f(x 0 + x) f(x 0 ) iloraz ró»nicowy x y x = tgβ,
CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski
III. CAŠKOWAIE METODAMI MOTE CARLO Janusz Adamowski 1 1 azwa metody Podstawowym zastosowaniem w zyce metody Monte Carlo (MC) jest opis zªo-»onych ukªadów zycznych o du»ej liczbie stopni swobody. Opis zªo»onych
MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH
MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH Urszula Fory± Zakªad Biomatematyki i Teorii Gier, Instytut Matematyki Stosowanej i Mechaniki, Wydziaª
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY
Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z wyznaczania reduktów zbioru Liczba osób realizuj cych projekt: 1-2 osoby 1. Wczytanie danych w formatach arf,
Stereometria (geometria przestrzenna)
Stereometria (geometria przestrzenna) Wzajemne poªo»enie prostych w przestrzeni Stereometria jest dziaªem geometrii, którego przedmiotem bada«s bryªy przestrzenne oraz ich wªa±ciwo±ci. Na pocz tek omówimy
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
Sztuczna inteligencja
Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury
Zbiory i odwzorowania
Zbiory i odwzorowania 1 Sposoby okre±lania zbiorów 1) Zbiór wszystkich elementów postaci f(t), gdzie t przebiega zbiór T : {f(t); t T }. 2) Zbiór wszystkich elementów x zbioru X speªniaj cych warunek ϕ(x):
Lekcja 9 - LICZBY LOSOWE, ZMIENNE
Lekcja 9 - LICZBY LOSOWE, ZMIENNE I STAŠE 1 Liczby losowe Czasami spotkamy si z tak sytuacj,»e b dziemy potrzebowa by program za nas wylosowaª jak ± liczb. U»yjemy do tego polecenia: - liczba losowa Sprawd¹my
Funkcje wielu zmiennych
Funkcje wielu zmiennych Informacje pomocnicze Denicja 1 Niech funkcja f(x, y) b dzie okre±lona przynajmniej na otoczeniu punktu (x 0, y 0 ) Pochodn cz stkow pierwszego rz du funkcji dwóch zmiennych wzgl
Funkcje, wielomiany. Informacje pomocnicze
Funkcje, wielomiany Informacje pomocnicze Przydatne wzory: (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a b) 3 = a 3 3a 2 b + 3ab 2 b 3 a 2 b 2 = (a + b)(a
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski
Twierdzenie Wainera Marek Czarnecki Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 3 lipca 2009 Motywacje Dla dowolnej
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
Indeksowane rodziny zbiorów
Logika i teoria mnogo±ci, konspekt wykªad 7 Indeksowane rodziny zbiorów Niech X b dzie przestrzeni zbiorem, którego podzbiorami b d wszystkie rozpatrywane zbiory, R rodzin wszystkich podzbiorów X za± T
ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15
ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska
MiASI Modelowanie systemów informatycznych Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 18 stycznia 2010 Spis tre±ci 1 Analiza systemu informatycznego Poziomy analizy 2
Statystyka opisowa. Wykªad II. Elementy statystyki opisowej. Edward Kozªowski.
Statystyka opisowa. Wykªad II. e-mail:e.kozlovski@pollub.pl Spis tre±ci Mediana i moda 1 Mediana i moda 2 3 4 Mediana i moda Median m e (warto±ci ±rodkow ) próbki x 1,..., x n nazywamy ±rodkow liczb w