Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane."

Transkrypt

1 Wst p do sieci neuronowych, wykªad 7 Uczenie nienadzorowane. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland

2 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych

3 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych

4 Idea Sztuczna sie neuronowa uczona w sposób nadzorowany modykuje swoje dziaªanie za pomoc informacji z zewn trz. Takiej korekty nie dostaje sie uczona w sposób nienadzorowany (bez nauczyciela), która sama wypracowuje funkcje przetwarzania danych np. uporz dkowywania, wykrywania regularno±ci w danych, ich klasykacji, kodowania itd. Metody uczenia nienadzorowanego s wa»nym narz dziem przetwarzania danych w sytuacjach, gdy nie mo»na zorganizowa nadzorowanego procesu uczenia.

5 Przykªadowe zadania, które mog by realizowane przez sieci samoorganizuj ce si : wykrywanie podobie«stwa ocena stopnia podobie«stwa pomi dzy wzorcami (wg wybranego kryterium), analiza skªadowych gªównych jest to metoda redukcji wymiarowo±ci danych, w której wektory wzorców wej±ciowych s rzutowane na najistotniejsze kierunki ich zmian w przestrzeni o zredukowanej liczbie wymiarów, tworzenie map cech porz dkowanie danych wedªug wybranego kryterium podobie«stwa,

6 klasykacja grupowanie danych, w trakcie którego kryterium jest podobie«stwo wybranych cech, okre±lanie prototypu wskazanie typowego reprezentanta grupy, tzw. prototypu, kodowanie wyznaczanie zbioru prototypów o liczno±ci znacznie mniejszej ni» caªy zbiór danych wej±ciowych, zbiór prototypów w mo»liwie jak najlepszy sposób reprezentuje dane wej±ciowe (uzyskuje si efekt kompresji stratnej danych).

7 Idea Jednym z podstawowych sposobów uczenia nienadzorowanego jest tzw. uczenie konkurencyjne (ang. competitive learning). W tej metodzie uczenia sieci, poszczególne neurony konkuruj ze sob o prawo do reprezentacji danych wej±ciowych.

8 Cechy charakterystyczne 1 zwykle sieci skªadaj ce si z jednej warstwy wej±ciowej i jednej warstwy wyj±ciowej, 2 ka»dy neuron jest poª czony ze wszystkim skªadowymi K-wymiarowego wektora wej±ciowego x, 3 neurony liniowe,

9 Winner Takes All W konkurencyjnej metodzie uczenia sieci, tylko jeden element wyj±ciowy mo»e znajdowa si w stanie aktywnym. Nazywany jest on zwyci zc, a schemat takiej reguªy aktywacji neuronów okre±lany jest mianem zwyci zca bierze wszystko (ang. Winner Takes All - WTA). Neuron, który wygraª, jeszcze bardziej jest upodobniany do przykªadu, którym uczymy.

10 Ka»da komórka w warstwie wyj±ciowej jest poª czona ze wszystkimi elementami x k wzorca wej±ciowego x za pomoc poª cze«wagowych, neuron m-ty jest poª czony z warstw wej±ciow za pomoc wektora wag w m = [w m1, w m2,..., w mk ].

11 W wyniku zastosowania takiej struktury poª cze«m-ty neuron warstwy wyj±ciowej sieci otrzymuje sygnaª pobudzenia: y m = K k=1 w mk x k = w T m x, m = 1, 2,..., M, gdzie K dªugo± wzorca, M ilo± neuronów. 1 M 1 K

12 Komórka zwyci ska Komórka zwyci ska warstwy wyj±ciowej sieci, oznaczona indeksem m, jest to neuron otrzymuj cy najsilniejszy sygnaª pobudzenia y m. Zatem dla komórki zwyci skiej speªniona jest nierówno± : w 1 w m* T x>w i T x w T m x > w T m x, m = 1, 2,..., M. A co zyskuje zwyci zca? W procesie samoorganizacji jego wagi s modykowane. w 2 w 3

13 Algorytm uczenia Zakªadamy,»e przykªady ucz ce s znormalizowane. Do uczenia sieci u»ywamy nast puj cego algorytmu: 1 generujemy losowo znormalizowane wektory wag w m dla m = 1, 2,..., M, 2 losujemy wektor x oraz liczymy dla niego aktywacj y m = w T m x, dla wszystkich neuronów m = 1, 2,..., M, nast pnie szukamy neuronu zwyci zcy w m, 3 modykujemy wektor wag zwyci zcy, w m = w m + ηx (w m = w m + η(x w m )), a nast pnie go normalizujemy, 4 zatrzymujemy algorytm po odpowiednio du»ej liczbie iteracji.

14 Modykacja wektora wag w m = w m + ηx w m = w m + η(x w m ) x wold w new x (1- )w old

15 Normalizacja wektorów U»ywaj c normalizacji wektorów, uniemo»liwiamy jednemu wektorowi stanie si tak du»ym,»e mógªby wygrywa wspóªzawodnictwo zbyt cz sto. Konsekwencj byªoby to,»e inne neurony nigdy by nie zwyci»yªy wspóªzawodnictwa i ich wagi nie byªyby modykowane. Takie jednostki s nazywane martwymi.

16 Normalizacja wektorów w 1 w 2

17 Normalizacja wektorów Normalizacja gwarantuje,»e jednostk, która jest zwyci zc dla wektora wej±ciowego, jest ta jednostka, która le»y najbli»ej wektora wej±ciowego (cosinus k ta mi dzy wektorem wej±ciowym a zwyci zc jest najwi kszy). Modykacja wag powoduje,»e wektor wag zostaje przyci gni ty w kierunku wektora wej±ciowego. To znaczy,»e neuron zwyci ski w przyszªo±ci jeszcze silniej b dzie reagowaª na ten wektor wej±ciowy (reguªa Hebba).

18 Normalizacja wektorów w 1 w 2

19 Samoorganizacja i SPL W podanym wy»ej algorytmie przykªad wej±ciowy nie mo»e by z góry klasykowany jako pozytywny albo negatywny wektor tak, jak dzieje si to w algorytmach uczenia dla perceptronu. W powy»szym algorytmie w wyniku nauki wektor wag m-tej jednostki zostaje przyci gni ty w kierunku klastra jednostek wej±ciowych, dla których jego aktywacja jest najwi ksza w±ród wszystkich neuronów.

20 Samoorganizacja i SPL w 3 w 1 w w 2

21 Stopie«podobie«stwa Iloczyn skalarny wskazuje nam stopie«podobie«stwa pomi dzy wektorem wej±ciowym a wektorami wag poszczególnych neuronów. W procesie wyboru zwyci zcy mo»emy u»ywa innych metod do mierzenia podobie«stwa, w szczególno±ci mo»emy u»ywa funkcji odlegªo±ci, wtedy zwyci»a ten neuron, którego wektor wag poªo»ony jest najbli»ej wzgl dem danej metryki od wektora wej±ciowego. Najcz ±ciej u»ywane metryki to: euklidesowa: d(x, w m ) = K (x k w mk ) 2. k=1

22 Normy odlegªo± wzgl dem normy L 1 (odlegªo± Manhattan): K d(x, w m ) = x k w mk, k=1 odlegªo± wzgl dem normy L : d(x, w m ) = max k x k w mk,

23 Stopie«podobie«stwa iloczyn skalarny: d(x, w m ) = x, w m,

24 Odlegªo± Minkowskiego Odlegªo± Minkowskiego jest to uogólniona funkcja odlegªo±ci mi dzy punktami przestrzeni euklidesowej. Nazywana jest równie» odlegªo±ci L m. Wzór na t funkcj w zale»no±ci od m ma posta : K d(x, y) = ( (x k y k ) m ) m 1. k=1

25 Odlegªo± Minkowskiego m=0.5 m=1 m=1.5 m=2 m=4 m=

26 Strefy wpªywów Przy u»yciu metryki euklidesowej przestrze«danych wej±ciowych jest dzielona na strefy dominacji danego neuronu. Zastosowanie innej odlego±ci lub iloczynu skalarnego przy samoorganizacji, ksztaªtuje podziaª stref wpªywów inaczej. Szczególnie nale»y pami ta,»e zastosowanie iloczynu skalarnego bez normalizacji wektorów, mo»e prowadzi do niespójnego podziaªu przestrzeni - tak,»e w jednym obszarze wyst puje kilka neuronów, a w innym nie ma»adnego.

27 Strefy wpªywów norma euklidesowa

28 Strefy wpªywów iloczyn skalarny

29 Kwantowanie wektorowe danych Celem uczenia sieci samoorganizuj cych si przez konkurencj neuronów jest takie uporz dkowanie neuronów (dobór warto±ci ich wag), które zminimalizuje warto± oczekiwan bª du popeªnionego przy aproksymacji wektora wej±ciowego x warto±ciami wag neuronu zwyci»aj cego w konkurencji. Przy N wektorach wej±ciowych i zastosowaniu normy euklidesowej bª d ten mo»e by wyra»ony wzorem: E = 1 N x n W w(n), N n=1 w którym W w(n) jest wag neuronu zwyci»aj cego przy prezentacji wektora x n.

30 Kwantowanie wektorowe danych Zadanie to jest równie» zwane kwantowaniem wektorowym. Numery neuronów zwyci»aj cych przy kolejnych prezentacjach wektorów tworz tak zwan ksi»k kodow. Przestrze«danych podzielona jest, w efekcie stosowania takiej reguªy, tzw. mozaik Voronoi wyznaczaj c obszary klas.

31 Mozaika Veronoi

32 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych

33 Idea Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Kohonen zaproponowaª reguª uczenia konkurencyjnego, w której, w odró»nieniu od reguªy standardowej, modykacji wag dokonuje si nie tylko dla neuronu zwyci skiego, lecz równie» dla pewnej liczby neuronów z jego s siedztwa. S siedztwem tym s inne neurony le» ce blisko danej jednostki w strukturze grafowej neuronów.

34 Winner Takes Most Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Dlaczego WTA nie wystarcza? Taka reguªa adaptacji powoduje,»e algorytm sªabo zbiega. Reguªa, w której modykuje si nie tylko wagi zwyci zcy, ale równie» jego s siadów, jest zwana reguª WTM (Winer Takes Most). W praktyce reguªa WTA zostaªa zast piona reguª WTM.

35 Reprezentacja sieci Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Dana jest sie neuronowa modelowana przy pomocy grafu nieskierowanego H = (V, E), gdzie V jest zbiorem wierzchoªków (neuronów), za± E zbiorem kraw dzi. Dla ka»dego wierzchoªka v V okre±lamy tak zwane s siedztwo s(v) = {u V (v, u) E}. Zaªó»my ponadto,»e mamy pewn ilo± obiektów (przykªadów) opisywanych punktami przestrzeni R d.

36 Topologie sieci Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena

37 Cele Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Stawiamy sobie nast puj ce cele: ka»demu neuronowi chcemy przypisa d wag (reprezentuj cych wspóªrz dne pewnego punktu w R d ), powy»sze przypisanie ma odpowiada rozkªadowi przestrzennemu przykªadów (tzn. je»eli w danej okolicy jest du»o przykªadów, powinno do niej zosta przypisanych wiele neuronów), przypisanie ma odpowiada strukturze topologicznej grafu, tzn. s siaduj ce ze sob neurony powinny traa w niedaleko od siebie poªo»one obszary R d.

38 Cele Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena

39 Algorytm - zaªo»enia wst pne Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Niech dany b dzie zbiór przykªadów P = {P 1,...P N } R d. Ka»demu neuronowi v V przypisujemy wektor wag π(v) R d.

40 Algorytm Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 wybieramy pewn liczb T oznaczaj c liczb powtórze«algorytmu, 2 losujemy wagi przy wszystkich neuronach, 3 dla t = 1..T wykonujemy: 1 losujemy przykªad P, 2 znajdujemy jednostk v V, której zestaw wag π(v) le»y najbli»ej P, 3 dla neuronu zwyci zcy i wszystkich neuronów z jego s siedztwa s(v) wykonujemy: π(w) = π(w) + α(t)(p π(w)),

41 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena α(t) jest funkcj o warto±ciach dodatnich, malej c w kolejnych iteracjach algorytmu, na przykªad α(t) = 1 t 1 T,

42 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Do algorytmu mo»na wprowadza modykacje, które w znacznym stopniu mog poprawi jego dziaªanie. Bardzo cz sto inaczej deniuje si s siedztwo s(v) i wprowadza drobne zmiany w sposobie uaktualniania wag.

43 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena W rozszerzonej wersji algorytmu Kohonena s siedztwem dla neuronu zwyci zcy v jest zbiór: s(v) = {u W ρ(u, v) λ}, gdzie ρ(u, v) jest to dªugo± najkrótszej ±cie»ki pomi dzy wierzchoªkami u i v. Natomiast λ jest to tak zwany promie«s siedztwa, dodatni parametr algorytmu, pocz tkowo jego warto± powinna by taka,»e s siedztwo mo»e obejmowa wi cej ni» poªow z ogólnej liczby neuronów. Parametr λ nale»y zmniejsza w czasie uczenia tak, by w ko«cowej fazie uczenia s siedztwo byªo puste i modykacji podlegaª tylko neuron zwyci zcy.

44 Rozszerzony algorytm Kohonena Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 1 wybieramy pewn liczb T oznaczaj c liczb powtórze«algorytmu, 2 losujemy wagi przy wszystkich neuronach, 3 dla t = 1..T wykonujemy: 1 losujemy przykªad P, 2 znajdujemy jednostk v V, której zestaw wag π(v) le»y najbli»ej P, 3 dla neuronu zwyci zcy i wszystkich neuronów z jego s siedztwa s(v) wykonujemy π(w) = π(w) + α(t)g(w, v)(p π(w)),

45 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena G(w, v) jest to tak zwana funkcja s siedztwa, ma ona warto±ci dodatnie, jej przykªadowe postacie to: kwadratowa funkcja s siedztwa, gdzie: { 1 ρ(w, v) λ G(w, v) = 0 w p. p. gaussowska funkcja s siedztwa, gdzie: G(w, v) = exp( ρ2 (w, v) 2λ 2 ).

46 Kwadratowa funkcja s siedztwa Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena

47 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Gaussowska funkcja s siedztwa dla rosn cej λ kliknij

48 Funkcja s siedztwa - mexican hat Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena

49 Funkcja s siedztwa - mexican hat Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Wzór na t funkcj ma posta : gdzie λ 1 < λ 2. MH(v, w) = 2exp( ρ2 (v, w) 2λ 2 1 ) exp( ρ2 (v, w) ), 2λ 2 2

50 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Zastosowanie w mapach Kohonena s siedztwa gaussowskiego i zmiennego wspóªczynnika adaptacji powinno poprawi rezultaty uczenia i organizacj sieci.

51 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez algorytm Kohonena na trzech ±cianach (o wspólnym wierzchoªku) sze±cianu.

52 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez rozszerzony algorytm Kohonena na trzech ±cianach (o wspólnym wierzchoªku) sze±cianu. W algorytmie zastosowano gaussowsk funkcj s siedztwa.

53 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez algorytm Kohonena na powierzchni kuli.

54 Przykªad Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena kliknij Siatka prostok tna rozprowadzona przez rozszerzony algorytm Kohonena na powierzchni kuli. W algorytmie zastosowano gaussowsk funkcj s siedztwa.

55 Uwagi Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Zªy dobór parametrów mo»e mie wpªyw na to,»e sie nie osi gnie po» danej zbie»no±ci. Na przykªad je±li stopie«adaptacji α(t) b dzie miaª za maªe warto±ci, mo»e powsta w zeª, który si nie rozwi»e.

56 Uczenie nienadzorowane Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Wizualizacja danych za pomoc danej struktury przestrzennej (zadajej przez graf) w innym wymiarze (przykªady s wtedy rozªo»one jednostajnie na obszarze reprezentacji) przej±cie do wy»szego wymiaru (np. krzywa wypeªniaj ca przestrze«), przej±cie do ni»szego wymiaru (wizualizacja skomplikowanych struktur z zachowaniem topologii, ale nie odlegªo±ci).

57 Przej±cie do wy»szego wymiaru Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena Rysunek za Stanisªaw Ossowski, Sieci neuronowe w uj ciu algorytmicznym.

58 Przej±cie do ni»szego wymiaru Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena

59 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych 1 Uczenie nienadzorowane 2 Zagadnienie Algorytm Kohonena Rozszerzony algorytm Kohonena 3 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych

60 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Dane Odwzorowanie Sammona pozwala na graczne przedstawienie danych wielowymiarowych w przestrzeni o mniejszej liczbie wymiarów. Zaªo»enia: danych jest N wektorów K-wymiarowych x n (n = 1, 2,..., N) i odpowiednio do nich deniuje si N wektorów w przestrzeni L-wymiarowej (L = 2, 3) oznaczonych przez y n, odlegªo±ci pomi dzy poszczególnymi wektorami w przestrzeni K-wymiarowej oznaczono przez d nm = d(n, m), odlegªo±ci pomi dzy poszczególnymi wektorami w przestrzeni L-wymiarowej oznaczono przez d nm = d(n, m), do okre±lenia odlegªo±ci mi dzy wektorami mo»na zastosowa dowoln metryk, w szczególno±ci euklidesow.

61 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Idea Zadanie odwzorowania nieliniowego Sammona polega na takim doborze wektorów y, aby zminimalizowa funkcj bª du E zdeniowan w postaci: E = 1 m<n N (d nm d nm ) 2. d nm Do optymalizacji tej funkcji u»ywa si algorytmów gradientowych.

62 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Zaªo»enia Dane: Sie H = (V, E), zbiór danych symbolicznych x wraz z funkcj odlegªo±ci d. Powinno zachodzi : d(x, x) = 0, d(x, y) = d(y, x) 0.

63 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Mediana uogólniona Mediana uogólniona zbioru {a 1,..., a n } element a i, który minimalizuje j d 2 (a i, a j ).

64 Odwzorowanie Sammona Algorytm Kohonena dla danych symbolicznych Algorytm Kohonena dla wej± symbolicznych 1 przypisz w zªom losowe prototypy, 2 powtarzaj wiele razy: ka»demu wierzchoªkowi w przypisz list takich przykªadów,»e prototyp p(w) jest do nich najbli»szy, ka»demu wierzchoªkowi w przypisz nowy prototyp median uogólnion z listy klasykacyjnej w i list s siadów w, wyczy± listy klasykacyjne, 3 zwró sie.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 213-11-19 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych.

Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. Wstęp do sieci neuronowych, wykład 8 Samoorganizacja topologiczna, analiza składowych głównych. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toruń,

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 8 Uczenie nienadzorowane. Wstęp do sieci neuronowych, wykład 8. M. Czoków, J. Piersa, A. Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 1-811-6 Projekt pn. Wzmocnienie potencjału dydaktycznego

Bardziej szczegółowo

Uczenie Wielowarstwowych Sieci Neuronów o

Uczenie Wielowarstwowych Sieci Neuronów o Plan uczenie neuronu o ci gªej funkcji aktywacji uczenie jednowarstwowej sieci neuronów o ci gªej funkcji aktywacji uczenie sieci wielowarstwowej - metoda propagacji wstecznej neuronu o ci gªej funkcji

Bardziej szczegółowo

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd. M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-23

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2011-18-02 Motywacja Liczby

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania WYKŁAD 4 Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania PLAN WYKŁADU Metody uczenia sieci: Uczenie perceptronu Propagacja wsteczna Zastosowania Sterowanie (powtórzenie) Kompresja obrazu Rozpoznawanie

Bardziej szczegółowo

Metody bioinformatyki (MBI)

Metody bioinformatyki (MBI) Metody bioinformatyki (MBI) Wykªad 9 - mikromacierze DNA, analiza danych wielowymiarowych Robert Nowak 2016Z Metody bioinformatyki (MBI) 1/42 mikromacierze DNA Metoda badawcza, pozwalaj ca bada obecno±

Bardziej szczegółowo

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych. Denicja Mówimy,»e funkcja

Bardziej szczegółowo

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.

Bardziej szczegółowo

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING Magdalena Wiercioch Uniwersytet Jagiello«ski 3 kwietnia 2014 Plan Uczenie gª bokie (deep learning) Auto-enkodery Rodzaje Zasada dziaªania Przykªady

Bardziej szczegółowo

c Marcin Sydow Spójno± Grafy i Zastosowania Grafy Eulerowskie 2: Drogi i Cykle Grafy Hamiltonowskie Podsumowanie

c Marcin Sydow Spójno± Grafy i Zastosowania Grafy Eulerowskie 2: Drogi i Cykle Grafy Hamiltonowskie Podsumowanie 2: Drogi i Cykle Spis Zagadnie«drogi i cykle spójno± w tym sªaba i silna k-spójno± (wierzchoªkowa i kraw dziowa) dekompozycja grafu na bloki odlegªo±ci w grae i poj cia pochodne grafy Eulera i Hamiltona

Bardziej szczegółowo

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z grupowania danych - Rough k-medoids Liczba osób realizuj cych projekt: 1 osoba 1. Wczytanie danych w formatach

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 2013/14 Spis tre±ci 1 Kodowanie i dekodowanie 4 1.1 Kodowanie a szyfrowanie..................... 4 1.2 Podstawowe poj cia........................

Bardziej szczegółowo

XVII Warmi«sko-Mazurskie Zawody Matematyczne

XVII Warmi«sko-Mazurskie Zawody Matematyczne 1 XVII Warmi«sko-Mazurskie Zawody Matematyczne Kategoria: klasa VIII szkoªy podstawowej i III gimnazjum Olsztyn, 16 maja 2019r. Zad. 1. Udowodnij,»e dla dowolnych liczb rzeczywistych x, y, z speªniaj cych

Bardziej szczegółowo

r = x x2 2 + x2 3.

r = x x2 2 + x2 3. Przestrze«aniczna Def. 1. Przestrzeni aniczn zwi zan z przestrzeni liniow V nazywamy dowolny niepusty zbiór P z dziaªaniem ω : P P V (które dowolnej parze elementów zbioru P przyporz dkowuje wektor z przestrzeni

Bardziej szczegółowo

Lab. 02: Algorytm Schrage

Lab. 02: Algorytm Schrage Lab. 02: Algorytm Schrage Andrzej Gnatowski 5 kwietnia 2015 1 Opis zadania Celem zadania laboratoryjnego jest zapoznanie si z jednym z przybli»onych algorytmów sªu» cych do szukania rozwi za«znanego z

Bardziej szczegółowo

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14 WST P DO TEORII INFORMACJI I KODOWANIA Grzegorz Szkibiel Wiosna 203/4 Spis tre±ci Kodowanie i dekodowanie 4. Kodowanie a szyfrowanie..................... 4.2 Podstawowe poj cia........................

Bardziej szczegółowo

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X.

Relacj binarn okre±lon w zbiorze X nazywamy podzbiór ϱ X X. Relacje 1 Relacj n-argumentow nazywamy podzbiór ϱ X 1 X 2... X n. Je±li ϱ X Y jest relacj dwuargumentow (binarn ), to zamiast (x, y) ϱ piszemy xϱy. Relacj binarn okre±lon w zbiorze X nazywamy podzbiór

Bardziej szczegółowo

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15 ANALIZA NUMERYCZNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Metoda Eulera 3 1.1 zagadnienia brzegowe....................... 3 1.2 Zastosowanie ró»niczki...................... 4 1.3 Output do pliku

Bardziej szczegółowo

1 Metody iteracyjne rozwi zywania równania f(x)=0

1 Metody iteracyjne rozwi zywania równania f(x)=0 1 Metody iteracyjne rozwi zywania równania f()=0 1.1 Metoda bisekcji Zaªó»my,»e funkcja f jest ci gªa w [a 0, b 0 ]. Pierwiastek jest w przedziale [a 0, b 0 ] gdy f(a 0 )f(b 0 ) < 0. (1) Ustalmy f(a 0

Bardziej szczegółowo

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki.

Listy Inne przykªady Rozwi zywanie problemów. Listy w Mathematice. Marcin Karcz. Wydziaª Matematyki, Fizyki i Informatyki. Wydziaª Matematyki, Fizyki i Informatyki 10 marca 2008 Spis tre±ci Listy 1 Listy 2 3 Co to jest lista? Listy List w Mathematice jest wyra»enie oddzielone przecinkami i zamkni te w { klamrach }. Elementy

Bardziej szczegółowo

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach

c Marcin Sydow Przepªywy Grafy i Zastosowania Podsumowanie 12: Przepªywy w sieciach 12: w sieciach Spis zagadnie«sieci przepªywowe przepªywy w sieciach ±cie»ka powi kszaj ca tw. Forda-Fulkersona Znajdowanie maksymalnego przepªywu Zastosowania przepªywów Sieci przepªywowe Sie przepªywowa

Bardziej szczegółowo

Wykªad 4. Funkcje wielu zmiennych.

Wykªad 4. Funkcje wielu zmiennych. Wykªad jest prowadzony w oparciu o podr cznik Analiza matematyczna 2. Denicje, twierdzenia, wzory M. Gewerta i Z. Skoczylasa. Wykªad 4. Funkcje wielu zmiennych. Zbiory na pªaszczy¹nie i w przestrzeni.

Bardziej szczegółowo

1 Bª dy i arytmetyka zmiennopozycyjna

1 Bª dy i arytmetyka zmiennopozycyjna 1 Bª dy i arytmetyka zmiennopozycyjna Liczby w pami ci komputera przedstawiamy w ukªadzie dwójkowym w postaci zmiennopozycyjnej Oznacza to,»e s one postaci ±m c, 01 m < 1, c min c c max, (1) gdzie m nazywamy

Bardziej szczegółowo

Wektory w przestrzeni

Wektory w przestrzeni Wektory w przestrzeni Informacje pomocnicze Denicja 1. Wektorem nazywamy uporz dkowan par punktów. Pierwszy z tych punktów nazywamy pocz tkiem wektora albo punktem zaczepienia wektora, a drugi - ko«cem

Bardziej szczegółowo

Teoria grafów i jej zastosowania. 1 / 126

Teoria grafów i jej zastosowania. 1 / 126 Teoria grafów i jej zastosowania. 1 / 126 Mosty królewieckie W Królewcu, na rzece Pregole znajduj si dwie wyspy poª czone ze sob, a tak»e z brzegami za pomoc siedmiu mostów, tak jak pokazuje rysunek 2

Bardziej szczegółowo

Metody numeryczne i statystyka dla in»ynierów

Metody numeryczne i statystyka dla in»ynierów Kierunek: Automatyka i Robotyka, II rok Wprowadzenie PWSZ Gªogów, 2009 Plan wykªadów Wprowadzenie, podanie zagadnie«, poj cie metody numerycznej i algorytmu numerycznego, obszar zainteresowa«i stosowalno±ci

Bardziej szczegółowo

Elementy geometrii w przestrzeni R 3

Elementy geometrii w przestrzeni R 3 Elementy geometrii w przestrzeni R 3 Z.Šagodowski Politechnika Lubelska 29 maja 2016 Podstawowe denicje Wektorem nazywamy uporz dkowan par punktów (A,B) z których pierwszy nazywa si pocz tkiem a drugi

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd.

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane cd. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 2013-11-26 Projekt pn. Wzmocnienie potencjału

Bardziej szczegółowo

Aproksymacja funkcji metod najmniejszych kwadratów

Aproksymacja funkcji metod najmniejszych kwadratów Aproksymacja funkcji metod najmniejszych kwadratów Teoria Interpolacja polega na znajdowaniu krzywej przechodz cej przez wszystkie w zªy. Zdarzaj si jednak sytuacje, w których dane te mog by obarczone

Bardziej szczegółowo

AM II /2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium

AM II /2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium AM II.1 2018/2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium Normy w R n, iloczyn skalarny sprawd¹ czy dana funkcja jest norm sprawd¹, czy dany zbiór jest kul w jakiej± normie i oblicz norm wybranego

Bardziej szczegółowo

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017 i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski Uniwersytet Šódzki, Wydziaª Matematyki i Informatyki UŠ piotr@fulmanski.pl http://fulmanski.pl/zajecia/prezentacje/festiwalnauki2017/festiwal_wmii_2017_

Bardziej szczegółowo

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych: Plan Spis tre±ci 1 Homomorzm 1 1.1 Macierz homomorzmu....................... 2 1.2 Dziaªania............................... 3 2 Ukªady równa«6 3 Zadania 8 1 Homomorzm PRZYPOMNIENIE Ka»d przestrze«wektorow

Bardziej szczegółowo

Podstawy modelowania w j zyku UML

Podstawy modelowania w j zyku UML Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 8 Diagram pakietów I Diagram pakietów (ang. package diagram) jest diagramem strukturalnym,

Bardziej szczegółowo

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy. Logika i teoria mnogo±ci, konspekt wykªad 12 Teoria mocy, cz ± II Def. 12.1 Ka»demu zbiorowi X przyporz dkowujemy oznaczany symbolem X obiekt zwany liczb kardynaln (lub moc zbioru X) w taki sposób,»e ta

Bardziej szczegółowo

Algorytm propagacji wstecznej

Algorytm propagacji wstecznej Algorytm propagacji wstecznej M. Czoków, J. Piersa Faculty of Mathematics and Computer Science, Nicolaus Copernicus University, Toru«, Poland 2010-11-16 Powtórzenie Architektury sieci Dlacezgo MLP? W sieciach

Bardziej szczegółowo

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja Macierze 1 Podstawowe denicje Macierz wymiaru m n, gdzie m, n N nazywamy tablic liczb rzeczywistych (lub zespolonych) postaci a 11 a 1j a 1n A = A m n = [a ij ] m n = a i1 a ij a in a m1 a mj a mn W macierzy

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 05a Algorytm wstecznej propagacji bª du

Wst p do sieci neuronowych, wykªad 05a Algorytm wstecznej propagacji bª du Wst p do sieci neuronowych, wykªad 05a M. Czoków, J. Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2012-11-14 Projekt pn. Wzmocnienie potencjaªu dydaktycznego UMK w

Bardziej szczegółowo

Teoria grafów i sieci 1 / 58

Teoria grafów i sieci 1 / 58 Teoria grafów i sieci 1 / 58 Literatura 1 B.Korte, J.Vygen, Combinatorial optimization 2 D.Jungnickel, Graphs, Networks and Algorithms 3 M.Sysªo, N.Deo Metody optymalizacji dyskretnej z przykªadami w Turbo

Bardziej szczegółowo

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1 J zyki formalne i operacje na j zykach J zyki formalne s abstrakcyjnie zbiorami sªów nad alfabetem sko«czonym Σ. J zyk formalny L to opis pewnego problemu decyzyjnego: sªowa to kody instancji (wej±cia)

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne Arkusz maturalny Šukasz Dawidowski Powtórki maturalne 25 kwietnia 2016r. Odwrotno±ci liczby rzeczywistej 1. 9 8 2. 0, (1) 3. 8 9 4. 0, (8) 3 4 4 4 1 jest liczba Odwrotno±ci liczby rzeczywistej 3 4 4 4

Bardziej szczegółowo

. 0 0... 1 0. 0 0 0 0 1 gdzie wektory α i tworz baz ortonormaln przestrzeni E n

. 0 0... 1 0. 0 0 0 0 1 gdzie wektory α i tworz baz ortonormaln przestrzeni E n GAL II 2013-2014 A. Strojnowski str.45 Wykªad 20 Denicja 20.1 Przeksztaªcenie aniczne f : H H anicznej przestrzeni euklidesowej nazywamy izometri gdy przeksztaªcenie pochodne f : T (H) T (H) jest izometri

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 4 Algorytm wstecznej propagacji bª du, cz. 1

Wst p do sieci neuronowych, wykªad 4 Algorytm wstecznej propagacji bª du, cz. 1 Wst p do sieci neuronowych, wykªad 4, cz. 1 M. Czoków, J. Piersa, A. Rutkowski Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika w Toruniu 2018-10-28 Projekt pn. Wzmocnienie potencjaªu dydaktycznego

Bardziej szczegółowo

Grafy. Andrzej Jastrz bski. Akademia ET I. Politechnika Gda«ska

Grafy. Andrzej Jastrz bski. Akademia ET I. Politechnika Gda«ska Andrzej Jastrz bski Akademia ET I Graf Grafem nazywamy par G = (V, E), gdzie V to zbiór wierzchoªków, E zbiór kraw dzi taki,»e E {{u, v} : u, v V u v}. Wierzchoªki v, u V s s siaduj ce je±li s poª czone

Bardziej szczegółowo

Szeregowanie zada« Wykªad nr 5. dr Hanna Furma«czyk. 4 kwietnia 2013

Szeregowanie zada« Wykªad nr 5. dr Hanna Furma«czyk. 4 kwietnia 2013 Wykªad nr 5 4 kwietnia 2013 Procesory dedykowane Przypomnienie: zadania s podzielone na operacje (zadanie Z j skªada si z operacji O ij do wykonania na maszynach M i, o dªugo±ciach czasowych p ij ); zadanie

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Elementy geometrii analitycznej w przestrzeni

Elementy geometrii analitycznej w przestrzeni Wykªad 3 Elementy geometrii analitycznej w przestrzeni W wykªadzie tym wi kszy nacisk zostaª poªo»ony raczej na intuicyjne rozumienie deniowanych poj, ni» ±cisªe ich zdeniowanie. Dlatego niniejszy wykªad

Bardziej szczegółowo

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II. Poni»sze zadania s wyborem zada«z kolokwiów ze Wst pu do Informatyki jakie przeprowadziªem w ci gu ostatnich lat. Marek Zawadowski Zadanie 1 Napisz

Bardziej szczegółowo

Metody dowodzenia twierdze«

Metody dowodzenia twierdze« Metody dowodzenia twierdze«1 Metoda indukcji matematycznej Je±li T (n) jest form zdaniow okre±lon w zbiorze liczb naturalnych, to prawdziwe jest zdanie (T (0) n N (T (n) T (n + 1))) n N T (n). 2 W przypadku

Bardziej szczegółowo

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na.

Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA. W obu podpunktach zakªadamy,»e kolejno± ta«ców jest wa»na. Zad. 1 Zad. 2 Zad. 3 Zad. 4 Zad. 5 SUMA Zadanko 1 (12p.) Na imprezie w Noc Kupaªy s 44 dziewczyny. Nosz one 11 ró»nych imion, a dla ka»dego imienia s dokªadnie 4 dziewczyny o tym imieniu przy czym ka»da

Bardziej szczegółowo

Wykªad 1. Wprowadzenie do teorii grafów

Wykªad 1. Wprowadzenie do teorii grafów Wykªad 1. Wprowadzenie do teorii grafów 1 / 112 Literatura 1 W. Lipski; Kombinatoryka dla programistów. 2 T. Cormen, Ch. E. Leiserson, R. L. Rivest; Wprowadzenie do algorytmów. 3 K. A. Ross, Ch. R. B.

Bardziej szczegółowo

Funkcja kwadratowa, wielomiany oraz funkcje wymierne

Funkcja kwadratowa, wielomiany oraz funkcje wymierne Funkcja kwadratowa, wielomiany oraz funkcje wymierne Šukasz Dawidowski Nocne powtórki maturalne 28 kwietnia 2014 r. Troch teorii Funkcj f : R R dan wzorem: f (x) = ax 2 + bx + c gdzie a 0 nazywamy funkcj

Bardziej szczegółowo

Statystyka matematyczna

Statystyka matematyczna Statystyka matematyczna Aleksandra Ki±lak-Malinowska akis@uwm.edu.pl http://wmii.uwm.edu.pl/ akis/ Czym zajmuje si statystyka? Statystyka zajmuje si opisywaniem i analiz zjawisk masowych otaczaj cej czªowieka

Bardziej szczegółowo

Podstawowe algorytmy grafowe i ich zastosowania

Podstawowe algorytmy grafowe i ich zastosowania Podstawowe algorytmy grafowe i ich zastosowania Autor projektu: dr Andrzej Mróz (UMK) Projekt pn. Wzmocnienie potencjaªu dydaktycznego UMK w Toruniu w dziedzinach matematyczno-przyrodniczych realizowany

Bardziej szczegółowo

Ekstremalnie fajne równania

Ekstremalnie fajne równania Ekstremalnie fajne równania ELEMENTY RACHUNKU WARIACYJNEGO Zaczniemy od ogólnych uwag nt. rachunku wariacyjnego, który jest bardzo przydatnym narz dziem mog cym posªu»y do rozwi zywania wielu problemów

Bardziej szczegółowo

1 Klasy. 1.1 Denicja klasy. 1.2 Skªadniki klasy.

1 Klasy. 1.1 Denicja klasy. 1.2 Skªadniki klasy. 1 Klasy. Klasa to inaczej mówi c typ który podobnie jak struktura skªada si z ró»nych typów danych. Tworz c klas programista tworzy nowy typ danych, który mo»e by modelem rzeczywistego obiektu. 1.1 Denicja

Bardziej szczegółowo

2 Liczby rzeczywiste - cz. 2

2 Liczby rzeczywiste - cz. 2 2 Liczby rzeczywiste - cz. 2 W tej lekcji omówimy pozostaªe tematy zwi zane z liczbami rzeczywistymi. 2. Przedziaªy liczbowe Wyró»niamy nast puj ce rodzaje przedziaªów liczbowych: (a) przedziaªy ograniczone:

Bardziej szczegółowo

Podstawy modelowania w j zyku UML

Podstawy modelowania w j zyku UML Podstawy modelowania w j zyku UML dr hab. Bo»ena Wo¹na-Szcze±niak Akademia im. Jan Dªugosza bwozna@gmail.com Wykªad 2 Zwi zki mi dzy klasami Asocjacja (ang. Associations) Uogólnienie, dziedziczenie (ang.

Bardziej szczegółowo

Ÿ1 Oznaczenia, poj cia wst pne

Ÿ1 Oznaczenia, poj cia wst pne Ÿ1 Oznaczenia, poj cia wst pne Symbol sumy, j, k Z, j k: k x i = x j + x j+1 + + x k. i=j Przykªad 1.1. Oblicz 5 i=1 2i. Odpowied¹ 1.1. 5 i=1 2i = 2 1 + 2 2 + 2 3 + 2 4 + 2 5 = 2 + 4 + 8 + 16 + 32 = 62.

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych

Bardziej szczegółowo

Opis matematyczny ukªadów liniowych

Opis matematyczny ukªadów liniowych Rozdziaª 1 Opis matematyczny ukªadów liniowych Autorzy: Alicja Golnik 1.1 Formy opisu ukªadów dynamicznych 1.1.1 Liniowe równanie ró»niczkowe Podstawow metod przedstawienia procesu dynamicznego jest zbiór

Bardziej szczegółowo

Modele wielorównaniowe. Problem identykacji

Modele wielorównaniowe. Problem identykacji Modele wielorównaniowe. Problem identykacji Ekonometria Szeregów Czasowych SGH Identykacja 1 / 43 Plan wykªadu 1 Wprowadzenie 2 Trzy przykªady 3 Przykªady: interpretacja 4 Warunki identykowalno±ci 5 Restrykcje

Bardziej szczegółowo

Macierz A: macierz problemów liniowych (IIII); Macierz rozszerzona problemów liniowych (IIII): a 11 a 1m b 1 B = a n1 a nm b n

Macierz A: macierz problemów liniowych (IIII); Macierz rozszerzona problemów liniowych (IIII): a 11 a 1m b 1 B = a n1 a nm b n Plan Spis tre±ci 1 Problemy liniowe 1 2 Zadania I 3 3 Formy biliniowe 3 3.1 Odwzorowania wieloliniowe..................... 3 3.2 Formy biliniowe............................ 4 4 Formy kwadratowe 4 1 Problemy

Bardziej szczegółowo

1 Poj cia pomocnicze. Przykªad 1. A A d

1 Poj cia pomocnicze. Przykªad 1. A A d Poj cia pomocnicze Otoczeniem punktu x nazywamy dowolny zbiór otwarty zawieraj cy punkt x. Najcz ±ciej rozwa»amy otoczenia kuliste, tj. kule o danym promieniu ε i ±rodku x. S siedztwem punktu x nazywamy

Bardziej szczegółowo

Macierze i Wyznaczniki

Macierze i Wyznaczniki Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja 1. Tablic nast puj cej postaci a 11 a 12... a 1n a 21 a 22... a 2n A =... a m1 a m2... a mn nazywamy macierz o m wierszach i n kolumnach,

Bardziej szczegółowo

Macierze i Wyznaczniki

Macierze i Wyznaczniki dr Krzysztof yjewski Mechatronika; S-I.in». 5 pa¹dziernika 6 Macierze i Wyznaczniki Kilka wzorów i informacji pomocniczych: Denicja. Tablic nast puj cej postaci a a... a n a a... a n A =... a m a m...

Bardziej szczegółowo

Wst p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne.

Wst p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne. Wst p do sieci neuronowych, wykªad 06, Walidacja jako±ci uczenia. Metody statystyczne. Maja Czoków, Jarosªaw Piersa Wydziaª Matematyki i Informatyki, Uniwersytet Mikoªaja Kopernika 2012-11-21 Projekt pn.

Bardziej szczegółowo

a) f : R R R: f(x, y) = x 2 y 2 ; f(x, y) = 3xy; f(x, y) = max(xy, xy); b) g : R 2 R 2 R: g((x 1, y 1 ), (x 2, y 2 )) = 2x 1 y 1 x 2 y 2 ;

a) f : R R R: f(x, y) = x 2 y 2 ; f(x, y) = 3xy; f(x, y) = max(xy, xy); b) g : R 2 R 2 R: g((x 1, y 1 ), (x 2, y 2 )) = 2x 1 y 1 x 2 y 2 ; Zadania oznaczone * s troch trudniejsze, co nie oznacza,»e trudne.. Zbadaj czy funkcjonaª jest dwuliniowy, symetryczny, antysymetryczny, dodatniookre±lony: a) f : R R R: f(x, y) = x y ; f(x, y) = 3xy;

Bardziej szczegółowo

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow Plan dyskretny perceptron i jego ograniczenia inne funkcje aktywacji wielo-klasykacja przy pomocy jedno-warstwowe sieci neuronowej ograniczenia jedno-warstwowej sieci neuronowej miary ewaluacyjne dla klasykacji

Bardziej szczegółowo

Obliczenia inteligentne Zadanie 4

Obliczenia inteligentne Zadanie 4 Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część

Bardziej szczegółowo

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych Janusz Adamowski METODY OBLICZENIOWE FIZYKI 1 Rozdziaª 9 RÓWNANIA ELIPTYCZNE 9.1 Zastosowanie eliptycznych równa«ró»niczkowych cz stkowych 9.1.1 Problemy z warunkami brzegowymi W przestrzeni dwuwymiarowej

Bardziej szczegółowo

Listy i operacje pytania

Listy i operacje pytania Listy i operacje pytania Iwona Polak iwona.polak@us.edu.pl Uniwersytet l ski Instytut Informatyki pa¹dziernika 07 Który atrybut NIE wyst puje jako atrybut elementów listy? klucz elementu (key) wska¹nik

Bardziej szczegółowo

O pewnym zadaniu olimpijskim

O pewnym zadaniu olimpijskim O pewnym zadaniu olimpijskim Michaª Seweryn, V LO w Krakowie opiekun pracy: dr Jacek Dymel Problem pocz tkowy Na drugim etapie LXII Olimpiady Matematycznej pojawiª si nast puj cy problem: Dla ka»dej liczby

Bardziej szczegółowo

Algorytmy i Struktury Danych

Algorytmy i Struktury Danych Lista zada«. Nr 4. 9 kwietnia 2016 IIUWr. II rok informatyki. Algorytmy i Struktury Danych 1. (0pkt) Rozwi» wszystkie zadania dodatkowe. 2. (1pkt) Uªó» algorytm znajduj cy najta«sz drog przej±cia przez

Bardziej szczegółowo

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. wiczenia 1 2 do wiczenia 3 4 Badanie do±wiadczalne 5 pomiarów 6 7 Cel Celem wiczenia jest zapoznanie studentów z etapami przygotowania i

Bardziej szczegółowo

STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH

STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH WYKŠAD 4 03 listopad 2014 1 / 47 Plan wykªadu 1. Testowanie zaªo»e«o proporcjonalnym hazardzie w modelu Cox'a 2. Wybór zmiennych do modelu Cox'a 3. Meta analiza

Bardziej szczegółowo

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF. Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena

Bardziej szczegółowo

I Rok LOGISTYKI: wykªad 2 Pochodna funkcji. iloraz ró»nicowy x y x

I Rok LOGISTYKI: wykªad 2 Pochodna funkcji. iloraz ró»nicowy x y x I Rok LOGISTYKI: wykªad 2 Pochodna funkcji Niech f jest okre±lona w Q(x 0, δ) i x Q(x 0, δ). Oznaczenia: x = x x 0 y = y y 0 = f(x 0 + x) f(x 0 ) y x = f(x 0 + x) f(x 0 ) iloraz ró»nicowy x y x = tgβ,

Bardziej szczegółowo

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski III. CAŠKOWAIE METODAMI MOTE CARLO Janusz Adamowski 1 1 azwa metody Podstawowym zastosowaniem w zyce metody Monte Carlo (MC) jest opis zªo-»onych ukªadów zycznych o du»ej liczbie stopni swobody. Opis zªo»onych

Bardziej szczegółowo

MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH

MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH MODEL HAHNFELDTA I IN. ANGIOGENEZY NOWOTWOROWEJ Z UWZGL DNIENIEM LEKOOPORNO CI KOMÓREK NOWOTWOROWYCH Urszula Fory± Zakªad Biomatematyki i Teorii Gier, Instytut Matematyki Stosowanej i Mechaniki, Wydziaª

Bardziej szczegółowo

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY

Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY Granular Computing 9999 pages 15 METODY SZTUCZNEJ INTELIGENCJI - PROJEKTY PB 2 PB 1 Projekt z wyznaczania reduktów zbioru Liczba osób realizuj cych projekt: 1-2 osoby 1. Wczytanie danych w formatach arf,

Bardziej szczegółowo

Stereometria (geometria przestrzenna)

Stereometria (geometria przestrzenna) Stereometria (geometria przestrzenna) Wzajemne poªo»enie prostych w przestrzeni Stereometria jest dziaªem geometrii, którego przedmiotem bada«s bryªy przestrzenne oraz ich wªa±ciwo±ci. Na pocz tek omówimy

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Sztuczna inteligencja

Sztuczna inteligencja Sztuczna inteligencja Wykład 7. Architektury sztucznych sieci neuronowych. Metody uczenia sieci. źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Podstawowe architektury

Bardziej szczegółowo

Zbiory i odwzorowania

Zbiory i odwzorowania Zbiory i odwzorowania 1 Sposoby okre±lania zbiorów 1) Zbiór wszystkich elementów postaci f(t), gdzie t przebiega zbiór T : {f(t); t T }. 2) Zbiór wszystkich elementów x zbioru X speªniaj cych warunek ϕ(x):

Bardziej szczegółowo

Lekcja 9 - LICZBY LOSOWE, ZMIENNE

Lekcja 9 - LICZBY LOSOWE, ZMIENNE Lekcja 9 - LICZBY LOSOWE, ZMIENNE I STAŠE 1 Liczby losowe Czasami spotkamy si z tak sytuacj,»e b dziemy potrzebowa by program za nas wylosowaª jak ± liczb. U»yjemy do tego polecenia: - liczba losowa Sprawd¹my

Bardziej szczegółowo

Funkcje wielu zmiennych

Funkcje wielu zmiennych Funkcje wielu zmiennych Informacje pomocnicze Denicja 1 Niech funkcja f(x, y) b dzie okre±lona przynajmniej na otoczeniu punktu (x 0, y 0 ) Pochodn cz stkow pierwszego rz du funkcji dwóch zmiennych wzgl

Bardziej szczegółowo

Funkcje, wielomiany. Informacje pomocnicze

Funkcje, wielomiany. Informacje pomocnicze Funkcje, wielomiany Informacje pomocnicze Przydatne wzory: (a + b) 2 = a 2 + 2ab + b 2 (a b) 2 = a 2 2ab + b 2 (a + b) 3 = a 3 + 3a 2 b + 3ab 2 + b 3 (a b) 3 = a 3 3a 2 b + 3ab 2 b 3 a 2 b 2 = (a + b)(a

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Twierdzenie Wainera Marek Czarnecki Wydziaª Filozoi i Socjologii Uniwersytet Warszawski Wydziaª Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski Warszawa, 3 lipca 2009 Motywacje Dla dowolnej

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Indeksowane rodziny zbiorów

Indeksowane rodziny zbiorów Logika i teoria mnogo±ci, konspekt wykªad 7 Indeksowane rodziny zbiorów Niech X b dzie przestrzeni zbiorem, którego podzbiorami b d wszystkie rozpatrywane zbiory, R rodzin wszystkich podzbiorów X za± T

Bardziej szczegółowo

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15 ARYTMETYKA MODULARNA Grzegorz Szkibiel Wiosna 2014/15 Spis tre±ci 1 Denicja kongruencji i jej podstawowe wªasno±ci 3 2 Systemy pozycyjne 8 3 Elementy odwrotne 12 4 Pewne zastosowania elementów odwrotnych

Bardziej szczegółowo

Co to jest grupowanie

Co to jest grupowanie Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie

Bardziej szczegółowo

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska

MiASI. Modelowanie systemów informatycznych. Piotr Fulma«ski. 18 stycznia Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska MiASI Modelowanie systemów informatycznych Piotr Fulma«ski Wydziaª Matematyki i Informatyki, Uniwersytet Šódzki, Polska 18 stycznia 2010 Spis tre±ci 1 Analiza systemu informatycznego Poziomy analizy 2

Bardziej szczegółowo

Statystyka opisowa. Wykªad II. Elementy statystyki opisowej. Edward Kozªowski.

Statystyka opisowa. Wykªad II. Elementy statystyki opisowej. Edward Kozªowski. Statystyka opisowa. Wykªad II. e-mail:e.kozlovski@pollub.pl Spis tre±ci Mediana i moda 1 Mediana i moda 2 3 4 Mediana i moda Median m e (warto±ci ±rodkow ) próbki x 1,..., x n nazywamy ±rodkow liczb w

Bardziej szczegółowo