MODELE OPTYMALNEGO PRZETWARZANIA SYGNAŁÓW LOSOWYCH

Wielkość: px
Rozpocząć pokaz od strony:

Download "MODELE OPTYMALNEGO PRZETWARZANIA SYGNAŁÓW LOSOWYCH"

Transkrypt

1 Wesław Ctko, Wesław Seńko Akadema Morska w Gdyn MODELE OPYMALNEGO PRZEWARZANIA SYGNAŁÓW LOSOWYCH Estymacja sygnałów losowych jest stotnym zagadnenem matematycznym, mającym zastosowane w welu dzedznach nauk technk Celem nnejszego artykułu jest porównane procedur estymacj sygnałów losowych z wykorzystanem lnowych estymatorów MMSE (Mnmum Mean-Squared Error mnmum błędu średnokwadratowego) Słowa kluczowe: optymalne przetwarzane sygnałów, estymacja sygnałów losowych WSĘP Przez optymalne przetwarzane sygnałów losowych należy rozumeć wydobywane nformacj z danych dyskretnych (danych czasu dyskretnego), jak np z danych pomarowych skalarnych lub wektorowych welkośc fzycznych, w sposób optymalny, przy czym krytera optymalnośc mogą być różne Zakłada sę zatem, że modelem matematycznym takch sygnałów są dyskretne procesy stochastyczne Warto tutaj przypomneć, że tego typu procesy stochastyczne są zdefnowane przez rodzny {x(n)} zmennych losowych, generowane przez dyskretne momenty czasu lub jako zbory determnstycznych cągów lczbowych, stanowących tzw realzacje procesu stochastycznego Na ogół w praktyce ne dysponuje sę pełnym opsem procesu stochastycznego, a węc znajomoścą funkcj gęstośc prawdopodobeństwa każdej próbk-zmennej losowej, x(n) Co węcej, znajomość procesu ogranczona jest jedyne do M < próbek lub M punktów tylko jednej realzacj Jeżel przykładowo nformację stanow determnstyczny parametr Θ, to znajomość M próbek procesu pozwala na wyznaczene zmennej losowej Θ= ˆ ( x( n)), będącej estymatorem parametru Θ Każda szczególna wartość ˆΘ jest estymatą parametru Θ ( ) jest symbolem pewnego odwzorowana funkcjonalnego Obok estymacj momentów wdm procesów stochastycznych procedury estymacj są powszechne wykorzystywane do estymacj parametrów model sygnałów losowych w przetwarzanu, obejmującym wygładzane, fltrację predykcję Celem nnejszego artykułu jest przegląd porównane procedur estymacj sygnałów losowych z wykorzystanem lnowych estymatorów MMSE (Mnmum Mean-Squared Error mnmum błędu średnokwadratowego)

2 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 5 PROBLEM ESYMACJI SYGNAŁU LOSOWEGO Problem estymacj sygnału losowego można sprowadzć do następującego zagadnena [3]: Zadany jest cąg x(n); n = 0,,, N- będący zborem próbek z obserwowanej (pomarowej) realzacj procesu stochastycznego Cąg d(n); n = 0,,, N- jest nformacją zawartą w cągu x(n), tzn stneje funkcjonalne odwzorowane ( ) take, że: dn ˆ( ) = xn ( ( )) () gdze dn ˆ( ) jest estymatorem sygnału d(n) Lnowy estymator MMSE określony jest przez zależność: N dn ˆ( ) = hx ( ), n = 0,,, N- () = 0 gdze h parametry estymatora Można pokazać, że estymator MMSE jest realzowalny z użycem fltrów lnowych (rozwązane klasyczne optymalna fltracja LS), a także sztucznych sec neuronowych (LS Least Squares) OPYMALNE FILRY NAJMNIEJSZYCH KWADRAÓW (LS LEAS SQUARES) Optymalna fltracja z zastosowanem lnowych fltrów LS jest jednym z podstawowych narzędz przetwarzana sygnałów losowych Podstawowy schemat takej fltracj przedstawono na rysunku [3] x(n) y(n) - h(n) Σ d(n) + e(n) Rys Blokowy schemat fltracj optymalnej Fg he block dagram of the optmal flterng

3 5 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 Parametry fltru o odpowedz mpulsowej h(n) należy tak dobrać, aby odpowedź y(n) była blska zadanemu cągow d(n), y(n) d(n) Stąd, defnując funkcję kosztów (celu) jako: { ( )} w przypadku, gdy x(n) jest cągem losowym lub J = E e n (3) { } J e n n = (4) dla sygnałów determnstycznych, realzację zależnośc y(n) d(n) uzyskuje sę, wyznaczając Poneważ: mn J{ e( n )} (5) en ( ) = dn ( ) hxn ( ) ( ) (6) gdze wskaźnk sumowana przybera wartośc zależne od długośc odpowedz mpulsowej fltru, to warunk na mnmum funkcj celu: mn J{ e ( n) } mn J = d( n) h( ) x( n) (7) ze względu na wartośc odpowedz mpulsowej h() prowadzą do układu równań lnowych znanych jako równana normalne, o postac: R( n, n j) h( ) = g( n j, n) (8) gdze: Rn ( n, j) = E{ xn ( xn ) ( j) } funkcja autokorelacj cągu wejścowego, gn ( n, j) = E xn ( dn ) ( ) funkcja korelacj skrośnej x(n) oraz d(n) { } Zakres wartośc wskaźnka j zależy od długośc odpowedz mpulsowej Rozwązane równań normalnych ustala parametry h() fltru optymalnego Należy zwrócć uwagę na następujące cechy fltracj LS: funkcja J { en ( )} posada globalne mnmum; fltracja optymalna LS zapewna ortogonalność cągów e(n) y(n): E{ e( n), y( n )} = 0; (9) fltracja optymalna LS dostarcza estymatora zadanego cągu d(n): { } dn ˆ( ) = yn ( ) = xn ( ) (0)

4 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 53 Ze względów praktycznych zakłada sę stacjonarność w szerokm sense cągów wejścowych x(n), co prowadz do zmany formy równań normalnych (8): R( j ) h( ) = g( j) () Drugm stotnym ze względów praktycznych założenem jest przyjęce skończonej długośc odpowedz mpulsowej hn ( ) = { h(0), h(),, hl ( ) } Odpowedź y(n) przyczynowego fltru LS można przedstawć w postac: y( n) = h ( n) x ( n) () gdze: h () n = [(0),(), h h,( h L )] odpowedź mpulsowa, x ( n) = [ x( n), x( n),, x( n( L))] wektor regresj Stąd równana normalne () otrzymują postać: gdze R macerz autokorelacj: jest macerzą oepltza R h= g (3) R(0) R() R() R( L) R() R(0) R() R = RL ( ) R(0) (4) g = [ g(0), g(),, g( L)] wektor korelacj skrośnej (5) Optymalne rozwązane równana (3) stneje dla neosoblwej macerzy autokorelacj, tzn: h= R g (6) Należy jednak zauważyć, że macerz oepltza jest w ogólnośc dodatno półokreślona (postve sem-defnte), co ne zapewna stnena R W przypadku cągów x(n) determnstycznych lub ergodycznych dane są jedyne cąg lczbowe x(n) oraz d(n) dla n = 0,,, M- Operację uśrednana po zborze E{ } należy zastąpć uśrednanem po czase Stąd: M R( ) = x( n) x( n+ ); = 0,,, L- (7) M n= 0 M g () = xndn ( ) ( + ); = 0,,, L- (8) M n= 0 { R() } R = (9)

5 54 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 Warto zwrócć uwagę, że lczba operacj dla rozwązana równana (6) może być numeryczne znaczne zredukowana przez zastosowane algorytmu Levnsona Pewną modyfkację struktury optymalnej fltracj z rysunku można wprowadzć w przypadku, gdy sygnał wejścowy x(n) zawera addytywny szum, w szczególnośc bały, w(n) Schemat takej struktury przedstawono na rysunku w(n) d(n) Σ x(n) Fltr h parametry fltru ^ d(n) Σ + e(n) Rys Blokowy schemat fltracj optymalnej sygnał zawera addytywny szum bały Fg he block dagram of the optmal flterng sgnal contans addtve whte nose Funkcja celu struktury dana jest poprzez błąd średnokwadratowy ( MSE), jako: { } { } ( ˆ ) { } { } { } { ˆ } J e n E e n E d n d n E w n E d n w n E d n w n () = () = () () + () + () () () () (0) Zakładając, że cąg dn ( ), dn ˆ( ) w(n), a węc sygnał zadany szum są statystyczne nezależne, tzn E{ d( n) w( n )} = 0, { } E d ˆ( n) w( n ) = 0 () wartość funkcj celu może być zmnejszona przez odpowedn dobór (adaptację) parametrów fltru Mnmum tej funkcj osąga sę, spełnając warunk: dn ˆ( ) = dn ( ) en ( ) = wn ( ) () Stąd dn ˆ( ) jest estymatorem MSE sygnału d(n) Przy spełnenu warunków () funkcja celu (0) ma postać: { } { } { } { } ( ˆ ) J e( n) = E e ( n) = E d( n) d( n) + E w ( n) (3) Poneważ zwązek sygnału wyjścowego ˆ( ) dn oraz wejścowego x(n) fltru dyskretnego można zapsać w postac równana różncowego:

6 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 55 lub dn ˆ( ) + cdn ˆ( ) + cdn ˆ( ) + + cdˆ ( n N) = 0 = bxn ( ) + bxn ( ) + + b xn ( M), N M M N N (4) ˆ( ) dn= x ( n ) h (5) gdze x ( n) = dˆ( n) dˆ( n),, dˆ( n), x( n), x( n), x( nm) jest wektorem regresj (regresor), natomast h = [ c, c, cn, b0, b,, bm] wektor parametrów, to funkcja celu (3) jest funkcją wektora h (welu zmennych): { ( )} = ( h) = { ( )} + h { x( ) x ( )} h { ( ) x ( )} h + { ( )} J en J E d n E n n E dn n E w n (6) Spełnene warunku konecznego na mnmum funkcj J(h), tzn J { h} = 0, ( gradent) (7) prowadz do zboru równań lnowych: R h= R (8) xx znanych jako równana Wenera-Hopfa R = E x( n) x ( n) jest macerzą autokorelacj wektora regresj, Macerz xx { } natomast = { ( ) ( )} Rx d E x n d n jest wektorem korelacj skrośnej wektora regresj oraz zadanego sygnału Rozwązane równana (8) stneje dla macerzy neosoblwej R xx : = xx x d xd h R R (9) Co węcej h jest punktem mnmum h * funkcj J(h), gdy R xx jest dodatno określona (R xx hessan funkcj J(h)) Jeśl ponadto R xx ne zależy od h, tzn R xx jest macerzą lczbową, rozwązane (9) jest punktem mnmum globalnego h ** funkcj J(h) Mnmum globalne h ** można otrzymać dla kwadratowej funkcj J(h), a węc dla wektora parametrów spełnających c = 0, =,, N W przypadku ergodycznych wektorów regresj operator uśrednana po zborze E{ } zastępuje sę uśrednanem po czase Stąd równane Wenera-Hopfa upraszcza sę do postac: = xx xd = k = = k k { } { d } h R R lm x( ) x ( ) x ( ) ( ) (30)

7 56 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 3 MODELE LINIOWYCH OBSERWAORÓW Problem lnowej obserwacj dany jest przez zbór równań algebracznych o postac []: y = Dx + w (3) gdze: x neznany wektor, x R n, y zawera znane dane pomarowe (obserwacje), y R r, D R rxn dana macerz lczbowa, w R r wektor zawerający neznane błędy pomarowe lub składowe szumu o różnych właścwoścach wdmowych (np szum bały) Wadomo, że rozwązane równana (3) można otrzymać metodą najmnejszych kwadratów (LS), wyznaczając mnmum funkcj kwadratowej: węc: x ˆ LS estymator LS rozwązana równana obserwacj (3) F ( x) = ydx (3) xˆ LS = arg mn F( x) = ydx, (33) n x R Warto zwrócć uwagę, że jeden z model generujących welke zbory danych (Bg Data) [] ma formę równana (3) W przypadku r > n, pomjając właścwośc szumu, analtyczne rozwązane równana (33) dane jest przez znany estymator Gaussa: xˆ = D D D y (34) ( ) Macerz D D znana jest jako macerz normalna Gaussa Estymator ˆx uwzględnający właścwośc szumu, można uzyskać za pomocą algorytmu MMSE, przy czym r n w równanu (3) raktując wektory x w jako próbk (zmenne losowe) procesu stochastycznego o następujących właścwoścach: E { }, E{ } x = 0 x x = P (35) gdze P macerz kowarancj zmennej losowej x oraz E w = 0, E w w = N (36) { } { } gdze N macerz kowarancj zmennej losowej w (szumu),

8 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 57 zmenne losowe x w spełnają z założena: { } E xw = 0 (37) a węc są neskorelowane Funkcja celu J{ }, pozwalająca na znalezene struktury lnowego obserwatora, ma postać: Poneważ błąd estymacj: oraz macerz wag obserwatora J n r xˆ = Gy, G R (38) { } = E{ ˆ } e x x (39) [ ] e= x x ˆ = ( x x ˆ ),,( x x ˆ ) n n (40) { } G = g,, gn (4) to mnmum funkcj celu w równanu (39) oznacza spełnene: { x ˆ } mn E ( x ), =,, n (4) g gdze g oznacza -ty wersz macerzy wag G Spełnene warunków konecznych dla równań (4) prowadz do równana macerzowego: E { } E{ } xy G yy = 0 (43) ak węc warunek wystarczający dla stnena mnmum funkcj J{ }: E { yy } > 0 tzn macerz (Hessa) E{ yy } mus być dodatno określona Poneważ zachodz: oraz: { } E = xy P D (44) { }, to rozwązane równana (43) otrzymuje sę jako: E yy = D P D + N (45) ( ) G = PD DPD + N (46)

9 58 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 Stąd zależność (38) określa perwszą formę estymatora MMSE wektora x: gdze ( ) r r DPD + N R ( ) xˆ = PD DPD + N y (47) MSE aka forma estymatora jest szczególne korzystna dla r < n (lczba obserwacj r mnejsza nż lczba neznanych zmennych x, =,, n) W przypadku, gdy macerze kowarancj: P oraz N są neosoblwe, proste przekształcena macerzowe prowadzą do tzw drugej formy estymatora: gdze ( DN D P ) n n ˆ + R ( ) xmse = D N D+ P D N y (48) a forma estymatora jest zatem korzystna dla r >> n Co węcej, przy założenu P = 0, tzn przy braku jakejkolwek wedzy a pror o mocy średnej zmennych x, oraz przy warunku rząd D = n, estymator ˆx równana (48) przyjmuje postać: ˆ ( ) x= D N D D N y (49) znaną jako estymator Gaussa-Markowa Netrudno zauważyć, że estymator Gaussa-Markowa jest uogólnoną postacą estymatora Gaussa (estymator Gaussa estymator Gaussa-Markowa dla N = ) Rozwązane problemów obserwacj dane przez estymator (47) oraz (48) wymaga macerzowych operacj, takch jak mnożene odwracane Według nektórych autorów są zatem neodpowedne dla rozwązywana problemów obserwacj w przypadku welkch zborów danych (Bg Data) [] Powyżej opsane procesy rozwązywana problemów obserwacj można bezpośredno wykorzystywać do uzyskana struktur optymalnych lnowych fltrów Kalmana Warto zauważyć, że w lteraturze przedmotu można znaleźć modyfkacje form estymatorów opsanych powyżej W szczególnośc estymator określony zależnoścą (49) z uwzględnenem regularyzatora chonowa przyjmuje postać [5]: ˆ ( δ ) xr = D N D+ D N y (50) gdze > 0 (macerz dodatno określona) oraz δ parametr regularyzacyjny (określa normę operatora x ˆ R ) akże skalowalna wersja estymatora (49) o postac: ˆ ˆ s χ χ ( ) x = x= D N D D N y (5) zawera parametr regularyzacyjny χ Założene χ χ( ) estymatora James-Stena [5] = y prowadz do znanego

10 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 59 4 MODEL PRZEWARZANIA SYGNAŁÓW W UCZENIU MASZYNOWYM (MACHINE LEARNING) Uczene maszynowe jest jednym z ważnych zagadneń teoretycznych praktycznych, rozważanych w ramach ntelgencj oblczenowej [9] Danym N wejścowym w uczenu maszynowym są tzw zbory trenngowe = { x, d } =, par (x, d ), gdze zadane wektory x są punktam pewnej przestrzen X (x X), natomast d zadanym welkoścam skalarnym (d R) Zbory trenngowe są źródłam danych dla konstrukcj model przetwarzana sygnałów występujących mn w zagadnenach rozpoznawana wzorców, klasyfkacj, fltracj, predykcj korekcj Netrudno zauważyć, że wyżej wspomnane modele można sformułować jako aproksymację funkcj f ( ) welu zmennych, spełnających warunk zgodnośc z danym pomarowym d, tzn f: X R, f(x ) d Ważną cechą takej aproksymacj opartych na nej model jest cecha predykcyjnośc Jak wadomo, aproksymacja funkcj jest stotnym zagadnenem rozważanym w analze matematycznej Ze względu na przedmot nnejszego artykułu, ponżej rozważa sę taką aproksymację jako problem estymacj sygnałów losowych 4 Aproksymacja funkcj lnowej jako estymacja LS Zakładając, że punkty x = [x, x,, x M ] są wektoram regresj (próbkam) N wymuszającym odpowedz d, zbór trenngowy = { x, d } = jako wynk pewnego dośwadczena losowego, generowany jest przez lnowe odwzorowana [7]: d = wx + e, =,,, N (5) gdze w = [w, w,, w M ] wektor parametrów W analog do fltracj LS zlustrowanej na rysunku, schemat prezentujący zależność (5) przedstawono na rysunku 3 x w e x regresory x w w M Σ d =,,N x M Rys 3 Estymator sygnałów losowych Fg 3 he random sgnals estmator

11 60 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 Parametry w estymatora z rysunku 3 można otrzymać przez mnmalzację funkcj kosztów: N ( ) J w e w d w x (53) 0( ) = ( ) = = J 0 (w) jest funkcją kwadratową jej mnmalzacja prowadz do równań normalnych (por zależność (8)): gdze: N N xx( N) = j = j= R x x, w = R ( N) r ( N) (54) LS xx dx dm R xx (N) = M M macerz autokorelacj wektorów regresj, N rdx ( N) = x d wektor korelacj skrośnej = Należy pamętać, że w rozwązanu (54) zakłada sę neosoblwość macerzy R xx (N) Neosoblwość takej symetrycznej macerzy dla dowolnych wektorów regresj realzuje sę poprzez tzw strukturalną regularyzację W przypadku macerzy R xx (N) zmena sę jej przekątną dagonalną stąd równana normalne otrzymują postać: ( N γ ) w = R ( ) + I r ( N) (55) RLS xx dx gdze: γ parametr regularyzacj, I macerz jednostkowa, w RLS regularyzowane rozwązane najmnejszych kwadratów Warto zwrócć uwagę, że tego typu regularyzację stosuje sę także w problemach optymalzacyjnych przy oblczanu odwrotnej macerzy Hessa 4 Aproksymacja funkcj nelnowej jako problem nelnowej regresj N Jak wspomnano powyżej, zbór trenngowy = x, d =, generowany przez pewen fzyczny proces, może być reprezentowany przez następujący model regresj [9]: d = f( x ) + e, =,,, N (56) gdze: x wektor regresj (wymuszene), d odpowedź { }

12 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 6 Strukturę takego modelu można otrzymać przez mnmalzację następującej funkcj kosztów: N ( ) ( ) = ( x ) λ (57) J e = d f + f gdze: λ > 0 parametr regularyzacyjny, norma (w przestrzen Hlberta) Poneważ zdefnowana powyżej funkcja kosztów ma postać regularyzowanego funkcjonału kwadratowego, mnmalzację funkcjonału J( ) można przeprowadzć, wykorzystując klasyczną teorę regularyzacj chonowa Można węc pokazać, że funkcja f(x) mnmalzująca funkcjonał J( ) ma postać: N f( x) = wk ( x, x ) (58) gdze: w = [w, w,, w M ] wektor parametrów, współczynnk superpozycj, K( xx, ) funkcja jądra (RKHS Reproducng Kernel Hlbert Space) = Należy zauważyć, że aproksymacja funkcj f(x) w równanu (58) zadana jest przez superpozycję symetrycznych dodatno określonych funkcj K( xx, ), cągłych w przestrzen X X Mnmalzacja funkcjonału (57) prowadz do zboru równań lnowych, których rozwązane ustala wektor współczynnków w, mnmalzujących błędy danych trenngowych: ( λ ) K+ I w = d (59) gdze: K symetryczna macerz kwadratowa ( N N ) (tzw macerz jąder lub Gram), I macerz jednostkowa, d [d, d,,d N ] K = K( x, x ) = K (60) j j j Netrudno zauważyć, że zawsze można znaleźć taką wartość λ > 0, dla której stneje stablne rozwązane równana (6): w = ( K+λI) d (6) Dobór odpowednch funkcj jąder oraz wartośc parametru λ do zadanego zboru trenngowego może być przedmotem osobnych badań Warto jednak zauważyć, że jednym z stotnych form takch funkcj są funkcje Gaussa:

13 6 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 x x /σ K( xx, ) = e (6) W tym przypadku zależność (58) prowadz do struktury sec RBF (Radal Bass Functons) 43 Aproksymacja z zastosowanem przekształceń ortogonalnych Jak wykazano powyżej, dobór odpowednch funkcj jąder oraz wartośc parametru regularyzującego λ jest przedmotem badań Jedna z możlwośc doboru funkcj K( xx, ) polega na wykorzystanu przekształceń ortogonalnych, co prowadz do możlwośc mplementacj aproksymatora z zastosowanem struktur sztucznych sec neuronowych Defncja takej funkcj dana jest jako [0]: ( ) K ( x, x) =Θ x H x (63) M gdze: x = [x, x,, x M ], x R M wektor regresj, H M macerz skośne-symetryczna, Θ( ) funkcja neparzysta Poneważ oraz to macerz = { Kj} = { K(, j )} Θ ( ) 0, Θ xh x = x (64) M ( M j) =Θ( j M ) xh x xh x (65) K x x jest skośne-symetryczna Neosoblwość macerzy K można uzyskać poprzez następującą zmanę funkcj Θ( ): gdze δ () jest funkcją Kroneckera Stąd równane (59) przybera postać: gdze: K macerz skośne-symetryczna, I macerz jednostkowa Θ () Θ () + λδ () (66) ( λ ) K+ I w = d (67) Przekształcene (66) można znterpretować jako formę regularyzacj zadana aproksymacj z zastosowanem macerzy H M, której cechą jest ortogonalzacja przekształcanych wektorów x, tzn: y = H x, x, y = 0, x M

14 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 63 Należy zauważyć, że regularyzacja wykorzystywana w równanu (57) z zastosowanem funkcj jąder jest neskuteczna dla funkcj (63), poneważ m m m m f = (, ), c (, ) ( (, ), (, )) K c K x jk x j = cc j K x K x j = = j= = j= m m = cc ( K( x, x ) = c Kc= 0 j j = j= (68) jest semnormą ym nemnej rozwązane równana (67) jest numeryczne stablne dla λ 0: w = ( K+λI) d (69) a formule aproksymacj (58) można nadać formę schematu jak na rysunku 4 Perceptronowy moduł pamęc w x x x M H M u u u M x x N + + p p N Θ ( ) Θ N ( ) w w N + d=f(x) Rys 4 Układowa realzacja formuły aproksymacj Fg 4 he mplementaton of approxmaton formulas W układowej realzacj aproksymatora z rysunku 4 zastosowano N perceptronów jako elementów pamęc zadanych wektorów x ; =, N 5 REALIZACJA UCZENIA MASZYNOWEGO PRZEZ ZASOSOWANIE ALGEBRY MACIERZY HURWIZA-RADONA Jak wspomnano powyżej, uczene maszynowe jest jedynym z unwersalnych model wykorzystywanym w obszarze ntelgencj oblczenowej Celem przedstawonych rozważań jest pokazane możlwośc rozwązywana zagadneń uczena maszynowego poprzez zastosowane algebry macerzy Hurwtza-Radona (HR) [8, 0] Co węcej, rodznę macerzy HR można wykorzystać do tworzena baz

15 64 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 ortogonalnych najlepej dopasowanych do zadanych zborów sygnałów występujących w różnych zagadnenach systemów przetwarzana sygnałów Warto zauważyć, że problemy projektowana takch baz mogą prowadzć do dzedzny, zwanej kwantowym przetwarzanem sygnałów (QSP Quantum Sgnal Processng algorytmczna emulacja zasad mechank kwantowej) [5, 6] Zbór rzeczywstych N Nmacerzy A j spełnających następujące równane macerzowe: dla k j, k =,, s A, AA j k + AA k j = 0 (70) j = tworzy węc rodznę HR Macerze A j są ortogonalne skośne-symetryczne, węc: A j =A j, A j = A j; j =,, s Maksymalna lczba macerzy s max w rodzne (70) określona jest przez lczbę Radona ρ(n) Można pokazać, że s max = ρ(n) - (7) gdze ρ(n) N jedyne dla N =, 4, 8 stąd s max = N -; N =, 4, 8 ρ(n) = N (7) Nech A,, A s będze rodzną HR macerzy {-, 0, } o wymarze N N Wtedy macerz: gdze s = a = s Aa ( ) = aa (73) jest macerzą ortogonalną zależność (73) można traktować jako odwzorowane kul S s na grupę ortogonalną O (N) = Rodzna HR macerzy o wymarze 8 (dm N = 8) zawera 7 macerzy Wszystke macerze ortogonalne skośne-symetryczne dla N = 8 mają zgodne z zależnoścą (73) postać:

16 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 65 H 0 h h h3 h4 h5 h6 h7 h 0 h3 h h5 h4 h7 h 6 h h3 0 h h6 h7 h4 h 5 h h h 0 h h h h 7 = h A = = h4 h5 h6 h7 0 h h h 3 h5 h4 h7 h6 h 0 h3 h h6 h7 h4 h5 h h3 0 h h7 h6 h5 h4 h3 h h 0 (74) gdze h R, =,, 7 Podobne dla N = 6 stneje 8 macerzy (s max = 8) w rodzne HR Stąd H h8 0 H8 0 h H H = = + h8 h8 8 H 8 0 h 8 (75) gdze h R, =,, 7 Dla wymaru N = 3, ρ(n) = 0, stąd s max = 9 W zwązku z tym H H 0 0 = + h 0 H (76) Rodzna macerzy HR o wymarach N = k, k = 6,7, generuje macerz ortogonalną o strukturze: H k H k 0 0 = + hk 0 H k (77) gdze h K R

17 66 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 Warto zauważyć, że macerze H k są szczególne nteresujące dla zastosowań w przetwarzanu sygnałów, poneważ ch struktura jest kompatyblnym złożenem macerzy H 8 Wykorzystując struktury macerzy H k, można stworzyć rodznę analzatorów wdma Haara: y = ( H + h 0) x (78) + h k 0 gdze h 0 0, macerz jednostkowa Rzeczywśce, jeżel x oznacza wektor danych wejścowych, to rezultatem transformacj (78) jest wdmo y wektora x w baze ortogonalnej, tworzonej przez kolumny macerzy (H k + h 0 ) Szczególne nteresująca jest możlwość zaprojektowana bazy H 8 tak, aby dany wektor wejścowy x posadał zadane wdmo y, tzn: gdze x = [x, x,,x 8 ] y = [y, y,,y 8 ] są ustalone y = ( H8 + h 0) x (79) + h 0 Struktura macerzy H 8, tworzącej taką bazę dla zależnośc (79), jest następująca: h0 y y y3 y4 y5 y6 y7 y8 x h y y y4 y3 y6 y5 y8 y 7 x h y3 y4 y y y7 y8 y5 y 6 x 3 h3 y4 y3 y y y8 y7 y6 y = 5 x4 8 h 4 y5 y6 y7 y8 y y y3 y 4 x 5 y h 5 = y6 y5 y8 y7 y y y4 y3 x6 h 6 y7 y8 y5 y6 y3 y4 y y x 7 h7 y8 y7 y6 y5 y4 y3 y y x 8 (80) Wykorzystując zależność (79) (80), można podać struktury perceptronu lub korelatora, jak pokazano na rysunku 5 x m m 8 + y = Θ(m x) x Fltr ortogonalny (m y ) + y = Θ(m x) y = [,,] Rys 5 Struktura perceptronu/korelatora Fg 5 he structure of perceptron/correlator

18 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 67 Należy zauważyć, że wektory kerunkowe m perceptronu/korelatora z rysunku 5 posadają płaske wdmo w dopasowanej baze, tzn z równana (8) [0]: gdze y = [,,,] y = ( H + h ) m (8) h0 Jako przykład zastosowana algorytmów przetwarzana sygnałów wykorzystujących macerze rodzny HR rozważono model pewnego odwzorowana nelnowego d = F(x), generowanego przez zbór trenngowy {, } = = x d tzn d ( ) n = F x Model tak posada strukturę pokazaną na rysunku 6, gdze wykorzystano analzę wdmową opartą na macerzach z rodzny = HR n u x 0 - m x d = F(x) Rys 6 Model odwzorowana nelnowego danego przez zbór trenngowy Fg 6 he model of the nonlnear mappng gven by tranng set Oznaczając wektor trenngowy jako: x u =, =,, n (8) d otrzymuje sę wdmo Haara wektorów u : m = H + u, (83) k gdze H k macerz skośne-symetryczna, ortonormalna oraz macerz wdmową: ransformacja : m = (u) dana jako: { } H = k M = m, m,, mn (84) ( ) s k m= M H u (85)

19 68 ZESZYY NAUKOWE AKADEMII MORSKIEJ W GDYNI, nr 90, grudzeń 05 gdze: ( ) Ms = M M M M (86) ( MM) M macerz pseudoodwrotna macerzy M oraz transformacja odwrotna : u = (m): x u= = ( H + ) m d k Należy zauważyć, że z równana (85) otrzymuje sę: (87) oraz ˆ x m = estymator wdma m, =,,, n (88) 0 dˆ = F( x ) estymator odpowedz d W procese rekurencyjnym (zamknęta pętla sprzężena zwrotnego) dostaje sę: dˆ d = F( x ) (89) PODSUMOWANIE W artykule dokonano przeglądu wybranych metod estymacj sygnałów losowych z wykorzystanem estymatorów MMSE Oprócz klasycznych metod zwązanych z estymatorem Gaussa oraz metodam Wenera, omówono także nowsze metody, wynkające z zastosowana metod uczena maszynowego (machne learnng), które prowadzą do struktur sztucznych sec neuronowych Na szczególną uwagę zasługują tutaj struktury, oparte na wykorzystanu rodzny macerzy Hurwtza-Radona Struktury take można traktować jako mplementację metod kwantowego przetwarzana sygnałów (Quantum Sgnal Processng) Warto zwrócć uwagę, że ze względu na charakter artykułu ne poruszono tutaj szeregu aktualnych zagadneń z dzedzny przetwarzana optymalnego sygnałów, takch jak metody tensorowe, ślepe (blnd) oraz przetwarzane welkch zborów danych (Bg Data)

20 W Ctko, W Seńko, Modele optymalnego przetwarzana sygnałów losowych 69 LIERAURA Brammer K, Sfflng G, Kalman-Bucy-Flter, R Oldenbourg Verlag, 975 Cevher V, Becker S, Schmdt N, Convex Optmzaton for Bg Data, Sgnal Processng Magazne, September 04, vol 3, no 5 3 Clarkson PM, Optmal and Adaptve Sgnal Processng, CRC Press, Inc, Eckmann B, opology, Algebra, Analyss-Relatons and Mssng Lnks, Notces of the AMS, 999, vol 46, no 5 5 Eldar YC, Quantum Sgnal Processng, Ph D Dssertaton, MI, 00 6 Eldar YC, Oppenhem AV, Quantum Sgnal Processng, IEEE Sgnal Proc Magazne, 00, vol 9, no 6 7 Haykn S, Neural Networks and Learnng Machnes, Pearson Educaton, Inc, Jakóbczak D, Zastosowane dyskretnego operatora Hurwtza-Radona, rozprawa doktorska, Polsko-Japońska Wyższa Szkoła echnk Komputerowych, Warszawa Poggo, Smale S, he Mathematcs of Learnng: Dealng wth Data, Notces of the AMS, 003, vol 50, no 5, s Seńko W, Ctko W, Hamltonan Neural Networks Based Networks for Learnng, [w:] Machne Learnng, red A Mellouk, A Chebra, I-ech, Venna 009, s 75 9 MODELS OF RANDOM SIGNALS OPIMAL PROCESSING Summary Estmaton of random sgnals s a very mportant tool for desgn of dfferent systems he goal of ths artcle s a revew of Classcal methods and newer, eg machne learnng, structures of MMSE estmators Keywords: optmal sgnal processng, estmaton of random sgnals

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 9. jej modyfkacje. Oznaczena Będzemy rozpatrywać zagadnene rozwązana następującego układu n równań lnowych z n newadomym x 1... x n : a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x

Bardziej szczegółowo

Diagonalizacja macierzy kwadratowej

Diagonalizacja macierzy kwadratowej Dagonalzacja macerzy kwadratowej Dana jest macerz A nân. Jej wartośc własne wektory własne spełnają równane Ax x dla,..., n Każde z równań własnych osobno można zapsać w postac: a a an x x a a an x x an

Bardziej szczegółowo

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4

) będą niezależnymi zmiennymi losowymi o tym samym rozkładzie normalnym z następującymi parametrami: nieznaną wartością 1 4 Zadane. Nech ( X, Y ),( X, Y ), K,( X, Y n n ) będą nezależnym zmennym losowym o tym samym rozkładze normalnym z następującym parametram: neznaną wartoścą oczekwaną EX = EY = m, warancją VarX = VarY =

Bardziej szczegółowo

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa. PARA ZMIENNYCH LOSOWYCH

Analiza danych. Analiza danych wielowymiarowych. Regresja liniowa. Dyskryminacja liniowa.   PARA ZMIENNYCH LOSOWYCH Analza danych Analza danych welowymarowych. Regresja lnowa. Dyskrymnacja lnowa. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ PARA ZMIENNYCH LOSOWYCH Parę zmennych losowych X, Y możemy

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Weryfikacja hipotez dla wielu populacji

Weryfikacja hipotez dla wielu populacji Weryfkacja hpotez dla welu populacj Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Parametryczne testy stotnośc w

Bardziej szczegółowo

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra

Wstęp do metod numerycznych Faktoryzacja SVD Metody iteracyjne. P. F. Góra Wstęp do metod numerycznych Faktoryzacja SVD Metody teracyjne P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ 2013 Sngular Value Decomposton Twerdzene 1. Dla każdej macerzy A R M N, M N, stneje rozkład

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE

Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE Inormatyka Podstawy Programowana 06/07 Projekt 6 6. ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH CAŁKOWANIE NUMERYCZNE 6. Równana algebraczne. Poszukujemy rozwązana, czyl chcemy określć perwastk rzeczywste równana:

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 311 Sztuczne sec neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyk, p. 311 Wykład 6 PLAN: - Repetto (brevs) - Sec neuronowe z radalnym funkcjam bazowym Repetto W aspekce archtektury: zajmowalśmy

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych 1. Zastosowane

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

APROKSYMACJA QUASIJEDNOSTAJNA

APROKSYMACJA QUASIJEDNOSTAJNA POZNAN UNIVE RSITY OF TE CHNOLOGY ACADE MIC JOURNALS No 73 Electrcal Engneerng 213 Jan PURCZYŃSKI* APROKSYMACJA QUASIJEDNOSTAJNA W pracy wykorzystano metodę aproksymacj średnokwadratowej welomanowej, przy

Bardziej szczegółowo

Wykład 5 12/15/2013. Problemy algebry liniowej w Matlabie

Wykład 5 12/15/2013. Problemy algebry liniowej w Matlabie Wykład 5. Problemy algebry lnowej w Matlabe. Analza sygnałów a) w dzedzne częstotlwośc b) w dzedzne czasu c) częstotlwoścowo-czasowa d) nagrywane analza dźwęku e) Sgnal Processng Toolbox Problemy algebry

Bardziej szczegółowo

Evaluation of estimation accuracy of correlation functions with use of virtual correlator model

Evaluation of estimation accuracy of correlation functions with use of virtual correlator model Jadwga LAL-JADZIAK Unwersytet Zelonogórsk Instytut etrolog Elektrycznej Elżbeta KAWECKA Unwersytet Zelonogórsk Instytut Informatyk Elektronk Ocena dokładnośc estymacj funkcj korelacyjnych z użycem modelu

Bardziej szczegółowo

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH

V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH Krs na Stdach Doktoranckch Poltechnk Wrocławskej wersja: lty 007 34 V. WPROWADZENIE DO PRZESTRZENI FUNKCYJNYCH. Zbór np. lczb rzeczywstych a, b elementy zbor A a A b A, podzbór B zbor A : B A, sma zborów

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Pattern Classification

Pattern Classification attern Classfcaton All materals n these sldes were taken from attern Classfcaton nd ed by R. O. Duda,. E. Hart and D. G. Stork, John Wley & Sons, 000 wth the permsson of the authors and the publsher Chapter

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

ZAJĘCIA X. Zasada największej wiarygodności

ZAJĘCIA X. Zasada największej wiarygodności ZAJĘCIA X Zasada najwększej warygodnośc Funkcja warygodnośc Estymacja wg zasady maksymalzacj warygodnośc Rodzna estymatorów ML Przypadk szczególne WPROWADZEIE Komputerowa dentyfkacja obektów Przyjęce na

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej

Badanie współzależności dwóch cech ilościowych X i Y. Analiza korelacji prostej Badane współzależnośc dwóch cech loścowych X Y. Analza korelacj prostej Kody znaków: żółte wyróżnene nowe pojęce czerwony uwaga kursywa komentarz 1 Zagadnena 1. Zwązek determnstyczny (funkcyjny) a korelacyjny.

Bardziej szczegółowo

METODA ELEMENTU SKOŃCZONEGO. Termokinetyka

METODA ELEMENTU SKOŃCZONEGO. Termokinetyka METODA ELEMENTU SKOŃCZONEGO Termoknetyka Matematyczny ops ruchu cepła (1) Zasada zachowana energ W a Cepło akumulowane, [J] P we Moc wejścowa, [W] P wy Moc wyjścowa, [W] t przedzał czasu, [s] V q S(V)

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Natalia Nehrebecka. Dariusz Szymański

Natalia Nehrebecka. Dariusz Szymański Natala Nehrebecka Darusz Szymańsk . Sprawy organzacyjne Zasady zalczena Ćwczena Lteratura. Czym zajmuje sę ekonometra? Model ekonometryczny 3. Model lnowy Postać modelu lnowego Zaps macerzowy modelu dl

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 4 Stansław Cchock Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0-1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających Interpretacja

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Zastosowane modelu potęgowego Model potęgowy Przekształcene Boxa-Coxa 2. Zmenne cągłe za zmenne dyskretne 3. Interpretacja parametrów przy zmennych dyskretnych

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 4

Natalia Nehrebecka. Zajęcia 4 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 4 1. Interpretacja parametrów przy zmennych zerojedynkowych Zmenne 0 1 Interpretacja przy zmennej 0 1 w modelu lnowym względem zmennych objaśnających

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 7. KLASYFIKATORY BAYESA Częstochowa 4 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TWIERDZENIE BAYESA Wedza pozyskwana przez metody probablstyczne ma

Bardziej szczegółowo

Wykład IX Optymalizacja i minimalizacja funkcji

Wykład IX Optymalizacja i minimalizacja funkcji Wykład IX Optymalzacja mnmalzacja funkcj Postawene zadana podstawowe dee jego rozwązana Proste metody mnmalzacj Metody teracj z wykorzystanem perwszej pochodnej Metody teracj z wykorzystanem drugej pochodnej

Bardziej szczegółowo

Sprawozdanie powinno zawierać:

Sprawozdanie powinno zawierać: Sprawozdane pownno zawerać: 1. wypełnoną stronę tytułową (gotowa do ćw. nr 0 na strone drugej, do pozostałych ćwczeń zameszczona na strone 3), 2. krótk ops celu dośwadczena, 3. krótk ops metody pomaru,

Bardziej szczegółowo

Kwantowa natura promieniowania elektromagnetycznego

Kwantowa natura promieniowania elektromagnetycznego Efekt Comptona. Kwantowa natura promenowana elektromagnetycznego Zadane 1. Foton jest rozpraszany na swobodnym elektrone. Wyznaczyć zmanę długośc fal fotonu w wynku rozproszena. Poneważ układ foton swobodny

Bardziej szczegółowo

5. Maszyna Turinga. q 1 Q. Konfiguracja: (q,α β) q stan αβ niepusta część taśmy wskazanie położenia głowicy

5. Maszyna Turinga. q 1 Q. Konfiguracja: (q,α β) q stan αβ niepusta część taśmy wskazanie położenia głowicy 5. Maszyna Turnga = T Q skończony zór stanów q 0 stan początkowy F zór stanów końcowych Γ skończony zór symol taśmy T Γ alfaet wejścowy T Γ symol pusty (lank) δ: Q Γ! 2 Q Γ {L,R} funkcja

Bardziej szczegółowo

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH

u u u( x) u, x METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH i METODA ELEMENTÓW SKOŃCZONYCH METODA RÓŻNIC SKOŃCZONYCH, METODA ELEMENTÓW BRZEGOWYCH METODA ELEMENTÓW SKOŃCZONYCH Szkc rozwązana równana Possona w przestrzen dwuwymarowe. Równane Possona to równae różnczkowe cząstkowe opsuące wele

Bardziej szczegółowo

Modelowanie przepływu cieczy przez ośrodki porowate Wykład IX

Modelowanie przepływu cieczy przez ośrodki porowate Wykład IX Modelowane przepływu ceczy przez ośrodk porowate Wykład IX Metody rozwązywana metodam analtycznym równań hydrodynamk wód podzemnych płaskch zagadneń fltracj. 9.1 Funkcja potencjału zespolonego. Rozważana

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4. Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można

Bardziej szczegółowo

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń.

Wykład 1 Zagadnienie brzegowe liniowej teorii sprężystości. Metody rozwiązywania, metody wytrzymałości materiałów. Zestawienie wzorów i określeń. Wykład Zagadnene brzegowe lnowe teor sprężystośc. Metody rozwązywana, metody wytrzymałośc materałów. Zestawene wzorów określeń. Układ współrzędnych Kartezańsk, prostokątny. Ose x y z oznaczono odpowedno

Bardziej szczegółowo

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2007/08 Podstawowe fakty Równane Ax = b, x, b R N, A R N N (1) ma jednoznaczne

Bardziej szczegółowo

-Macierz gęstości: stany czyste i mieszane (przykłady) -równanie ruchu dla macierzy gęstości -granica klasyczna rozkładów kwantowych

-Macierz gęstości: stany czyste i mieszane (przykłady) -równanie ruchu dla macierzy gęstości -granica klasyczna rozkładów kwantowych WYKŁAD 4 dla zanteresowanych -Macerz gęstośc: stany czyste meszane (przykłady) -równane ruchu dla macerzy gęstośc -granca klasyczna rozkładów kwantowych Macerz gęstośc (przypomnene z poprzednch wykładów)

Bardziej szczegółowo

ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO

ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO ALGEBRY HALLA DLA POSETÓW SKOŃCZONEGO TYPU PRINJEKTYWNEGO NA PODSTAWIE REFERATU JUSTYNY KOSAKOWSKIEJ. Moduły prnjektywne posety skończonego typu prnjektywnego Nech I będze skończonym posetem. Przez max

Bardziej szczegółowo

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości

± Δ. Podstawowe pojęcia procesu pomiarowego. x rzeczywiste. Określenie jakości poznania rzeczywistości Podstawowe pojęca procesu pomarowego kreślene jakośc poznana rzeczywstośc Δ zmerzone rzeczywste 17 9 Zalety stosowana elektrycznych przyrządów 1/ 1. możlwość budowy czujnków zamenających werne każdą welkość

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mkroekonometra 5 Mkołaj Czajkowsk Wktor Budzńsk Uogólnone modele lnowe Uogólnone modele lnowe (ang. Generalzed Lnear Models GLM) Różną sę od standardowego MNK na dwa sposoby: Rozkład zmennej objaśnanej

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH

STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH STATYSTYKA MATEMATYCZNA WYKŁAD 5 WERYFIKACJA HIPOTEZ NIEPARAMETRYCZNYCH 1 Test zgodnośc χ 2 Hpoteza zerowa H 0 ( Cecha X populacj ma rozkład o dystrybuance F). Hpoteza alternatywna H1( Cecha X populacj

Bardziej szczegółowo

Optymalizacja belki wspornikowej

Optymalizacja belki wspornikowej Leszek MIKULSKI Katedra Podstaw Mechank Ośrodków Cągłych, Instytut Mechank Budowl, Poltechnka Krakowska e mal: ps@pk.edu.pl Optymalzacja belk wspornkowej 1. Wprowadzene RozwaŜamy zadane optymalnego kształtowana

Bardziej szczegółowo

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12

Kier. MTR Programowanie w MATLABie Laboratorium Ćw. 12 Ker. MTR Programowane w MATLABe Laboratorum Ćw. Analza statystyczna grafczna danych pomarowych. Wprowadzene MATLAB dysponuje weloma funcjam umożlwającym przeprowadzene analzy statystycznej pomarów, czy

Bardziej szczegółowo

Badanie współzaleŝności dwóch cech ilościowych X i Y. Analiza korelacji prostej. Badanie zaleŝności dwóch cech ilościowych. Analiza regresji prostej

Badanie współzaleŝności dwóch cech ilościowych X i Y. Analiza korelacji prostej. Badanie zaleŝności dwóch cech ilościowych. Analiza regresji prostej Badane współzaleŝnośc dwóch cech loścowych X Y. Analza korelacj prostej Badane zaleŝnośc dwóch cech loścowych. Analza regresj prostej Kody znaków: Ŝółte wyróŝnene nowe pojęce czerwony uwaga kursywa komentarz

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu

Bardziej szczegółowo

Procedura normalizacji

Procedura normalizacji Metody Badań w Geograf Społeczno Ekonomcznej Procedura normalzacj Budowane macerzy danych geografcznych mgr Marcn Semczuk Zakład Przedsęborczośc Gospodark Przestrzennej Instytut Geograf Unwersytet Pedagogczny

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7

Stanisław Cichocki. Natalia Nehrebecka. Wykład 7 Stansław Cchock Natala Nehrebecka Wykład 7 1 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy zmennych dyskretnych 1. Zmenne cągłe a zmenne dyskretne 2. Interpretacja parametrów przy

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

METODY PLANOWANIA EKSPERYMENTÓW. dr hab. inż. Mariusz B. Bogacki

METODY PLANOWANIA EKSPERYMENTÓW. dr hab. inż. Mariusz B. Bogacki Metody Planowana Eksperymentów Rozdzał 1. Strona 1 z 14 METODY PLANOWANIA EKSPERYMENTÓW dr hab. nż. Marusz B. Bogack Marusz.Bogack@put.poznan.pl www.fct.put.poznan.pl/cv23.htm Marusz B. Bogack 1 Metody

Bardziej szczegółowo

Metody analizy obwodów

Metody analizy obwodów Metody analzy obwodów Metoda praw Krchhoffa, która jest podstawą dla pozostałych metod Metoda transfguracj, oparte na przekształcenach analzowanego obwodu na obwód równoważny Metoda superpozycj Metoda

Bardziej szczegółowo

SYMULACJA KOMPUTEROWA NAPRĘŻEŃ DYNAMICZNYCH WE WRĘGACH MASOWCA NA FALI NIEREGULARNEJ

SYMULACJA KOMPUTEROWA NAPRĘŻEŃ DYNAMICZNYCH WE WRĘGACH MASOWCA NA FALI NIEREGULARNEJ Jan JANKOWSKI *), Maran BOGDANIUK *),**) SYMULACJA KOMPUTEROWA NAPRĘŻEŃ DYNAMICZNYCH WE WRĘGACH MASOWCA NA FALI NIEREGULARNEJ W referace przedstawono równana ruchu statku w warunkach falowana morza oraz

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6

Stanisław Cichocki. Natalia Nehrebecka. Wykład 6 Stansław Cchock Natala Nehrebecka Wykład 6 1 1. Interpretacja parametrów przy zmennych objaśnających cągłych Semelastyczność 2. Zastosowane modelu potęgowego Model potęgowy 3. Zmenne cągłe za zmenne dyskretne

Bardziej szczegółowo

Programowanie Równoległe i Rozproszone

Programowanie Równoległe i Rozproszone Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 18. ALGORYTMY EWOLUCYJNE - ZASTOSOWANIA Częstochowa 2014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska ZADANIE ZAŁADUNKU Zadane załadunku plecakowe

Bardziej szczegółowo

Zadanie na wykonanie Projektu Zespołowego

Zadanie na wykonanie Projektu Zespołowego Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry

Bardziej szczegółowo

KONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla

KONSPEKT WYKŁADU. nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA. Piotr Konderla Studa doktorancke Wydzał Budownctwa Lądowego Wodnego Poltechnk Wrocławskej KONSPEKT WYKŁADU nt. METODA ELEMENTÓW SKOŃCZONYCH TEORIA I ZASTOSOWANIA Potr Konderla maj 2007 Kurs na Studach Doktoranckch Poltechnk

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

mgr inż. Wojciech Artichowicz MODELOWANIE PRZEPŁYWU USTALONEGO NIEJEDNOSTAJNEGO W KANAŁACH OTWARTYCH

mgr inż. Wojciech Artichowicz MODELOWANIE PRZEPŁYWU USTALONEGO NIEJEDNOSTAJNEGO W KANAŁACH OTWARTYCH Poltechnka Gdańska Wydzał Inżyner Lądowej Środowska Katedra ydrotechnk mgr nż. Wojcech Artchowcz MODELOWANIE PRZEPŁYWU USTALONEGO NIEJEDNOSTAJNEGO W KANAŁAC OTWARTYC PRACA DOKTORSKA Promotor: prof. dr

Bardziej szczegółowo

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup

Plan wykładu: Typowe dane. Jednoczynnikowa Analiza wariancji. Zasada: porównać zmienność pomiędzy i wewnątrz grup Jednoczynnkowa Analza Waranc (ANOVA) Wykład 11 Przypomnene: wykłady zadana kursu były zaczerpnęte z podręcznków: Statystyka dla studentów kerunków techncznych przyrodnczych, J. Koronack, J. Melnczuk, WNT

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO

WPŁYW PARAMETRÓW DYSKRETYZACJI NA NIEPEWNOŚĆ WYNIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO Walenty OWIECZKO WPŁYW PARAMETRÓW DYSKRETYZACJI A IEPEWOŚĆ WYIKÓW POMIARU OBIEKTÓW OBRAZU CYFROWEGO STRESZCZEIE W artykule przedstaono ynk analzy nepenośc pomaru ybranych cech obektu obrazu cyfroego. Wyznaczono

Bardziej szczegółowo

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ],

STATECZNOŚĆ SKARP. α - kąt nachylenia skarpy [ o ], φ - kąt tarcia wewnętrznego gruntu [ o ], STATECZNOŚĆ SKARP W przypadku obektu wykonanego z gruntów nespostych zaprojektowane bezpecznego nachylena skarp sprowadza sę do przekształcena wzoru na współczynnk statecznośc do postac: tgφ tgα = n gdze:

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

WSPOMAGANE KOMPUTEROWO POMIARY CZĘSTOTLIWOŚCI CHWILOWEJ SYGNAŁÓW IMPULSOWYCH

WSPOMAGANE KOMPUTEROWO POMIARY CZĘSTOTLIWOŚCI CHWILOWEJ SYGNAŁÓW IMPULSOWYCH Metrologa Wspomagana Komputerowo - Zegrze, 9-22 05.997 WSPOMAGANE KOMPUTEROWO POMIARY CZĘSTOTLIWOŚCI CHWILOWEJ SYGNAŁÓW IMPULSOWYCH dr nż. Jan Ryszard Jask, dr nż. Elgusz Pawłowsk POLITECHNIKA lubelska

Bardziej szczegółowo

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I

2 1 3 c c1. e 1, e 2,..., e n A= e 1 e 2...e n [ ] M. Przybycień Matematyczne Metody Fizyki I Liniowa niezależno ność wektorów Przykład: Sprawdzić czy następujące wektory z przestrzeni 3 tworzą bazę: e e e3 3 Sprawdzamy czy te wektory są liniowo niezależne: 3 c + c + c3 0 c 0 c iei 0 c + c + 3c3

Bardziej szczegółowo

Funkcje i charakterystyki zmiennych losowych

Funkcje i charakterystyki zmiennych losowych Funkcje charakterystyk zmennych losowych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Intelgencj Metod Matematycznych Wydzał Informatyk Poltechnk Szczecńskej 5. Funkcje zmennych losowych

Bardziej szczegółowo

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje

Bardziej szczegółowo

Metody predykcji analiza regresji

Metody predykcji analiza regresji Metody predykcj analza regresj TPD 008/009 JERZY STEFANOWSKI Instytut Informatyk Poltechnka Poznańska Przebeg wykładu. Predykcja z wykorzystanem analzy regresj.. Przypomnene wadomośc z poprzednch przedmotów..

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

PROSTO O DOPASOWANIU PROSTYCH, CZYLI ANALIZA REGRESJI LINIOWEJ W PRAKTYCE

PROSTO O DOPASOWANIU PROSTYCH, CZYLI ANALIZA REGRESJI LINIOWEJ W PRAKTYCE PROSTO O DOPASOWANIU PROSTYCH, CZYLI ANALIZA REGRESJI LINIOWEJ W PRAKTYCE Janusz Wątroba, StatSoft Polska Sp. z o.o. W nemal wszystkch dzedznach badań emprycznych mamy do czynena ze złożonoścą zjawsk procesów.

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Automatyzacja Statku

Automatyzacja Statku Poltechnka Gdańska ydzał Oceanotechnk Okrętownctwa St. nż. I stopna, sem. IV, kerunek: TRANSPORT Automatyzacja Statku ZAKŁÓCENIA RUCHU STATKU M. H. Ghaem Marzec 7 Automatyzacja statku. Zakłócena ruchu

Bardziej szczegółowo

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010

EKONOMETRIA I Spotkanie 1, dn. 05.10.2010 EKONOMETRIA I Spotkane, dn. 5..2 Dr Katarzyna Beń Program ramowy: http://www.sgh.waw.pl/nstytuty/e/oferta_dydaktyczna/ekonometra_stacjonarne_nest acjonarne/ Zadana, dane do zadań, ważne nformacje: http://www.e-sgh.pl/ben/ekonometra

Bardziej szczegółowo

Filtracja adaptacyjna - podstawy

Filtracja adaptacyjna - podstawy Fltracja adaptacyjna - podstawy Współczynn fltrów adaptacyjnych są zmennym w czase w celu optymalzacje zadanego ryterum Powszechnym algorytmem dla fltrów adaptacyjnych jest algorytm LMS Least Mean Square)

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz Filtr Kalmana Struktury i Algorytmy Sterowania Wykład 1-2 prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz Politechnika Gdańska, Wydział Elektortechniki i Automatyki 2013-10-09, Gdańsk Założenia

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadae. W ure zajduje sę 5 kul, z których 5 jest bałych czarych. Losujemy bez zwracaa kolejo po jedej kul. Kończymy losowae w momece, kedy wycągęte zostaą wszystke czare kule. Oblcz wartość oczekwaą lczby

Bardziej szczegółowo