WYKŁAD: Estymacja funkcji regresji I. Zaawansowane Metody Uczenia Maszynowego
|
|
- Lech Czajkowski
- 4 lat temu
- Przeglądów:
Transkrypt
1 WYKŁAD: Estymacja funkcji regresji I Zaawansowane Metody Uczenia Maszynowego
2 Niech (X, Y ) R p+1 będzie wektorem losowym takim, że Y = f (X) + ε, gdzie ε- błąd losowy taki, że E(ε X = x) = 0 dla dowolnego x, w szczególności E(ε) = 0. f (x)- funkcja regresji Y względem X. Estymacja na podstawie próby losowej (X 1, Y 1 ),..., (X n, Y n ). X 1,..., X n - wielkości losowe, lub ciąg deterministyczny. W wykładzie o drzewach klasyfikacyjnych rozważana była krótko estymacja f (x) metodą drzew regresyjnych. Tu omówimy inne, podstawowe metody, estymacji funkcji regresji. Rozważymy: metody parametryczne estymacji funkcji regresji; metody nieparametryczne dla niskiego wymiaru X (p = 1, 2); metody nieparametryczne dla dużego wymiaru p przy przyjęciu pewnych ogólnych założeń o postaci f.
3 Metody parametryczne estymacji funkcji regresji Niech Y i = f (x i, α) + ε i, i = 1,..., n, ( ) gdzie ε 1,..., ε n -niezależne zmienne losowe o tym samym rozkładzie, Eε = 0 i x 1,... x n - wielkości deterministyczne. Postać f (, α)- znana, nieznany parametr α = (α 1,..., α q ). Jeśli f nie jest funkcją afiniczną x, to równanie ( ): równanie regresji nieliniowej. Przykłady Regresja wielomianowa f (x, α) = α o + α 1 x α q 1 x q 1 (sprowadzalna do regresji liniowej) równanie Cobba a-douglasa f (x, α) = α 0 x α1 1 x α1 2 (sprowadzalne do regresji liniowej) równanie Michaelisa-Mentena f (x, α) = α 0 x 1 /(α 1 + x 1 ).
4 Podstawowa metoda estymacji α: Metoda Nieliniowych Najmniejszych Kwadratów (MNNK). Próba (x 1, y 1 ),..., (x n, y n ). ˆα = argmin n (y i f (x i, α)) 2 := Q(α). i=1 Równanie punktu stacjonarnego Q α k = n i=1 2(y i f (x i, α)) f (x i, α) α k = 0, k = 1,..., q nie daje się z reguły rozwiązać explicite.
5 Iteracyjna metoda Gaussa-Newtona. Próba (x 1, y 1 ),..., (x n, y n )). α (0) = (α (0) 1,..., α(0) q ) - początkowy estymator. Rozwiniecie Taylora daje ( α = (α 1,..., α q ) ) f (x i, α) f (x i, α (0) ) + q k=1 f (x i, α) (α k α (0) k α ) i = 1,..., n k α=α (0) Zastępujemy f (x i, α) przez y i i otrzymujemy równanie regresji liniowej z parametrami η k = α k α (0) k i macierzą eksperymentu (x ik ) n q := ( f (x i,α) α k ). Po rozwiązaniu α=α (0) α (1) k = α (0) k + η k k = 1,..., q
6 Przykład Dane dotyczą kontrolowanej utraty wagi przez pacjenta w wieku 48 lat, wzrostu 193 cm, waga początkowa kg (zbiór wtloss, pakiet Mass). Weight Days Postulowana postać parametryczna Weight = β 0 + β 1 2 Days/θ + ε, β 0 -waga do osiągnięcia, β 1 -waga do stracenia, θ- czas potrzebny do stracenia β 1 /2.
7 Ustalamy wartości początkowe parametrów na podstawie ich interpretacji. Procedura realizująca MNNK: nls wtloss.st=c(b0=90,b1=95,th=120) wtloss.st<-nls(weight~b0+b1*2^(-days/th),data=wtloss, start=wtloss.st,trace=t) : : : : Stabilizacja wartości po trzech iteracjach. Estymowana waga docelowa - mniejsza niż początkowa wartość, większa wartość parametru th
8 Nieparametryczne estymatory funkcji regresji (małe p) Nie zakładamy nic o postaci funkcji regresji, poza zalożeniami o jej gładkości. estymator średniej ruchomej; estymatory jądrowe; estymatory lokalnie liniowe; funkcje sklejane (spline y): na przykładzie naturalnego spline u kubicznego. Średnia ruchoma z parametrem h = h n : Estymator f (x) = E(Y X = x) Średnia próbkowa wartości Y i odpowiadających x i takich, że x i x h. h-parametr wygładzający tego estymatora: h - obciążenie, h - wariancja.
9 Miary oceny estmyatorów regresji Podstawowe miary służace do wyboru parametru h MSEˆf (x) = E(ˆf (x, h) f (x)) 2 MISE(f ) = MSEˆf (x) dx W praktyce często bład kroswalidacyjny: n (Y i ˆf i (x i, h)) 2, i=1 gdzie ˆf i (x i, h) estymator funkcji regresji na podstawie próby z pominiętą obserwacją x i.
10 Estymator jądrowy funkcji regresji Uogólnienie estymator średniej ruchomej ˆf (x) = 1 n nh p i=1 K(x X i h )Y i 1 n nh p i=1 K(x X i h ) = n i=1 K(x X i h )Y i n i=1 K(x X i h ) Niech (X, Y ) ma gęstość f (x, y) i gęstości brzegowe f X (x) i f Y (y) Mianownik przybliża gęstość f X (x) zmiennej X w punkcie x Licznik przybliża wartość oczekiwaną Y dla X = x : s f (x, s) ds. Estymator jądrowy jest szczególnym przypadkiem estymatora lokalnie liniowego.
11 Estymator lokalnie liniowy Rozwiązanie problemu ważonych najmniejszych kwadratów, dla którego wielkość wag jest, regulowana odległością wartości x i od punktu x. Dla ustalonego x minimalizowana jest funkcja n K(x x i )/h n )(Y i β 0 (x) β 1 (x) T (x i x)) 2 i=1 ze względu na β 0 i β 0. K: gęstość prawdopodobieństwa na R p mająca maksimum w 0. ˆf loc (x) = ˆβ 0 (x) Funkcja realizująca w R estymator lokalnie wielomianowy jest funkcja loess. Dla wyboru parametru wygładzającego metoda kroswalidacji (walidacji krzyżowej) n h n,cv = argmin h (Y i ˆf i loc (x i)) 2, (1) -gdzie ˆf i loc (x i, y i ). i=1 jest estymatorem na podstawie próby z usuniętą obserwacją
12 Przykład Zbiory draft70yr.dat i draft71yr.dat: dane dotyczące losowań kolejności powszechnego poboru do wojska w czasie wojny w Wietnamie w latach 1970 i Losowania dotyczyły kapsułek z 366 możliwymi datami urodzin i polegały na kolejnym ich losowaniu bez zwracania. Metoda poboru: urodzeni w latach o pierwszej wylosowanej dacie urodzin byli wcielani w pierwszej kolejności, o drugiej wylosowanej dacie urodzin jako następni itd. Diagramy rozproszenia dla kolejnych lat (oś x numer daty urodzenia od 1 do 366, oś y numer losowania, w którym data została wylosowana). Do wykresów dopasowano estymator lokalnie liniowy i estymator MNK Rysunek: Diagramy rozproszenia dla lat 1970, 1971
13 Funkcje sklejane W ustalonej klasie funkcji szukamy rozwiązania problemu minimalizacji funkcji kryterialnej 1 n n (y i g(x i )) 2 + λ [g (2) (x)] 2 dx, i=1 gdzie λ jest pewną wybraną stałą dodatnią. Dla gładkiej i malo zmiennej funkcji g drugi człon, odgrywający rolę kary za zmienność, jest mały. Rozwiązaniem jest kubiczna funkcja sklejana, która między kolejnymi obserwacjami jest wielomianem trzeciego stopnia, tak dobranym, że cała krzywa ma drugą pochodną ciągłą.
14 Przykład Zbiór mcycle w MASS dotyczy symulowanych wypadkow motocyklowych.?mcycle daje opis zbioru. Estymujemy zależność accel od times. plot(accel~times,mcycle,main="spline") lines(smooth.spline(mcycle$times,mcycle$accel)) plot(accel~times,mcycle,main="loess") #uwaga -syntax tu jest troche inny! f=loess(accel~times,mcycle) lines(f$x,f$fitted) plot(accel~times,mcycle,main="ksmooth") lambda=(range(mcycle$times)[2]-range(mcycle$times)[1])/10 lines(ksmooth(mcycle$times,mcycle$accel,"normal",bandwidth=lambda)) # ksmooth realizuje tzw. estymator jądrowy regresji
15 spline times accel loess times accel Domyślny parametr wygładzający dla estymatora lokalnie wielomianowego za duży! Częsta sytuacja: dobór metodą prób i błędów lub metoda kroswalidacji.
16 Nieparametryczne estymatory funkcji regresji (duże p) Problem wymiarowości (curse of dimensionality) Przypuścmy, że estymujemy funkcję regresji na kwadracie [0, 1] [0, 1] i uznajemy, że żeby dobrze przybliżyć w środkach kwadratów o bokach dlugości 0.1, potrzebne jest 10 obserwacji wewnątrz każdego kwadratu. Potrzebujemy więc = 1000 obserwacji dla dobrej estymacji w tych punktach, w przestrzeni trójwymiarowej potrzebujemy analogicznie = 10000, w przestrzeni p-wymiarowej p obserwacji. Liczba obserwacji potrzebna do satysfakcjonującej estymacji rośnie potęgowo wraz z wymiarem. Metody przedstawione poprzednio nieskuteczne dla dużego p. Metoda: Przyjęcie założeń o strukturze funkcji regresji i sprowadzenie problemu do estymacji funkcji zależnych od jednej zmiennej.
17 Drzewa regresyjne Drzewa regresyjne: konstrukcja taka sama jak dla drzew klasyfikacyjnych CART, jedyna zmiana: w każdym węźle m szukamy podziału na m L i m R, aby SSE(m L ) + SSE(m R ) ( ) było minimalne. SSE(m L ) suma kwadratów rezyduów, gdy regresja dla m L estymowana jest przez średnią próbkową wartości zmiennej objaśnianej dla tego węzła itd. Minimalizacja ( ) równoważna maksymalizacji różnicy zmiany SSE przy przejściu od rodzica do dzieci. Przycinanie drzewa. Funkcja kryterialna: R α(t ) = SSE(T ) + α T T - liczba liści w drzewie T, α > 0. SSE(T ): suma SSE dla wszystkich liści. Estymator regresji: dla kostki związanej z liściem: średnia y w liściu (dzięki przycinaniu i prostej strukturze estymatora unikamy przeuczenia)
18 MARS Multivriate Addaptive Regression Splines Wady drzew regresyjnych: dopasowana funkcja - schodkowa; nie są skuteczne dla modeli addytywnych postaci y = f 1(x 1) f p(x p) + ε; niestabilność. Postać estymatora metodą drzewa regresyjnego: ĝ(x) = p c j B j (x), j=1 gdzie B j (x) = I (x N j ) = H(±(x v(l) t l )), H(s) = I {s 0}. Idea: zastąpić funkcje H(x) przez funkcje ciągłe kawałkami liniowe R p R postaci (±(x t) +) q + adaptacyjny dobór składników. l
19 Funkcje bazowe
20 Strategia MARS Rodzina funkcji bazowych (z R p R) C = {(x j t) +, (t x j ) +} j=1,...,p, t {x1j,...,x nj } węzły we wszystkich możliwych wartościach każdego predyktora. Model postaci g(x) = E(Y X = x) = β 0 + M β mh m(x), gdzie h m C lub jest iloczynem pewnej liczby funkcji z C. (β 0, β 1,..., β m) estymowane MNK. Problem: jak wybierać funkcje h m? m=1
21 Adaptacyjny dobór funkcji h m (analogiczny do wyboru podziału w węźle). Na pewnym etapie M mamy rodzinę M funkcji. Na następnym etapie szukamy funkcji postaci (h l M) h(x) + ˆβ 2M+1 h l (x)(x j t) + + ˆβ 2M+2 h l (x)(t x j ) + (h( ) kombinacja liniowa funkcji z M) dającej największy spadek SSE i dodajemy do M nowe funkcje bazowe h l (x)(x j t) + i h l (x)(t x j ) +. Kontynuujemy aż do iloczynów zadanego rzędu, później regresja krokowa (w tył).
22 W pierwszym kroku wybrana funkcja (x2 x2,k )+, w drugim (x1 x1,k )+
23
24 Model addytywny Przyjmujemy, że wektor losowy (Y, X) R p+1, gdzie X = (X 1,..., X p) spełnia Y = α + p f j (X j ) + ε, i=1 ( ) gdzie f j - nieznane, gładkie funkcje, ε- błąd losowy, taki, że Eε = 0. Model ( ) nadokreślony, dlatego przyjmujemy dla każdego j Ef j (X j ) = 0 α = EY. Algorytm dopasowania wstecznego (back-fitting). Oparty na obserwacji, że w modelu ( ) E(Y α f j (X j ) X k = x) = f k (x) j k
25 Algorytm dopasowania wstecznego krok 0: ˆα = ȳ, f [0] j 0, j = 1,..., p. Powtarzaj cyklicznie j = 1,..., p, 1,..., p,... aż do uzyskania maksymalnej różnicy przybliżenia w dwóch kolejnych iteracjach mniejszej od ε: f [k] j estymator nieparametryczny (np. spline) funkcji regresji f j uzyskany na podstawie danych postaci (x, y f [k 1] l j l (x)).
26 Przykład Rozpatrzmy zbior ozone zawierający dane o zależności między koncentracją ozonu i warunkami meteo w okolicy Los Angeles 03 -stezenie ozonu ibh-inversion base height, ibt-inversion top temperature. Rozpocznijmy od zwykłego modelu liniowego O3 temp+ibh+ibt olm=lm(o3~temp+ibh+ibt,ozone) summary(olm) Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-06 *** temp < 2e-16 *** ibh e-06 *** ibt Signif. codes: 0 *** ** 0.01 * Residual standard error: on 326 degrees of freedom Multiple R-Squared: 0.652, Adjusted R-squared:
27 Model addytywny: procedura gam w bibliotece mgcv par(mfrow=c(2,2)) g=gam(o3~s(temp)+s(ibh)+s(ibt),data=ozone) plot(g) summary(g) Approximate significance of smooth terms: edf chi.sq p-value s(temp) < 2.22e-16 s(ibh) e-07 s(ibt) R-sq.(adj) = Deviance explained = 71.7% GCV score = Scale est. = n = 330 Procent wyjaśnionego odchylenia 0.71, R^2 w modelu liniowym 0.65 # pas ufności dla ibt zawiera prosta o wsp. 0, wyrzucamy ja z modelu, # dla dwu pozostałych wykres sugeruje zależność kawałkami liniową
28 s(temp,3.39) 10 5 s(ibh,4.17) temp ibh s(ibt,2.11) ibt
29 # Definiujemy odpowiednie funkcje bazowe: rhs=function(x,c) ifelse(x>c,x-c,0) lhs=function(x,c) ifelse(x<c,c-x,0) Rysunek sugeruje punkty łamania: 1000 dla ibh i 60 dla temp. olm1=lm(03~rhs(temp,60)+lhs(temp,60)+rhs(ibh,1000) +lhs(ibh,1000)) print(summary(olm1)) Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** lhs(temp,60) ** rhs(temp,60) < 2e-16 *** lhs(ibh,1000) *** rhs(ibh,1000) e-13 *** Multiple R-Squared: , Adjusted R-squared: Dopasowanie lepsze niż modelu linowego i porównywalne z modelem addytywnym. Istotna wiedza na temat konieczności transformacji.
30 Metoda poszukiwania interesujących kierunków Model funkcji regresji f (x) = α + J f j (α jx), gdzie α = EY, α j są interesującymi kierunkami, które determinują zachowanie funkcji regresji f. J - nieznany parametr. Estymacja oparta na sekwencyjnym wyznaczaniu interesujących kierunków. Na j-tym etapie wyznaczmy kierunek α j, dający minimalną wartość wyrażenia j=1 n (r i ˆf (α x i )) 2 / i=1 gdzie r i : bieżące rezydua po znalezieniu j 1 kierunków, a ˆf - dowolny ustalony estymator jednowymiarowej funkcji regresji. Realizacja: funkcja ppr w pakiecie MASS. n i=1 r 2 i,
Estymacja w regresji nieparametrycznej
Estymacja w regresji nieparametrycznej Jakub Kolecki Politechnika Gdańska 28 listopada 2011 1 Wstęp Co to jest regresja? Przykład regresji 2 Regresja nieparametryczna Założenia modelu Estymacja i jej charakterystyki
Bardziej szczegółowoESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA
ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA Jan Mielniczuk Wisła, grudzień 2009 PLAN Błędy predykcji i ich podstawowe estymatory Estymacja błędu predykcji w modelu liniowym. Funkcje kryterialne Własności
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Bardziej szczegółowoAnaliza zależności cech ilościowych regresja liniowa (Wykład 13)
Analiza zależności cech ilościowych regresja liniowa (Wykład 13) dr Mariusz Grządziel semestr letni 2012 Przykład wprowadzajacy W zbiorze danych homedata (z pakietu R-owskiego UsingR) można znaleźć ceny
Bardziej szczegółowoStosowana Analiza Regresji
prostej Stosowana Wykład I 5 Października 2011 1 / 29 prostej Przykład Dane trees - wyniki pomiarów objętości (Volume), średnicy (Girth) i wysokości (Height) pni drzew. Interesuje nas zależność (o ile
Bardziej szczegółowoKomputerowa Analiza Danych Doświadczalnych
Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11; środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd
Bardziej szczegółowoModel regresji wielokrotnej Wykład 14 ( ) Przykład ceny domów w Chicago
Model regresji wielokrotnej Wykład 14 (4.06.2007) Przykład ceny domów w Chicago Poniżej są przedstawione dane dotyczące cen domów w Chicago (źródło: Sen, A., Srivastava, M., Regression Analysis, Springer,
Bardziej szczegółowoRegresja nieparametryczna series estimator
Regresja nieparametryczna series estimator 1 Literatura Bruce Hansen (2018) Econometrics, rozdział 18 2 Regresja nieparametryczna Dwie główne metody estymacji Estymatory jądrowe Series estimators (estymatory
Bardziej szczegółowoWYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. Metoda CART. MiNI PW
WYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. Metoda CART MiNI PW Drzewa służą do konstrukcji klasyfikatorów prognozujących Y {1, 2,..., g} na podstawie p-wymiarowego wektora atrybutów (dowolne atrybuty:
Bardziej szczegółowoMetoda najmniejszych kwadratów
Metoda najmniejszych kwadratów Przykład wstępny. W ekonomicznej teorii produkcji rozważa się funkcję produkcji Cobba Douglasa: z = AL α K β gdzie z oznacza wielkość produkcji, L jest nakładem pracy, K
Bardziej szczegółowoWYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. METODA CART. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. METODA CART Zaawansowane Metody Uczenia Maszynowego Drzewa służą do konstrukcji klasyfikatorów prognozujących Y {1, 2,..., g} na podstawie p-wymiarowego wektora
Bardziej szczegółowoRozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Bardziej szczegółowoWYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. METODA CART. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: DRZEWA KLASYFIKACYJNE I REGRESYJNE. METODA CART Zaawansowane Metody Uczenia Maszynowego Drzewa służą do konstrukcji klasyfikatorów prognozujących Y {1, 2,..., g} na podstawie p-wymiarowego wektora
Bardziej szczegółowoRozdział 8. Regresja. Definiowanie modelu
Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoStatystyka opisowa. Wykład V. Regresja liniowa wieloraka
Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +
Bardziej szczegółowoWażne rozkłady i twierdzenia c.d.
Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby
Bardziej szczegółowoRegresja liniowa wprowadzenie
Regresja liniowa wprowadzenie a) Model regresji liniowej ma postać: gdzie jest zmienną objaśnianą (zależną); są zmiennymi objaśniającymi (niezależnymi); natomiast są parametrami modelu. jest składnikiem
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoĆwiczenie 5 PROGNOZOWANIE
Ćwiczenie 5 PROGNOZOWANIE Prognozowanie jest procesem przewidywania przyszłych zdarzeń. Obszary zastosowań prognozowania obejmują np. analizę danych giełdowych, przewidywanie zapotrzebowania na pracowników,
Bardziej szczegółowoWeryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Bardziej szczegółowoPorównanie błędu predykcji dla różnych metod estymacji współczynników w modelu liniowym, scenariusz p bliskie lub większe od n
Porównanie błędu predykcji dla różnych metod estymacji współczynników w modelu iowym, scenariusz p bliskie lub większe od n Przemyslaw.Biecek@gmail.com, MIM Uniwersytet Warszawski Plan prezentacji: 1 Motywacja;
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
Bardziej szczegółowoMonte Carlo, bootstrap, jacknife
Monte Carlo, bootstrap, jacknife Literatura Bruce Hansen (2012 +) Econometrics, ze strony internetowej: http://www.ssc.wisc.edu/~bhansen/econometrics/ Monte Carlo: rozdział 8.8, 8.9 Bootstrap: rozdział
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010
STATYSTYKA MATEMATYCZNA WYKŁAD 14 18 stycznia 2010 Model statystyczny ROZKŁAD DWUMIANOWY ( ) {0, 1,, n}, {P θ, θ (0, 1)}, n ustalone P θ {K = k} = ( ) n θ k (1 θ) n k, k k = 0, 1,, n Geneza: Rozkład Bernoulliego
Bardziej szczegółowo1.1 Klasyczny Model Regresji Liniowej
1.1 Klasyczny Model Regresji Liniowej Klasyczny model Regresji Liniowej jest bardzo użytecznym narzędziem służącym do analizy danych empirycznych. Analiza regresji zajmuje się opisem zależności między
Bardziej szczegółowoRedukcja wariancji w metodach Monte-Carlo
14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda
Bardziej szczegółowoHeteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów
Formy heteroscedastyczności Własności estymatorów MNK wydatki konsumpcyjne 0 10000 20000 30000 40000 14.4 31786.08 dochód rozporz¹dzalny Zródlo: Obliczenia wlasne, dane BBGD 2004 Formy heteroscedastyczności
Bardziej szczegółowoNatalia Neherbecka. 11 czerwca 2010
Natalia Neherbecka 11 czerwca 2010 1 1. Konsekwencje heteroskedastyczności i autokorelacji 2. Uogólniona MNK 3. Stosowalna Uogólniona MNK 4. Odporne macierze wariancji i kowariancji b 2 1. Konsekwencje
Bardziej szczegółowoWprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje
Bardziej szczegółowoKADD Metoda najmniejszych kwadratów funkcje nieliniowe
Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji
Bardziej szczegółowoPDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych
Bardziej szczegółowoWYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności
Bardziej szczegółowoWprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne
Wprowadzenie Prostym podejściem do klasyfikacji jest estymacja funkcji regresji r(x) =E(Y X =x)zpominięciemestymacjigęstościf k. Zacznijmyodprzypadkudwóchgrup,tj.gdy Y = {1,0}. Wówczasr(x) =P(Y =1 X =x)ipouzyskaniuestymatora
Bardziej szczegółowoWykład 4 Wybór najlepszej procedury. Estymacja parametrów re
Wykład 4 Wybór najlepszej procedury. Estymacja parametrów regresji z wykorzystaniem metody bootstrap. Wrocław, 22.03.2017r Wybór najlepszej procedury - podsumowanie Co nas interesuje przed przeprowadzeniem
Bardziej szczegółowoRegresja - zadania i przykłady.
Regresja - zadania i przykłady. W5 e0 Zadanie 1. Poniżej zamieszczono fragmenty wydruków dotyczących dopasowania modelu regresji do zmiennej ozone w oparciu o promieniowanie (radiation), oraz w oparciu
Bardziej szczegółowoWstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra
Wstęp do metod numerycznych 9a. Układy równań algebraicznych P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Układy równań algebraicznych Niech g:r N równanie R N będzie funkcja klasy co najmniej
Bardziej szczegółowoEkonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej
Ekonometria Wprowadzenie do modelowania ekonometrycznego Estymator Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 1 Estymator 1 / 16 Agenda 1 Literatura Zaliczenie przedmiotu 2 Model
Bardziej szczegółowoMetoda najmniejszych kwadratów
Własności algebraiczne Model liniowy Zapis modelu zarobki = β 0 + β 1 plec + β 2 wiek + ε Oszacowania wartości współczynników zarobki = b 0 + b 1 plec + b 2 wiek + e Model liniowy Tabela: Oszacowania współczynników
Bardziej szczegółowoUkłady równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona) f(x) = 0, gdzie. dla n=2 np.
Układy równań nieliniowych (wielowymiarowa metoda Newtona-Raphsona f(x 0, f ( f, f,..., f n gdzie 2 x ( x, x 2,..., x n dla n2 np. f ( x, y 0 g( x, y 0 dla każdej wielowymiarowej rozwinięcie w szereg Taylora
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
Bardziej szczegółowoDOPASOWYWANIE KRZYWYCH
DOPASOWYWANIE KRZYWYCH Maciej Patan Uniwersytet Zielonogórski Motywacje Przykład 1. Dane o przyroście światowej populacji są aktualizowane co każde 10 lat, celem szacowania średniego przyrostu rocznego.
Bardziej szczegółowoKORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona
KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y 2. Współczynnik korelacji Pearsona 3. Siła i kierunek związku między zmiennymi 4. Korelacja ma sens, tylko wtedy, gdy związek między zmiennymi
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VI... 16 Listopada 2011 1 / 24 Jest to rozkład zmiennej losowej rozkład chi-kwadrat Z = n i=1 X 2 i, gdzie X i N(µ i, 1) - niezależne. Oznaczenie: Z χ 2 (n, λ), gdzie:
Bardziej szczegółowo7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja
Bardziej szczegółowoRegresja liniowa w R Piotr J. Sobczyk
Regresja liniowa w R Piotr J. Sobczyk Uwaga Poniższe notatki mają charakter roboczy. Mogą zawierać błędy. Za przesłanie mi informacji zwrotnej o zauważonych usterkach serdecznie dziękuję. Weźmy dane dotyczące
Bardziej szczegółowoStatystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Bardziej szczegółowoPrawdopodobieństwo i statystyka
Wykład VIII: Przestrzenie statystyczne. Estymatory 1 grudnia 2014 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji r(x, Z) = 0, 986 Wprowadzenie Przykład: pomiar z błędem Współczynnik korelacji
Bardziej szczegółowoUogolnione modele liniowe
Uogolnione modele liniowe Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Uogolnione modele liniowe grudzien 2013 1 / 17 (generalized linear model - glm) Zakładamy,
Bardziej szczegółowoWspółczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ
Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,
Bardziej szczegółowoMatematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoREGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój
1 REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój 2 DOTYCHCZASOWE MODELE Regresja liniowa o postaci: y
Bardziej szczegółowoEstymacja gęstości prawdopodobieństwa metodą selekcji modelu
Estymacja gęstości prawdopodobieństwa metodą selekcji modelu M. Wojtyś Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Wisła, 7 grudnia 2009 Wstęp Próba losowa z rozkładu prawdopodobieństwa
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 5
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y
Bardziej szczegółowoWYKŁAD: Szeregi czasowe I. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: Szeregi czasowe I Zaawansowane Metody Uczenia Maszynowego Szereg czasowy (X t ) - ciąg zmiennych losowych indeksowany parametrem t (czas). Z reguły t N lub t Z. Dotąd rozpatrywaliśmy: (X t )- ciąg
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 8
Stanisław Cichocki Natalia Nehrebecka Zajęcia 8 1. Testy diagnostyczne 2. Testowanie prawidłowości formy funkcyjnej modelu 3. Testowanie normalności składników losowych 4. Testowanie stabilności parametrów
Bardziej szczegółowoKomputerowa Analiza Danych Doświadczalnych
Komputerowa Analiza Danych Doświadczalnych Prowadząca: dr inż. Hanna Zbroszczyk e-mail: gos@if.pw.edu.pl tel: +48 22 234 58 51 konsultacje: poniedziałek, 10-11, środa: 11-12 www: http://www.if.pw.edu.pl/~gos/students/kadd
Bardziej szczegółowoistocie dziedzina zajmująca się poszukiwaniem zależności na podstawie prowadzenia doświadczeń jest o wiele starsza: tak na przykład matematycy
MODEL REGRESJI LINIOWEJ. METODA NAJMNIEJSZYCH KWADRATÓW Analiza regresji zajmuje się badaniem zależności pomiędzy interesującymi nas wielkościami (zmiennymi), mające na celu konstrukcję modelu, który dobrze
Bardziej szczegółowoAnaliza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Bardziej szczegółowoStatystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Bardziej szczegółowoWYKŁAD 8 ANALIZA REGRESJI
WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej
Bardziej szczegółowoRegresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).
Statystyka i opracowanie danych Ćwiczenia 12 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA WIELORAKA Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych
Bardziej szczegółowoStatystyczna analiza danych
Statystyczna analiza danych Korelacja i regresja Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/30 Ostrożnie z interpretacją p wartości p wartości zależą od dwóch rzeczy
Bardziej szczegółowoAproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1
Założenie: f(x) funkcja którą aproksymujemy X jest przestrzenią liniową Aproksymacja liniowa funkcji f(x) polega na wyznaczeniu współczynników a 0,a 1,a 2,...,a m funkcji: Gdzie: - są funkcjami bazowymi
Bardziej szczegółowoZależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),
Zależność przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), funkcyjna stochastyczna Korelacja brak korelacji korelacja krzywoliniowa korelacja dodatnia korelacja ujemna Szereg korelacyjny numer
Bardziej szczegółowoStatystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład IX, 25.04.2016 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Plan na dzisiaj 1. Hipoteza statystyczna 2. Test statystyczny 3. Błędy I-go i II-go rodzaju 4. Poziom istotności,
Bardziej szczegółowoTesty własności składnika losowego Testy formy funkcyjnej. Diagnostyka modelu. Część 2. Diagnostyka modelu
Część 2 Test Durbina-Watsona Test Durbina-Watsona Weryfikowana hipoteza H 0 : cov(ε t, ε t 1 ) = 0 H 1 : cov(ε t, ε t 1 ) 0 Test Durbina-Watsona Weryfikowana hipoteza H 0 : cov(ε t, ε t 1 ) = 0 H 1 : cov(ε
Bardziej szczegółowoWYKŁAD: Szeregi czasowe II. Zaawansowane Metody Uczenia Maszynowego
WYKŁAD: Szeregi czasowe II Zaawansowane Metody Uczenia Maszynowego Zwroty indeksów finansowych Y t : indeks finansowy w momencie t (wartość waloru, kurs walutowy itp). Określimy zwrot indeksu finansowego
Bardziej szczegółowoMetody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoWNIOSKOWANIE W MODELU REGRESJI LINIOWEJ
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y
Bardziej szczegółowoRozkłady wielu zmiennych
Rozkłady wielu zmiennych Uogólnienie pojęć na rozkład wielu zmiennych Dystrybuanta, gęstość prawdopodobieństwa, rozkład brzegowy, wartości średnie i odchylenia standardowe, momenty Notacja macierzowa Macierz
Bardziej szczegółowoEkonometria egzamin 01/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.
imię, nazwisko, nr indeksu: Ekonometria egzamin 01/02/2019 1. Egzamin trwa 90 minut. 2. Rozwiązywanie zadań należy rozpocząć po ogłoszeniu początku egzaminu a skończyć wraz z ogłoszeniem końca egzaminu.
Bardziej szczegółowoREGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji
Statystyka i opracowanie danych Ćwiczenia 5 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ MODEL REGRESJI LINIOWEJ Analiza regresji
Bardziej szczegółowoZmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
Bardziej szczegółowoSTATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2
STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Zależność przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), funkcyjna stochastyczna
Bardziej szczegółowoStatystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoStatystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Bardziej szczegółowoROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
Bardziej szczegółowoWażne rozkłady i twierdzenia
Ważne rozkłady i twierdzenia Rozkład dwumianowy i wielomianowy Częstość. Prawo wielkich liczb Rozkład hipergeometryczny Rozkład Poissona Rozkład normalny i rozkład Gaussa Centralne twierdzenie graniczne
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoMetoda największej wiarygodności
Metoda największej wiarygodności Próbki w obecności tła Funkcja wiarygodności Iloraz wiarygodności Pomiary o różnej dokładności Obciążenie Informacja z próby i nierówność informacyjna Wariancja minimalna
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoInterpolacja, aproksymacja całkowanie. Interpolacja Krzywa przechodzi przez punkty kontrolne
Interpolacja, aproksymacja całkowanie Interpolacja Krzywa przechodzi przez punkty kontrolne Aproksymacja Punkty kontrolne jedynie sterują kształtem krzywej INTERPOLACJA Zagadnienie interpolacji można sformułować
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 4 1 / 23 ZAGADNIENIE ESTYMACJI Zagadnienie
Bardziej szczegółowoEstymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 7 i 8 1 / 9 EFEKTYWNOŚĆ ESTYMATORÓW, próba
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoMetoda największej wiarygodności
Rozdział Metoda największej wiarygodności Ogólnie w procesie estymacji na podstawie prób x i (każde x i może być wektorem) wyznaczamy parametr λ (w ogólnym przypadku również wektor) opisujący domniemany
Bardziej szczegółowoMikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków
Bardziej szczegółowoMetody Ekonometryczne
Metody Ekonometryczne Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Metody Ekonometyczne Wykład 4 Uogólniona Metoda Najmniejszych Kwadratów (GLS) 1 / 19 Outline 1 2 3 Jakub Mućk Metody Ekonometyczne
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowoCzasowy wymiar danych
Problem autokorelacji Model regresji dla szeregów czasowych Model regresji dla szeregów czasowych y t = X t β + ε t Zasadnicze różnice 1 Budowa prognoz 2 Problem stabilności parametrów 3 Problem autokorelacji
Bardziej szczegółowoEkonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej
Ekonometria Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 4 Prognozowanie, stabilność 1 / 17 Agenda
Bardziej szczegółowoWnioskowanie statystyczne. Statystyka w 5
Wnioskowanie statystyczne tatystyka w 5 Rozkłady statystyk z próby Próba losowa pobrana z populacji stanowi realizacje zmiennej losowej jak ciąg zmiennych losowych (X, X,... X ) niezależnych i mających
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowo