WYKŁAD 2. Problem regresji - modele liniowe

Podobne dokumenty
SPOTKANIE 3: Regresja: Regresja liniowa

Wprowadzenie do uczenia maszynowego. Jakub Tomczak

Rozpoznawanie obrazów

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Rozpoznawanie obrazów

SPOTKANIE 2: Wprowadzenie cz. I

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Podstawowe modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

WYKŁAD 1. Wprowadzenie w tematykę kursu

Metody systemowe i decyzyjne w informatyce

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Estymatory regresji rangowej oparte na metodzie LASSO

SPOTKANIE 7: Redukcja wymiarów: PCA, Probabilistic PCA

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

SPOTKANIE 1: Wprowadzenie do uczenia maszynowego

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Rozpoznawanie obrazów

Wrocław University of Technology. Wprowadzenie cz. I. Adam Gonczarek. Rozpoznawanie Obrazów, Lato 2015/2016

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Rozpoznawanie obrazów

Komputerowa analiza danych doświadczalnych

Własności statystyczne regresji liniowej. Wykład 4

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Metody systemowe i decyzyjne w informatyce

O ŚREDNIEJ STATYSTYCZNEJ

Stanisław Cichocki. Natalia Nehrebecka

Fuzja sygnałów i filtry bayesowskie

Zawansowane modele wyborów dyskretnych

WYKŁAD 6. Reguły decyzyjne

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Ekonometria. Modelowanie zmiennej jakościowej. Jakub Mućk. Katedra Ekonomii Ilościowej

Quick Launch Manual:

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Modele zapisane w przestrzeni stanów

Stosowana Analiza Regresji

Porównanie błędu predykcji dla różnych metod estymacji współczynników w modelu liniowym, scenariusz p bliskie lub większe od n

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

Estymacja w regresji nieparametrycznej

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Regresyjne metody łączenia klasyfikatorów

Komputerowa analiza danych doświadczalnych

Value at Risk (VaR) Jerzy Mycielski WNE. Jerzy Mycielski (Institute) Value at Risk (VaR) / 16

Metoda największej wiarogodności

Wykład 12. Rozkład wielki kanoniczny i statystyki kwantowe

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

Metoda największej wiarygodności

Statystyka matematyczna i ekonometria

Regresja nieparametryczna series estimator

WYDZIAŁ BUDOWNICTWA LĄDOWEGO I WODNEGO

RBF sieci neuronowe o radialnych funkcjach bazowych

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re

Testowanie hipotez statystycznych

Stanisław Cichocki Natalia Nehrebecka. Wykład 7

Optymalizacja systemów

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

Inżynierskie zastosowania statystyki Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Wprowadzenie. Data Science Uczenie się pod nadzorem

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Własności estymatorów regresji porządkowej z karą LASSO

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno

WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Stosowana Analiza Regresji

Uogolnione modele liniowe

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Ekonometria. Weryfikacja liniowego modelu jednorównaniowego. Jakub Mućk. Katedra Ekonomii Ilościowej

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Statystyka i Analiza Danych

WYKŁAD 7. Testowanie jakości modeli klasyfikacyjnych metodyka i kryteria

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 4 - zagadnienie estymacji, metody wyznaczania estymatorów

Metody Ekonometryczne

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

STATYSTYKA MATEMATYCZNA WYKŁAD listopada 2009

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Imputacja brakujacych danych binarnych w modelu autologistycznym 1

Analizowane modele. Dwa modele: y = X 1 β 1 + u (1) y = X 1 β 1 + X 2 β 2 + ε (2) Będziemy analizować dwie sytuacje:

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 4 Dyskryminacja oparta na regresji liniowej i logistycznej. Perceptron Rosenblatta.

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Wybór modelu i ocena jakości klasyfikatora

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Jądrowe klasyfikatory liniowe

Estymatory nieobciążone

Zastosowanie modelu regresji logistycznej w ocenie ryzyka ubezpieczeniowego. Łukasz Kończyk WMS AGH

Wybrane metody szacowania rezerw techniczno-ubezpieczeniowych

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Transkrypt:

Wrocław University of Technology WYKŁAD 2 Problem regresji - modele liniowe Maciej Zięba Politechnika Wrocławska

Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami ciągłymi. Celem uczenia jest skonstruowanie modelu regresji na podstawie danych. Model konstruowany jest tak, aby możliwe było przewidywanie nowych obserwacji. 2/14

Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami ciągłymi. Celem uczenia jest skonstruowanie modelu regresji na podstawie danych. Model konstruowany jest tak, aby możliwe było przewidywanie nowych obserwacji. 2/14

Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami ciągłymi. Celem uczenia jest skonstruowanie modelu regresji na podstawie danych. Model konstruowany jest tak, aby możliwe było przewidywanie nowych obserwacji. 2/14

Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami ciągłymi. Celem uczenia jest skonstruowanie modelu regresji na podstawie danych. Model konstruowany jest tak, aby możliwe było przewidywanie nowych obserwacji. 2/14

Regresja: Śledzenie ruchu Cel: Dane: Wyznaczenie następnego położenia obiektu. Sekwencja obrazów z poruszającymi się obiektami. Na podstawie dotychczas zarejestrowanej sekwencji obrazów wyznaczane jest położenie obiektu. 3/14

Regresja: Predykcja notowań giełdowych Cel: Dane: Wycena akcji. Notowania akcji z poprzednich okresów oraz inne czynniki wpływające na cenę akcji. Na podstawie notowań historycznych i innych czynników mających wpływ na cenę akcji budowany jest model predykcyjny. Model aktualizowany jest z wykorzystaniem bieżących notowań. 4/14

Regresja: Predykcja przeżywalności pooperacyjnej Cel: Dane: Określenie jaki okres czasu pacjent przeżyje po operacji. Wyniki badań pacjenta przeprowadzonych przed i po operacji, ogólna charakterystyka zdrowia pacjenta. Na podstawie danych o pacjencie należy określić jaki okres czasu przeżyje on po operacji. 5/14

Deterministyczny model liniowy Rozpatrujemy model liniowy: y = w x + w 0, Dysponujemy zestawem danych: D = {(x n, y n )} N n=1. Chcielibyśmy dopasować model do danych - znaleść najlepsze wartości w, oraz w 0. W tym celu definiujemy, odpowiednie kryterium: w 1, w 0 = arg min w,w 0 2 N (y n (w x n + w 0 )) 2 n=1 6/14

Ekstrakcja cech Zbiór M funkcji bazowych (ang. basis function), każda reprezentuje jedną cechę. Każda z N obserwacji przetwarzana jest przez każdą z M funkcji bazowych. Wynikiem jest tzw. design matrix: φ 1 (x 1 ) φ 2 (x 1 ) φ M (x 1 ) Φ =...... φ 1 (x N ) φ 2 (x N ) φ M (x N ) 7/14

Deterministyczny model liniowy Przypadek wielowymiarowy Rozpatrujemy wielowymiarowy model liniowy: y = w T φ(x). Interesuje nas znalezienie takiego modelu, który spełnia: gdzie: J(w) = 1 2 w = arg min J(w), w N (y n w T φ(x n )) 2 = 1 2 y Φw 2 2. n=1 8/14

Regresja liniowa w ujęciu probabilistycznym Modelem regresji liniowej (ang. linear regression): y = w T φ(x) + ε Zmienna ε N (ε 0, σ 2 ) modeluje niepewność obserwacji y. Model rozkładu warunkowego: p(y x, w, σ 2 ) = N (y w T φ(x), σ 2 ) Parametry modelu: w R M i σ 2 > 0. 9/14

Funkcja wiarygodności Dane: X = {x 1,..., x N }, y = {y 1,..., y N }. Warunkowa funkcja wiarygodności: N p(y X, w, σ 2 ) = N (y n w T φ(x n ), σ 2 ). Logarytm funkcji wiarygodności: n=1 ln p(y X, w, σ 2 ) = N 2 ln σ2 N 2 ln(2π) 1 σ 2 J(w) J(w) = 1 2 N (y n w T φ(x n )) 2 n=1 = 1 2 y Φw 2 2 10/14

Estymator ML Logarytm funkcji wiarygodności jest funkcją celu, którą optymalizujemy względem parametrów w. Licząc gradient ze względu na parametry: w ln p(y X, w, σ 2 ) = 1 σ 2 ΦT (y Φw) = 0 i rozwiązując względem w otrzymujemy w ML = (Φ T Φ) 1 Φ T y Optymalizując względem σ 2 : σ 2 ML = 1 N N ( yn wmlφ(x T n ) ) 2 n=1 11/14

Overfitting 12/14

Rozkład a priori W celu przeciwdziałania overfittingowi wprowadzamy rozkład a priori na w, który zmniejszy ich wahanie: p(w β 2 ) = N (w 0, β 2 I) 1 = (2πβ 2 ) M 2 e 1 2β 2 w 2 2 Rozkład a posteriori wyznaczamy ze wzoru Bayesa: p(w X, y, σ 2, β 2 ) = p(y X, w, σ2 )p(w β 2 ) p(y X, σ 2, β 2 ) 13/14

Estymator MAP Logarytmując i biorąc z minusem dostajemy kryterium uczenia dla estymacji MAP: ln p(w X, y, σ 2, β 2 ) = 1 2σ 2 y Φw 2 2 + 1 }{{} 2β 2 w 2 2 +const }{{} funkcja straty regularyzator Różniczkując po w i rozwiązując powyższe kryterium otrzymujemy estymator MAP: w MAP = (Φ T Φ + λi) 1 Φ T y gdzie λ = σ2 parametr regularyzacji. β2 14/14