Metody systemowe i decyzyjne w informatyce

Podobne dokumenty
Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Optymalizacja systemów

Rozpoznawanie obrazów

Rozpoznawanie obrazów

WYKŁAD 2. Problem regresji - modele liniowe

Metody systemowe i decyzyjne w informatyce

Rozpoznawanie obrazów

Metody systemowe i decyzyjne w informatyce

SPOTKANIE 3: Regresja: Regresja liniowa

Rozpoznawanie obrazów

Aproksymacja funkcji a regresja symboliczna

Optymalizacja systemów

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Optymalizacja systemów

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Agnieszka Nowak Brzezińska Wykład III

Optymalizacja ciągła

Wprowadzenie do uczenia maszynowego. Jakub Tomczak

Agnieszka Nowak Brzezińska Wykład III

INTERPOLACJA I APROKSYMACJA FUNKCJI

Agnieszka Nowak Brzezińska

Weryfikacja hipotez statystycznych

Metody i analiza danych

Wprowadzenie do analizy korelacji i regresji

Analiza szeregów czasowych: 6. Liniowe modele niestacjonarne

Rozdział 8. Regresja. Definiowanie modelu

Ekonometria egzamin 01/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.


Matematyka stosowana i metody numeryczne

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Metody systemowe i decyzyjne w informatyce

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Inteligentna analiza danych

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

PROGRAMOWANIE KWADRATOWE

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Metody eksploracji danych Laboratorium 1. Weka + Python + regresja

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

Analiza statystyczna trudności tekstu

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Metody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Regresja nieparametryczna series estimator

Aproksymacja. funkcji: ,a 2. ,...,a m. - są funkcjami bazowymi m+1 wymiarowej podprzestrzeni liniowej X m+1

Porównanie błędu predykcji dla różnych metod estymacji współczynników w modelu liniowym, scenariusz p bliskie lub większe od n

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

Estymacja wektora stanu w prostym układzie elektroenergetycznym

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Postać Jordana macierzy

Stosowana Analiza Regresji

ALGORYTM RANDOM FOREST

WSKAZÓWKI DO WYKONANIA SPRAWOZDANIA Z WYRÓWNAWCZYCH ZAJĘĆ LABORATORYJNYCH

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

t y x y'y x'x y'x x-x śr (x-x śr)^2

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Metoda najmniejszych kwadratów

Metody systemowe i decyzyjne w informatyce

Projekt Sieci neuronowe

Wykład 10 Skalowanie wielowymiarowe

Ekonometria. Zajęcia

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

Techniki Optymalizacji: Metody regresji

3 1 + i 1 i i 1 2i 2. Wyznaczyć macierze spełniające własność komutacji: [A, X] = B

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Elementy modelowania matematycznego

Układy równań i równania wyższych rzędów

Uczenie sieci radialnych (RBF)

WYKŁAD 8 ANALIZA REGRESJI

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

x x 1. Przedmiot identyfikacji System x (1) x (2) : x (s) a 1 a 2 : a s mierzone, a = zestaw współczynników konkretyzujacych F ()

Ekonometria egzamin 06/03/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Analiza kanoniczna w pigułce

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna

Regresja wielokrotna. PDF created with FinePrint pdffactory Pro trial version

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8

Cyfrowe Przetwarzanie Obrazów i Sygnałów

Algorytm grupowania danych typu kwantyzacji wektorów

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

PODSTAWY BIOSTATYSTYKI ĆWICZENIA

Układ równań liniowych

Redukcja wariancji w metodach Monte-Carlo

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Analiza składowych głównych. Wprowadzenie

Ekonometria egzamin 07/03/2018

Statystyka w przykładach

Ćwiczenie 5 PROGNOZOWANIE

Natalia Neherbecka. 11 czerwca 2010

Zadania przygotowawcze, 3 kolokwium

Transkrypt:

Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych kwadratów w przypadku dopasowania krzywej do danych oraz zaproponowanie rozwiązania problemu w środowisku MA- TLAB. Należy zaimplementować zwykłe rozwiązanie liniowego zadania najmniejszych kwadratów oraz rozwiązanie z regularyzacją Tichonowa. Liniowe zadanie najmniejszych kwadratów Zakładamy, że dany jest model y = φ(x) T w, gdzie w = (w 0 w 1... w M 1 ) T jest wektorem parametrów, a φ(x) = (φ 0 (x) φ 1 (x)... φ M 1 (x)) T jest wektorem cech. Na przykład model może być wielomianem M-tego rzędu i wówczas cechy są argumentem podniesionym do kolejnych potęg. Interesuje nas dopasowanie modelu do dostępnych obserwacji y = (y 1 y 2... y N ) T oraz X = [x 1 x 2... x N ]. Dalej, przez Φ = [φ(x 1 ) φ(x 2 )... φ(x N )] T oznaczać będziemy macierz wyliczonych cech dla obserwacji X. Dopasowanie modelu do danych polega na znalezieniu wartości parametrów w. W tym cely będziemy minimalizować funkcję błędu, która określa różnicę między obserwacjami a wartościami zwracanymi przez model. Taką funkcją jest suma kwadratów różnic między predykcjami modelu a obserwacjami, tj. Q(w) = 1 2 y Φw 2 2. (1) Jest to tzw. liniowe zadanie najmniejszych kwadratów. Zakładając, że rząd r(φ) = M, policzenie gradientu względem parametrów i przyrównanie go do zera daje jednoznaczne rozwiązanie: w = ( Φ T Φ ) 1 Φ T y. (2) 1

Liniowe zadanie najmniejszych kwadratów z regularyzacją Tichonowa Problemem w liniowym zadaniu najmniejszych kwadratów jest konieczność ustalenia liczby cech, np. stopnia wielomianu. Dobranie zbyt małej lub zbyt dużej liczby skutkować może w otrzymanniu modelu, który niepoprawnie odzwierciedla charakter szukanej zależności. W tym celu proponuje się ustalenie liczby cech, zazwyczaj dostatecznie dużej, oraz zmodyfikowanie funkcji błędu przez dodanie regularyzatora L 2, czyli tzw. regularyzatora Tichonowa: Q(w) = 1 2 y Φw 2 2 + λ 2 w 2 2, (3) gdzie λ > 0 jest współczynnikiem regularyzacji. Okazuje się, że zastosowanie regularyzacji nie wymaga założenia o rzędzie macierzy Φ, tj. dla dowolnego r(φ) policzenie gradientu względem parametrów i przyrównanie go do zera daje jednoznaczne rozwiązanie: w = ( Φ T Φ + λi ) 1 Φ T y, (4) gdzie I jest macierzą jednostkową. Selekcja modelu Dalej będziemy rozpatrywać wielomiany stopnia M. Problem selekcji modelu można rozwiązać na dwa sposoby: 1. Ustalić dostatecznie wysoki stopień wielomianu i zastosować regularyzację Tichonowa. 2. Przyjąć różne modele, tj. różne stopnie wielomianu, a następnie dokonać selekcji modelu (ang. model selection), tj. wybrać model, dla której wartość funkcji błędu jest najmniejsza. Do oceny poprawności uzyskanego modelu w procesie selekcji modelu będziemy stosować błąd średniokwadratowy: E(w) = 1 N Wybór stopnia wielomianu N ( yn y(x n ) ) 2. (5) n=1 Zakładamy różne wartości M M. Przykładowo M = {0, 1, 2, 3, 4, 5, 6, 7}, czyli rozpatrywać będziemy wielomianu o stopniu od M = 0 do M = 7. Uczenie modelu, tj. wyznaczenie parametrów w wg wzoru (2), odbywa się na podstawie ciągu uczącego (treningowego) X i y. Natomiast porównanie modeli, tj. różnych stopni wielomianów, odbywa się przy użyciu osobnego zbioru walidacyjnego X val i y val. Procedura selekcji modelu jest następująca: 1. Dla każdego wielomianu stopnia M M wyznacz wartości parametrów w M korzystając z (2) w oparciu o dane X i y. 2

2. Dla każdego wielomianu stopnia M M o parametrach w M wyznacz wartość funkcji błędu E M o postaci (5) w oparciu o dane X val i y val. 3. Wybierz ten stopień wielomianu M, dla którego wartość funkcji błędu E M jest najmniejsza. Wybór wartości współczynnika regularyzacji W przypadku stosowania regularyzacji ustalamy dostatecznie duży stopień wielomianu, np. M = 7, a następnie wyznaczamy parametry dla różnych wartości współczynnika regularyzacji λ Λ. Na przykład Λ = {0.001, 0.003, 0.01, 0.03, 0.1, 0.3, 1, 3, 10, 30, 100, 300}. Wyznaczenie parametrów w wg wzoru (4), odbywa się na podstawie ciągu uczącego (treningowego) X i y. Natomiast porównanie modeli dla różnych wartości λ odbywa się przy użyciu osobnego zbioru walidacyjnego X val i y val. Procedura selekcji modelu jest następująca: 0. Ustal M. 1. Dla każdej wartości współczynnika regularyzacji λ Λ wyznacz wartości parametrów w λ korzystając z (4) w oparciu o dane X i y. 2. Dla każdego wielomianu o parametrach w λ wyznacz wartość funkcji błędu E λ o postaci (5) w oparciu o dane X val i y val. 3. Wybierz te wartości parametrów w λ, dla których wartość funkcji błędu E λ jest najmniejsza. Zbiór danych Dane użyte w zadaniu zostały syntetycznie wygenerowane z następującego obiektu: y = sin(2πx) + ε, (6) gdzie ε N (ε 0, σ 2 ) jest szumem gaussowskim, tj. zmienną losową o rozkładzie normalnym i średniej zero. Zbiór danych został podzielony na dwa ciągi treningowe X, y (odpowiednio po 8 i 50 obserwacji) oraz ciąg walidacyjny X val, y val (20 obserwacji). Rysunek 1 przedstawia przykładowe dane treningowe (niebieskie punkty) i walidacyjne (czerwone punkty) oraz obiekt (6) (zielona linia) i dopasowany model (czerwona linia). Testowanie poprawności działania Do sprawdzania poprawności działania zaproponowanych rozwiązań służy funkcja main w pliku main.m. W pliku main.m nie wolno czekogolwiek zmieniać ani dopisywać. 3

Rysunek 1: Zbiór danych oraz przebieg obiektu i modelu. Instrukcja wykonania zadania Dodatkowa funkcja, z której należy skorzystać: ˆ y = polynomial( x, w ) funkcja zwracająca wartości predykcji y dla zadanego x oraz wektora wartości parametrów w dla domyślnego modelu wielomianu. Instrukcja: 1. Zaimplementować funkcję pozwalającą na liczenie średniego błędu kwadratowego (5) w pliku mean squared error.m. 2. Zaimplementować funkcję liczącą macierz Φ w pliku design matrix.m. 3. Zaimplementować funkcję wyznaczającą rozwiązania liniowego zadania najmniejszych kwadratów w pliku least squares.m. 4. Zaimplementować funkcję wyznaczającą rozwiązania liniowego zadania najmniejszych kwadratów z regularyzacją Tichonowa w pliku regularized least squares.m. 5. Zaimplementować funkcję dokonującą selekcji modelu dla zadanych wartości M w pliku model selection.m. 4

6. Zaimplementować funkcję dokonującą selekcji modelu dla zadanych wartości Λ w pliku regularized model selection.m. UWAGA! Wszelkie nazwy funkcji i zmiennych w plikach *.m muszą pozostać zachowane. Zmiana jakichkolwiek nazw i dodanie fragmentów kodu poza wskazanymi miejscami skutkować będzie otrzymaniem 0 pkt. Implementacja 1. Poprawne liczenie funkcji błędu funkcja mean squared error.m. 2. Poprawne liczenie macierzy Φ funkcja design matrix.m. 3. Poprawne liczenie rozwiązania liniowego zadania najmniejszych kwadratów funkcja least squares.m. 4. Poprawne liczenie rozwiązania liniowego zadania najmniejszych kwadratów z regularyzacją Tichonowa funkcja regularized least squares.m. 5. Poprawna implementacja wyboru stopnia wielomianu funkcja model selection.m. 6. Poprawna implementacja wyboru wartości współczynnika regularyzacji funkcja regularized model selection.m. Pytania kontrolne 1. Proszę wyznaczyć rozwiązanie liniowego zadania najmniejszych kwadratów (1). 2. Proszę wyznaczyć rozwiązanie liniowego zadania najmniejszych kwadratów z regularyzacją Tichonowa (3). 3. Co to jest overfitting? Wskazać na przykładzie dopasowania wielomianu. 4. Co to jest underfitting? Wskazać na przykładzie dopasowania wielomianu. 5. Co to jest ciąg treningowy, walidacyjny, testowy? Jakie jest ich znaczenie. 6. Co to jest selekcja modelu? 7. Które z podejść do selekcji modelu jest prostsze do zastosowania w praktyce i dlaczego? 8. Kiedy liniowe zadanie najmniejszych kwadratów ma jednoznaczne rozwiązanie, a kiedy istnieje wiele rozwiązań? 5

9. Zapisać wektor cech φ dla wielomianu M-tego rzędu. 10. Co to jest parametr λ? Jak jego wartość wpływa na rozwiązanie? 6