SYSTEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE
|
|
- Wanda Kaźmierczak
- 4 lat temu
- Przeglądów:
Transkrypt
1 SYSEMY UCZĄCE SIĘ WYKŁAD 5. UCZENIE SIĘ APROKSYMACJI FUNKCJI MODELE LINIOWE Częstochoa 4 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochoska
2 MEODY APROKSYMACJI Metody aproksymacji pod zględem sposobu reprezentacji funkcji aproksymoanej: parametryczne, których hipoteza reprezentoana jest przez ektor liczb rzeczyistych parametró modyfikoanych trakcie uczenia, na podstaie których obliczana jest artość funkcji dla doolnego punktu z dziedziny, pamięcioe (memory-based, instance-based, similarity-based, lazy learners), przechoujące zbiór przykładó uczących i yznaczające artość hipotezy na podstaie przykładó najbardziej podobnych do przykładu ejścioego, symboliczne, oparte na symbolicznej reprezentacji funkcji, np. postaci drze decyzyjnych.
3 MEODY PARAMERYCZNE Założenie przykłady opisyane są ektorami liczb rzeczyistych (atrybutó) = [,,,, n ] hipoteza reprezentoana jest ektorem liczb rzeczyistych (parametró, ag). W modelu linioym: = [,,,, n ] Uczenie się Uczenie się polega na modyfikoaniu ag na podstaie przykładó trenujących. Cel zmniejszenie błędu aproksymacji, np.: E( h ) = ( f ( ) h P gdzie: f() jest artością funkcji doceloej dla przykładu, a h ( ) = F(, ) jest artością hipotezy przy agach dla przykładu. ( )) Ponieaż f() jest zykle nieznana jej miejsce podstaiamy y (y = f() + ε). 3
4 MEODY PARAMERYCZNE Proces uczenia się często ykorzystuje regułę spadku gradientu (patrz perceptron). Gradient ag: E E E E ( h ) =,,..., ze znakiem ujemnym skazuje kierunek "przesunięcia" n η E( h + η gdzie η > jest spółczynnikiem uczenia. P ) ( f ( ) h ( )) Poyższa reguła nosi nazę uogólnionej reguły delta. Reprezentuje ona ogólny algorytm uczenia się parametrycznych aproksymatorach funkcji (tryb epokoy agi modyfikoane są po każdej epoce). Jego konkretyzacja zależy od funkcji F, czyli od charakteru zależności hipotezy od. Regułę tę można zastosoać trybie inkrementacyjnym (adaptacja ag po prezentacji każdego przykładu): + η ( f ( ) h ( )) h ( ) h ( ) 4
5 5 Hipoteza ma postać: = = = n i i i h ) ( Gradient hipotezy: = = = ],...,, [,,...,, ) ( n n h h h h Reguła delta (zana reguła Widroa-Hoffa, adaline lub LMS) dla hipotezy linioej: tryb epokoy tryb inkrementacyjny + P y ) ( η lub ) ( y + η APROKSYMAOR LINIOWY (PERCEPRON)
6 UCZENIE PERCEPRONU ryb epokoy. Wybierz losoo, ustal η. Potarzaj.. =, E =.. Potarzaj dla i =,,..., N = + ( yi i ) E = E η ( y i i ).4. Jeśli osiągnięto arunek stopu, to zakończ i ryb inkrementacyjny. Wybierz losoo, ustal η. Potarzaj.. E =.. Potarzaj dla i =,,..., N E = E + ( y i i ) + η ( yi i ).3. Jeśli osiągnięto arunek stopu, to zakończ i Warunek stopu: osiągnięto k ma iteracji lub przez ostatnie K iteracji nie osiągnięto znaczącej popray rezultatu lub E < E ma. 6
7 MODEL REGRESJI LINIOWEJ W regresji agi yznacza się sposób analityczny. Błąd aproksymacji możemy zapisać: gdzie: E( h ) = P ( y h ( )) = ( Y X) Y = [ y, y,..., y N ] ektor pożądanych odpoiedzi, ( Y X) = Y Y ( X) Y + ( X) X,..., n =,..., n X macierz przykładó N,... N, n Przyrónując pochodną błędu do zera X Y + X X = linioej: otrzymujemy agi modelu regresji = ( X X) Uaga: Jeśli kolumny X są linioo zależne, to yznacznik macierzy X X jest zeroy i macierzy tej nie można odrócić. X Y 7
8 MODEL REGRESJI LINIOWEJ Dla przypadku jednoymiaroego (n = ) otrzymujemy: N i i= = N ( )( yi y), = y ( y y) i= i gdzie i oznacza numer przykładu uczącego, i y to artości średnie zbiorze uczącym. 8
9 REGRESJA KROKOWA Problem: duża liczba atrybutó (zależnych od siebie, nie płyających na zmienną yjścioą y) Cel: ybrać nieielki podzbiór atrybutó, który pozoli uprościć model zachoując jego dokładność. Regresja krokoa (stepise regression) pozala yłonić procedurze krokoej atrybuty istotne i zbudoać na nich model linioy, który zapenia najmniejszy błąd regresji. Konstrukcja modelu regresji krokoej może przebiegać trzech trybach: Krokoe dodaanie atrybutó. Ustal Φ = {,,, n } zbiór atrybutó kandydujących i Ω = zbiór atrybutó istotnych. Potarzaj dla każdego i Φ:.. Zbuduj model z ykorzystaniem szystkich atrybutó z Ω i i-tego atrybutu z Φ; odnotuj błąd tego modelu 3. Jeśli nie nastąpiła popraa modelu p. zakończ 4. Wybierz atrybut z Φ, dla którego nastąpiła najiększa popraa modelu i przenieś go z Φ do Ω 9
10 REGRESJA KROKOWA 5. Potórz kroki -5 Krokoa eliminacja atrybutó. Ustal Ω = {,,, n } zbiór atrybutó istotnych. Potarzaj dla każdego i Ω:.. Zbuduj model z ykorzystaniem atrybutó z Ω pomijając i-ty atrybut; odnotuj błąd tego modelu 3. Jeśli nie nastąpiła popraa modelu p. zakończ 4. Wybierz atrybut z Ω, po pominięciu którego nastąpiła najiększa popraa modelu i usuń go z Ω 5. Potórz kroki -5 Naprzemienne użycie du poyższych trybó Miarą popray modelu jest tz. p-artość (liczboe yrażenie istotności statystycznej) testu statystycznego F-Snedecora * (stosuje się też inne kryteria). * patrz: Jóźiak J., Podgórski J.: Statystyka od podsta. PWE, str. 43
11 REGRESJA GRZBIEOWA Problem: duże agi i (co do modułu) spraiają, że yjście y jest rażlie na małe zmiany ejść i Cel: zmniejszyć agi (co do modułu) W regresji grzbietoej (ridge regression) kryterium zaiera sumę kadrató ag jako składnik kary : P n E( h ) = ( y h ( )) + λ i = ( Y X) ( Y X) + λ gdzie λ jest parametrem określającym stopień uzględnienia kary kryterium. i= Dla λ = otrzymujemy zykły model regresji linioej; dla λ = otrzymujemy zeroe agi. Aby yrónać pły poszczególnych ag na artość kary przed ykonaniem obliczeń należy sproadzić artości szystkich atrybutó do tej samej skali (ariancja próbkoa szystkich atrybutó poinna ynosić ). Zapis postaci macierzoej ymaga cześniejszego yeliminoania yrazu olnego i scentroania atrybutó. Wtedy macierz X ma rozmiary N n, a N. Szczegóły [ib].
12 REGRESJA GRZBIEOWA Wagi minimalizujące poyższe kryterium yznacza się ze zoru: = ( X X + λ I) gdzie I jest macierzą jednostkoą (z jedynkami na przekątnej) o ymiarach n n. Optymalną artość parametru λ dobiera się procedurze krosalidacji. Rys. Przykładoe artości ag dla różnych artości λ. Rys. Wartości ag (od leej): rzeczyiste, estymoane regresji linioej, estymoane regresji grzbietoej.5 X Y λ
13 REGULARYZACJA Wzbogacenie kryterium o karę postaci sumy kadrató ag nazya się regularyzacją ichonoa. Regularyzacja zapobiega przeuczeniu modelu (nadmiernemu dopasoaniu). Regularyzacja pozala zredukoać błąd średniokadratoy (MSE). Odbya się to poprzez redukcję ariancji, chociaż obciążenie modelu zrasta. Błąd MSE można zapisać jako: E[( f ( ) h( )) ] = ( E[ h( )] f ( )) + E[( h( ) E[ h( )]) ] MSE Kadrat obciążenia (mean squared error) (bias) gdzie E(.) oznacza artość oczekianą. Wariancja (var) Wariancja informuje jak rażliy jest model na drobne zmiany zbiorze uczącym. Obciążenie informuje jak dokładny jest model dla różnych zbioró uczących. 3
14 LASSO LASSO (Least Absolute Shrinkage and Selection Operator) jest metodą regularyzacji modelu regresji linioej, której kryterium zaiera sumę modułó ag jako składnik kary: E( h )) + λ ) = ( y h ( P n i= i Wproadzenie kary postaci sumy modułó zamiast sumy kadrató ag ma ciekae konsekencje. W regresji grzbietoej agi zmniejszają się az ze zrostem λ, ale nigdy nie osiągają zera. W LASSO agi mogą się zeroać przy odpoiednio dużych artościach λ. LASSO jest jednocześnie algorytmem regularyzacji i selekcji atrybutó (atrybuty z zeroymi agami nie są uzględniane modelu) λ 4
15 LASSO Podobnie jak regresji grzbietoej redukcja MSE odbya się poprzez redukcję ariancji, chociaż obciążenie modelu zrasta. Wyznaczenie artości ag minimalizujących kryterium użyane LASSO nie jest możlie na drodze analitycznej jak regresji grzbietoej lecz ymaga algorytmu iteracyjnego. Rys. Wartości ag (od leej): rzeczyiste, estymoane regresji grzbietoej, estymoane LASSO = Elastyczna sieć (elastic net) łączy regresję grzbietoą z LASSO. Składnik kary ma tutaj postać: λ n i= ( α i + ( α) i gdzie α [, ]. Dla α = otrzymujemy regresję grzbietoą, dla α = otrzymujemy LASSO. ) 5
16 ROZSZERZONA MODELE REPREZENACJA LINIOWE Rozszerzona reprezentacja polega na zbogaceniu przykładó o dodatkoe atrybuty, które są funkcjami atrybutó oryginalnych, np: i, i 3, i j, log( i ), sin( i ), / i itd. Model zbudoany na rozszerzonych przykładach, np. = [,,,, ] postaci: h ( ) = to nadal model regresji linioej, choć zależność pomiędzy a y, którą yraża nie jest linioa! Wagi takiego modelu estymujemy opisanymi poyżej metodami regresji i aproksymacji linioej h() = y.5.5 y - y h() = z + z + 3 z 3 + z = ep( )/, z = ln(/), z 3 = sin(.8 ) = -.5, =.6, 3 =.4, = h() =
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Steroania i Systemó Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Semestr letni 2010 Laboratorium nr 4 LINIOWE
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Bardziej szczegółowoMetody jakościowe i ilościowe na usługach wyceny nieruchomości
POLANICA ZDRÓJ, 16-18 rześnia 007 etody jakościoe i ilościoe na usługach yceny nieruchomości Anna Barańska Katedra Informacji o erenie Wydział Geodezji Górniczej i Inżynierii Środoiska Akademia Górniczo
Bardziej szczegółowoTechniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoElementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VI... 16 Listopada 2011 1 / 24 Jest to rozkład zmiennej losowej rozkład chi-kwadrat Z = n i=1 X 2 i, gdzie X i N(µ i, 1) - niezależne. Oznaczenie: Z χ 2 (n, λ), gdzie:
Bardziej szczegółowoIMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ
IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,
Bardziej szczegółowoRozdział 8. Regresja. Definiowanie modelu
Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność
Bardziej szczegółowoEkonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej
Ekonometria Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 4 Prognozowanie, stabilność 1 / 17 Agenda
Bardziej szczegółowoRozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania
Bardziej szczegółowoJEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY
JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model
Bardziej szczegółowoSystemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018
Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy
Bardziej szczegółowoUczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Bardziej szczegółowoOptymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoFunkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju
Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoStatystyka opisowa. Wykład V. Regresja liniowa wieloraka
Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Bardziej szczegółowoAlgorytmy metaheurystyczne Wykład 11. Piotr Syga
Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,
Bardziej szczegółowoWprowadzenie do uczenia maszynowego
Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 3 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem zadania jest zaimplementowanie algorytmów
Bardziej szczegółowoTesty post-hoc. Wrocław, 6 czerwca 2016
Testy post-hoc Wrocław, 6 czerwca 2016 Testy post-hoc 1 metoda LSD 2 metoda Duncana 3 metoda Dunneta 4 metoda kontrastów 5 matoda Newman-Keuls 6 metoda Tukeya Metoda LSD Metoda Least Significant Difference
Bardziej szczegółowoHeteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów
Formy heteroscedastyczności Własności estymatorów MNK wydatki konsumpcyjne 0 10000 20000 30000 40000 14.4 31786.08 dochód rozporz¹dzalny Zródlo: Obliczenia wlasne, dane BBGD 2004 Formy heteroscedastyczności
Bardziej szczegółowoWykład 9. Stateczność prętów. Wyboczenie sprężyste
Wykład 9. Stateczność prętó. Wyoczenie sprężyste 1. Siła ytyczna pręta podpartego soodnie Dla pręta jak na rysunku 9.1 eźmiemy pod uagę możliość ygięcia się pręta z osi podczas ściskania. jest modułem
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 8
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8 Regresja wielokrotna Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X 1, X 2, X 3,...) na zmienną zależną (Y).
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH
Bardziej szczegółowowiedzy Sieci neuronowe (c.d.)
Metody detekci uszkodzeń oparte na wiedzy Sieci neuronowe (c.d.) Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 8 Metody detekci uszkodzeń oparte na wiedzy Wprowadzenie
Bardziej szczegółowoUogolnione modele liniowe
Uogolnione modele liniowe Jerzy Mycielski Uniwersytet Warszawski grudzien 2013 Jerzy Mycielski (Uniwersytet Warszawski) Uogolnione modele liniowe grudzien 2013 1 / 17 (generalized linear model - glm) Zakładamy,
Bardziej szczegółowoMetody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane
Bardziej szczegółowoMetodologia badań psychologicznych. Wykład 12. Korelacje
Metodologia badań psychologicznych Lucyna Golińska SPOŁECZNA AKADEMIA NAUK Wykład 12. Korelacje Korelacja Korelacja występuje wtedy gdy dwie różne miary dotyczące tych samych osób, zdarzeń lub obiektów
Bardziej szczegółowoWojciech Skwirz
1 Regularyzacja jako metoda doboru zmiennych objaśniających do modelu statystycznego. 2 Plan prezentacji 1. Wstęp 2. Część teoretyczna - Algorytm podziału i ograniczeń - Regularyzacja 3. Opis wyników badania
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego
Bardziej szczegółowo10. Techniki minimalizacji a sieci neuronowe
10. Techniki minimalizacji a sieci neuronowe 10-1 Błąd aproksymacji 10-2 Minimalizacja kosztu 10-3 Tryby minimalizacji 10-4 Metoda największego spadku 10-5 Gradient sprzężony 10-6 Metoda Newtona 10-7 Metody
Bardziej szczegółowoInteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe
Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Trening jednokierunkowych sieci neuronowych wykład 2. dr inż. PawełŻwan Katedra Systemów Multimedialnych Politechnika Gdańska
Bardziej szczegółowoWprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe
Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.
Bardziej szczegółowoZrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Bardziej szczegółowoWybór modelu i ocena jakości klasyfikatora
Wybór modelu i ocena jakości klasyfikatora Błąd uczenia i błąd testowania Obciążenie, wariancja i złożoność modelu (klasyfikatora) Dekompozycja błędu testowania Optymizm Estymacja błędu testowania AIC,
Bardziej szczegółowoRedukcja wariancji w metodach Monte-Carlo
14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda
Bardziej szczegółowoBadania ruchu w Trójmieście w ramach projektu Kolei Metropolitalnej. mgr inż. Szymon Klemba Warszawa, 13.03.2012r.
Badania ruchu Trójmieście ramach projektu Kolei Metropolitalnej mgr inż. Szymon Klemba Warszaa, 13.03.2012r. SPIS TREŚCI 1 Tło i cel badań 2 Podstaoe pojęcia modeloania 3 Proces budoy modelu 3A Model układu
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Zajęcia 8
Stanisław Cichocki Natalia Nehrebecka Zajęcia 8 1. Testy diagnostyczne 2. Testowanie prawidłowości formy funkcyjnej modelu 3. Testowanie normalności składników losowych 4. Testowanie stabilności parametrów
Bardziej szczegółowo1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo
1 Wykład 4. Proste Prawa wielkich liczb, CTG i metody Monte Carlo 1.1 Rodzaje zbieżności ciagów zmiennych losowych Niech (Ω, F, P ) będzie przestrzenia probabilistyczna na której określony jest ciag {X
Bardziej szczegółowoMetody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x
Bardziej szczegółowoEgzamin z ekonometrii wersja IiE, MSEMAT
Egzamin z ekonometrii wersja IiE, MSEMAT 04-02-2016 Pytania teoretyczne 1. Za pomocą jakiego testu weryfikowana jest normalność składnika losowego? Jakiemu założeniu KMRL odpowiada w tym teście? Jakie
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka
Stanisław Cichocki Natalia Nehrebecka 1 2 3 1. Wprowadzenie do danych panelowych a) Charakterystyka danych panelowych b) Zalety i ograniczenia 2. Modele ekonometryczne danych panelowych a) Model efektów
Bardziej szczegółowoALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Bardziej szczegółowoKADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Bardziej szczegółowoStatystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 13
Stanisław Cichocki Natalia Nehrebecka Wykład 13 1 1. Autokorelacja Konsekwencje Testowanie autokorelacji 2. Metody radzenia sobie z heteroskedastycznością i autokorelacją Uogólniona Metoda Najmniejszych
Bardziej szczegółowoWnioskowanie statystyczne Weryfikacja hipotez. Statystyka
Wnioskowanie statystyczne Weryfikacja hipotez Statystyka Co nazywamy hipotezą Każde stwierdzenie o parametrach rozkładu lub rozkładzie zmiennej losowej w populacji nazywać będziemy hipotezą statystyczną
Bardziej szczegółowowiedzy Sieci neuronowe
Metody detekcji uszkodzeń oparte na wiedzy Sieci neuronowe Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 7 Wprowadzenie Okres kształtowania się teorii sztucznych sieci
Bardziej szczegółowoEstymacja wektora stanu w prostym układzie elektroenergetycznym
Zakład Sieci i Systemów Elektroenergetycznych LABORATORIUM INFORMATYCZNE SYSTEMY WSPOMAGANIA DYSPOZYTORÓW Estymacja wektora stanu w prostym układzie elektroenergetycznym Autorzy: dr inż. Zbigniew Zdun
Bardziej szczegółowoTEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.
TEST STATYSTYCZNY Testem statystycznym nazywamy regułę postępowania rozstrzygająca, przy jakich wynikach z próby hipotezę sprawdzaną H 0 należy odrzucić, a przy jakich nie ma podstaw do jej odrzucenia.
Bardziej szczegółowoMetody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017
Metody eksploracji danych 3. Ocena modeli Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x i R
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.
STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 14
Stanisław Cichocki Natalia Nehrebecka Wykład 14 1 1.Problemy z danymi Współliniowość 2. Heteroskedastyczność i autokorelacja Konsekwencje heteroskedastyczności i autokorelacji Metody radzenia sobie z heteroskedastycznością
Bardziej szczegółowoAnaliza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Bardziej szczegółowoTesty własności składnika losowego Testy formy funkcyjnej. Diagnostyka modelu. Część 2. Diagnostyka modelu
Część 2 Test Durbina-Watsona Test Durbina-Watsona Weryfikowana hipoteza H 0 : cov(ε t, ε t 1 ) = 0 H 1 : cov(ε t, ε t 1 ) 0 Test Durbina-Watsona Weryfikowana hipoteza H 0 : cov(ε t, ε t 1 ) = 0 H 1 : cov(ε
Bardziej szczegółowoOntogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę
Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
Bardziej szczegółowoTestowanie hipotez statystycznych
Część 2 Hipoteza złożona Testowanie hipotez łącznych Zapis matematyczny Rozkład statystyki testowej Hipoteza łączna H 0 : Rβ = q Hipoteza złożona Testowanie hipotez łącznych Zapis matematyczny Rozkład
Bardziej szczegółowoEkonometria dla IiE i MSEMat Z12
Ekonometria dla IiE i MSEMat Z12 Rafał Woźniak Faculty of Economic Sciences, University of Warsaw Warszawa, 09-01-2017 Test RESET Ramsey a W pierwszym etapie estymujemy współczynniki regresji w modelu:
Bardziej szczegółowoEgzamin z algebry liniowej 2003 r.
Egzamin z algebry linioej 003 r. Cześć I na ocene dostateczna Zadanie. Wyznacz szystkie liczby zespolone z takie, że a) z = 8 + 6i, b) ( + 3i) z = i. Zadanie. Wykonaj podane dzia lania macierzoe: [ 3 0
Bardziej szczegółowoStosowana Analiza Regresji
Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q
Bardziej szczegółowoMetoda największej wiarogodności
Wprowadzenie Założenia Logarytm funkcji wiarogodności Metoda Największej Wiarogodności (MNW) jest bardziej uniwersalną niż MNK metodą szacowania wartości nieznanych parametrów Wprowadzenie Założenia Logarytm
Bardziej szczegółowoEkonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej
Ekonometria Wprowadzenie do modelowania ekonometrycznego Estymator Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 1 Estymator 1 / 16 Agenda 1 Literatura Zaliczenie przedmiotu 2 Model
Bardziej szczegółowo), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0
Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy
Bardziej szczegółowoWłasności statystyczne regresji liniowej. Wykład 4
Własności statystyczne regresji liniowej Wykład 4 Plan Własności zmiennych losowych Normalna regresja liniowa Własności regresji liniowej Literatura B. Hansen (2017+) Econometrics, Rozdział 5 Własności
Bardziej szczegółowoModelowanie glikemii w procesie insulinoterapii
Dawid Kaliszewski Modelowanie glikemii w procesie insulinoterapii Promotor dr hab. inż. Zenon Gniazdowski Cel pracy Zbudowanie modelu predykcyjnego przyszłych wartości glikemii diabetyka leczonego za pomocą
Bardziej szczegółowoSIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe
SIECI NEURONOWE Liniowe i nieliniowe sieci neuronowe JOANNA GRABSKA-CHRZĄSTOWSKA Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły PROF. RYSZARDA TADEUSIEWICZA BUDOWA RZECZYWISTEGO NEURONU
Bardziej szczegółowoStanisław Cichocki Natalia Nehrebecka. Wykład 7
Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności
Bardziej szczegółowoEkonometria. Weryfikacja modelu. Paweł Cibis 12 maja 2007
Weryfikacja modelu Paweł Cibis pawel@cibis.pl 12 maja 2007 1 Badanie normalności rozkładu elementu losowego Test Hellwiga dla małej próby Test Kołmogorowa dla dużej próby 2 Testy Pakiet Analiza Danych
Bardziej szczegółowoRozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki
Rozpoznawanie wzorców Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Twierzdzenie: Prawdopodobieostwo, że n obserwacji wybranych
Bardziej szczegółowoOptymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Bardziej szczegółowo5. Analiza dyskryminacyjna: FLD, LDA, QDA
Algorytmy rozpoznawania obrazów 5. Analiza dyskryminacyjna: FLD, LDA, QDA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Liniowe funkcje dyskryminacyjne Liniowe funkcje dyskryminacyjne mają ogólną
Bardziej szczegółowoOznacza to, że chcemy znaleźć minimum, a właściwie wartość najmniejszą funkcji
Wykład 11. Metoda najmniejszych kwadratów Szukamy zależności Dane są wyniki pomiarów dwóch wielkości x i y: (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ). Przypuśćmy, że nanieśliśmy je na wykres w układzie
Bardziej szczegółowoBudowa modelu i testowanie hipotez
Problemy metodologiczne Gdzie jest problem? Obciążenie Lovella Dysponujemy oszacowaniami parametrów następującego modelu y t = β 0 + β 1 x 1 +... + β k x k + ε t Gdzie jest problem? Obciążenie Lovella
Bardziej szczegółowoLABORATORIUM TEORII STEROWANIA. Ćwiczenie 6 RD Badanie układu dwupołożeniowej regulacji temperatury
Wydział Elektryczny Zespół Automatyki (ZTMAiPC). Cel ćiczenia LABORATORIUM TEORII STEROWANIA Ćiczenie 6 RD Badanie układu dupołożenioej regulacji temperatury Celem ćiczenia jest poznanie łaściości regulacji
Bardziej szczegółowoMetody Ekonometryczne
Metody Ekonometryczne Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Metody Ekonometyczne Wykład 4 Uogólniona Metoda Najmniejszych Kwadratów (GLS) 1 / 19 Outline 1 2 3 Jakub Mućk Metody Ekonometyczne
Bardziej szczegółowoPrawdopodobieństwo i rozkład normalny cd.
# # Prawdopodobieństwo i rozkład normalny cd. Michał Daszykowski, Ivana Stanimirova Instytut Chemii Uniwersytet Śląski w Katowicach Ul. Szkolna 9 40-006 Katowice E-mail: www: mdaszyk@us.edu.pl istanimi@us.edu.pl
Bardziej szczegółowoAnaliza wariancji w analizie regresji - weryfikacja prawdziwości przyjętego układu ograniczeń Problem Przykłady
Analiza wariancji w analizie regresji - weryfikacja prawdziwości przyjętego układu ograniczeń 1. Problem ozwaŝamy zjawisko (model): Y = β 1 X 1 X +...+ β k X k +Z Ηβ = w r Hipoteza alternatywna: Ηβ w r
Bardziej szczegółowoWykład 9 Testy rangowe w problemie dwóch prób
Wykład 9 Testy rangowe w problemie dwóch prób Wrocław, 18 kwietnia 2018 Test rangowy Testem rangowym nazywamy test, w którym statystyka testowa jest konstruowana w oparciu o rangi współrzędnych wektora
Bardziej szczegółowoWeryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 5
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y
Bardziej szczegółowoTestowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.
Testowanie hipotez Niech X = (X 1... X n ) będzie próbą losową na przestrzeni X zaś P = {P θ θ Θ} rodziną rozkładów prawdopodobieństwa określonych na przestrzeni próby X. Definicja 1. Hipotezą zerową Θ
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej
Bardziej szczegółowoWprowadzenie do analizy korelacji i regresji
Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących
Bardziej szczegółowo