Techniki Optymalizacji: Metody regresji

Wielkość: px
Rozpocząć pokaz od strony:

Download "Techniki Optymalizacji: Metody regresji"

Transkrypt

1 Techniki Optymalizacji: Metody regresji Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej pok. 2 (CW) tel. (61) konsultacje: piątek 15:10-16:40 Slajdy dostępne pod adresem: / 29

2 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 2 / 29

3 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 3 / 29

4 Problem regresji Przewidywania/wyjaśnienie zmian jednej zmiennej (Y ) pod wpływem zmian innych zmiennych (X). Powód: zmienne X zwykle łatwe do pozyskania, Y trudne lub niemożliwe do pozyskania 4 / 29

5 Problem regresji Przewidywania/wyjaśnienie zmian jednej zmiennej (Y ) pod wpływem zmian innych zmiennych (X). Powód: zmienne X zwykle łatwe do pozyskania, Y trudne lub niemożliwe do pozyskania Przykłady X ceny akcji w ostatnim tygodniu, Y cena akcji jutro. X wyniki testów medycznych, Y poziom zaawansowania choroby. X wielkość programu, Y czas pisania programu. X warunki na drodze, czas, lokalizacja, Y średnia prędkość samochodów. X cechy domu Y cena domu. 4 / 29

6 Regresja liniowa Modelujemy zmienną Y jako funkcję liniową X. dla jednej zmiennej: dla wielu zmiennych: Ŷ = w 1 X + w 0 Ŷ = w 1 X w m X m + w 0 = w X + w 0 5 / 29

7 Regresja liniowa Modelujemy zmienną Y jako funkcję liniową X. dla jednej zmiennej: dla wielu zmiennych: Ŷ = w 1 X + w 0 Ŷ = w 1 X w m X m + w 0 = w X + w 0 Model liniowy jest ogólniejszy niż myślicie! Przykład: regresja wielomianowa to regresja liniowa! Mając X, wprowadzamy zmienne: X 1 = X, X 2 = X 2, X 3 = X 3,... Ŷ = w 1 X+w 2 X w 0 = Ŷ = w 1X 1 +w 2 X w 0 5 / 29

8 Jak to się zwykle robi Otrzymujemy zbiór danych historycznych, na którym znane są wartości Y : (x 11, x 12,..., x 1m, y 1 ) (x 1, y 1 ) (x 21, x 22,..., x 2m, y 2 ) (x 2, y 2 )... lub w skrócie... (x n1, x n2,..., x nm, y n ) (x n, y n ) 6 / 29

9 Jak to się zwykle robi Otrzymujemy zbiór danych historycznych, na którym znane są wartości Y : (x 11, x 12,..., x 1m, y 1 ) (x 1, y 1 ) (x 21, x 22,..., x 2m, y 2 ) (x 2, y 2 )... lub w skrócie... (x n1, x n2,..., x nm, y n ) (x n, y n ) Wyznaczamy współczynniki w 0, w 1,..., w m na danych. 6 / 29

10 Jak to się zwykle robi Otrzymujemy zbiór danych historycznych, na którym znane są wartości Y : (x 11, x 12,..., x 1m, y 1 ) (x 1, y 1 ) (x 21, x 22,..., x 2m, y 2 ) (x 2, y 2 )... lub w skrócie... (x n1, x n2,..., x nm, y n ) (x n, y n ) Wyznaczamy współczynniki w 0, w 1,..., w m na danych. Testujemy nasz model na osobnym zbiorze testowym (również ze znanymi wartościami Y ) 6 / 29

11 Jak to się zwykle robi Otrzymujemy zbiór danych historycznych, na którym znane są wartości Y : (x 11, x 12,..., x 1m, y 1 ) (x 1, y 1 ) (x 21, x 22,..., x 2m, y 2 ) (x 2, y 2 )... lub w skrócie... (x n1, x n2,..., x nm, y n ) (x n, y n ) Wyznaczamy współczynniki w 0, w 1,..., w m na danych. Testujemy nasz model na osobnym zbiorze testowym (również ze znanymi wartościami Y ) 6 / 29

12 Przykład: szacowanie czasu pracy programistów X Y Rozmiar programu Oszacowany czas / 29

13 Przykład: szacowanie czasu pracy programistów X Y Rozmiar programu Oszacowany czas x 1 = 186 y 1 = 130 x 2 = 699 y 2 = 650 x 3 = 132 y 3 = 99 x 4 = 272 y 4 = 150 x 5 = 291 y 5 = 128 x 6 = 331 y 6 = 302 x 7 = 199 y 7 = 95 x 8 = 1890 y 8 = 945 x 9 = 788 y 9 = 368 x 10 = 1601 y 10 = / 29

14 Przykład: szacowanie czasu pracy programistów X Y Rozmiar programu Oszacowany czas x 1 = 186 y 1 = 130 x 2 = 699 y 2 = 650 x 3 = 132 y 3 = 99 x 4 = 272 y 4 = 150 x 5 = 291 y 5 = 128 x 6 = 331 y 6 = 302 x 7 = 199 y 7 = 95 x 8 = 1890 y 8 = 945 x 9 = 788 y 9 = 368 x 10 = 1601 y 10 = 961 czas [h] rozmiar programu [linie kodu] 7 / 29

15 Przykład: szacowanie czasu pracy programistów X Y Rozmiar programu Oszacowany czas x 1 = 186 y 1 = 130 x 2 = 699 y 2 = 650 x 3 = 132 y 3 = 99 x 4 = 272 y 4 = 150 x 5 = 291 y 5 = 128 x 6 = 331 y 6 = 302 x 7 = 199 y 7 = 95 x 8 = 1890 y 8 = 945 x 9 = 788 y 9 = 368 x 10 = 1601 y 10 = 961 czas [h] rozmiar programu [linie kodu] w 0 = 45.93, w 1 = / 29

16 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 8 / 29

17 Jak wyznaczyć współczynniki? Problem optymalizacji Mając zbiór danych (x 1, y 1 ),..., (x n, y n ), wyznacz współczynniki w 0, w 1,..., w m tak, aby wartości przewidywane przez model: ŷ i = w 1 x i w m x im + w 0 = w x i + w 0 na wszystkich danych (i = 1,..., n) były jak najbliżej prawdziwych wartości y i. 9 / 29

18 Jak wyznaczyć współczynniki? Problem optymalizacji Mając zbiór danych (x 1, y 1 ),..., (x n, y n ), wyznacz współczynniki w 0, w 1,..., w m tak, aby wartości przewidywane przez model: ŷ i = w 1 x i w m x im + w 0 = w x i + w 0 na wszystkich danych (i = 1,..., n) były jak najbliżej prawdziwych wartości y i. Uwaga: zwykle dodajemy jeszcze jedną zmienną wejściową X 0 stale równą 1 i chowamy współczynnik w 0 do wektora w, otrzymując: ŷ i = w 0 x i0 + w 1 x i w m x im = w x i 9 / 29

19 Odchylenia (błędy) na danych Y price [1000EUR] area size [sq.m] X 2 FIGURE statistical 3.1. learning. Linear least squares fitting with X IR 2. We seek the linear function of X that minimizes the sum of squared residuals from Y. X 1 Źródło: Hastie, Tibshirani, Friedman, Elements of 10 / 29

20 Odchylenia (błędy) na danych Y price [1000EUR] area size [sq.m] X 2 X 1 Źródło: Hastie, Tibshirani, Friedman, Elements of FIGURE statistical 3.1. learning. Linear least squares fitting with X IR 2. We seek the linear function of X that minimizes the sum of squared residuals from Y. Odchylenie (błąd) na danym x i to różnica między prawdziwą wartością y i, a wartością przewidywaną przez model ŷ i (punkt na prostej): δ i = y i ŷ i = y i w x i 10 / 29

21 Odchylenia (błędy) na danych Y price [1000EUR] area size [sq.m] X 2 X 1 Źródło: Hastie, Tibshirani, Friedman, Elements of FIGURE statistical 3.1. learning. Linear least squares fitting with X IR 2. We seek the linear function of X that minimizes the sum of squared residuals from Y. Odchylenie (błąd) na danym x i to różnica między prawdziwą wartością y i, a wartością przewidywaną przez model ŷ i (punkt na prostej): δ i = y i ŷ i = y i w x i Jak zmierzyć sumaryczny błąd? 10 / 29

22 Trzy kryteria 11 / 29

23 Trzy kryteria Minimalizacja sumy kwadratów błędów/odchyleń (least squares LS) min : z = δi 2 = (y i ŷ i ) 2 11 / 29

24 Trzy kryteria Minimalizacja sumy kwadratów błędów/odchyleń (least squares LS) min : z = δi 2 = (y i ŷ i ) 2 Minimalizacja sumy wartości bezwzględnych błędów/odchyleń (least absolute deviations LAD) min : z = δ i = y i ŷ i 11 / 29

25 Trzy kryteria Minimalizacja sumy kwadratów błędów/odchyleń (least squares LS) min : z = δi 2 = (y i ŷ i ) 2 Minimalizacja sumy wartości bezwzględnych błędów/odchyleń (least absolute deviations LAD) min : z = δ i = y i ŷ i Minimalizacja największego z błędów (minimax MM) min : z = max,...,n δ i = max y i ŷ i,...,n 11 / 29

26 Zalety i wady LS LAD MM optymalizacja analityczny wzór progr. liniowe progr. liniowe stabilność rozwiązania stabilne niestabilne niestabilne wartości odstające nieodporna odporna bardzo nieodporna Zwykle wybór między LS a LAD. MM nie nadaje się do stosowania w regresji! (poza wyjatkowymi przypadkami). 12 / 29

27 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w / 29

28 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: 13 / 29

29 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} w 0 13 / 29

30 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 13 / 29

31 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 Minimalizacja wartości bezwzględnych (błędów) (LAD): min w 0 { 99 w0 1 + w } 13 / 29

32 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 Minimalizacja wartości bezwzględnych (błędów) (LAD): min w 0 { 99 w0 1 + w } = w 0 = median(y) = 1 13 / 29

33 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 Minimalizacja wartości bezwzględnych (błędów) (LAD): min w 0 { 99 w0 1 + w } = w 0 = median(y) = 1 Minimalizacja największego błędu (MM): min w 0 max { w 0 1, w } 13 / 29

34 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 Minimalizacja wartości bezwzględnych (błędów) (LAD): min w 0 { 99 w0 1 + w } = w 0 = median(y) = 1 Minimalizacja największego błędu (MM): min w 0 max { w 0 1, w } = w 0 = middle(y) = / 29

35 Odporność na wartości odstające Najprostszy przypadek: Brak X, tylko Y. Model zawiera tylko stałą: ŷ = w 0. Dane: 100 punktów, y 1 = y 2 =... = y 99 = 1 oraz jedna przypadkowo źle wpisana wartość y 6 = Współczynniki wyznaczone na danych: Minimalizacja { kwadratów błędów (LS): min 99 (w 0 1) 2 + (w ) 2} = w 0 = avg(y) = w 0 Minimalizacja wartości bezwzględnych (błędów) (LAD): min w 0 { 99 w0 1 + w } = w 0 = median(y) = 1 Minimalizacja największego błędu (MM): min w 0 max { w 0 1, w } = w 0 = middle(y) = Gdy są X, prosta regresji dla LS i MM będzie przyciągana zbyt mocno do wartości odstających! (szczególnie MM: tragedia!) 13 / 29

36 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 14 / 29

37 Optymalizacja Metoda najmniejszych kwadratów min : L(w) = (y i w x i ) 2 w 15 / 29

38 Optymalizacja Metoda najmniejszych kwadratów min : L(w) = (y i w x i ) 2 w Funkcja wypukła, kwadratowa. 15 / 29

39 Optymalizacja Metoda najmniejszych kwadratów min : L(w) = (y i w x i ) 2 w Funkcja wypukła, kwadratowa. Rozwiązanie poprzez przyrównanie pochodnych po wszystkich w j do 0: ( ) 1 ( w LS = x i x i y i x i ), 15 / 29

40 Metoda najmniejszych kwadratów 16 / 29

41 Metoda najmniejszych kwadratów Funkcja celu: L(w) = (y i w x i ) 2 16 / 29

42 Metoda najmniejszych kwadratów Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: L(w) w j = 2(y i w x i )x ij 16 / 29

43 Metoda najmniejszych kwadratów Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: L(w) w j = 2(y i w x i )x ij Przyrównanie do zera: 2(y i w x i )x ij = 0 = y i x ij = m w k x ik x ij k=1 16 / 29

44 Metoda najmniejszych kwadratów Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: L(w) w j = 2(y i w x i )x ij Przyrównanie do zera: 2(y i w x i )x ij = 0 = y i x ij = m w k x ik x ij k=1 Wektorowo: ( y i x i = x i x i ) ( w = w = x i x i ) 1 ( y i x i ). 16 / 29

45 MNK jako metoda Newtona-Raphsona 17 / 29

46 MNK jako metoda Newtona-Raphsona Funkcja celu: L(w) = (y i w x i ) 2 17 / 29

47 MNK jako metoda Newtona-Raphsona Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: L(w) w j = 2(y i w x i )x ij 17 / 29

48 MNK jako metoda Newtona-Raphsona Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: Gradient: L(w) w j = 2(y i w x i )x ij L (w) = 2 (y i w x i )x i 17 / 29

49 MNK jako metoda Newtona-Raphsona Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: Gradient: L(w) w j = 2(y i w x i )x ij L (w) = 2 (y i w x i )x i Drugie pochodne: 2 L(w) w j w k = 2x ik x ij 17 / 29

50 MNK jako metoda Newtona-Raphsona Funkcja celu: L(w) = (y i w x i ) 2 Pochodne: Gradient: L(w) w j = 2(y i w x i )x ij L (w) = 2 (y i w x i )x i Drugie pochodne: 2 L(w) w j w k = 2x ik x ij Hesjan: H L (w) = 2x i x i 17 / 29

51 MNK jako metoda Newtona-Raphsona Gradient: Hesjan: L (w) = 2 (y i w x i )x i H L (w) = 2x i x i 18 / 29

52 MNK jako metoda Newtona-Raphsona Gradient: Hesjan: L (w) = 2 (y i w x i )x i H L (w) = 2x i x i Rozwiązanie początkowe: w 0 = 0. L (w 0 ) = 2 y i x i, H L (w 0 ) = 2x i x i 18 / 29

53 MNK jako metoda Newtona-Raphsona Gradient: Hesjan: L (w) = 2 (y i w x i )x i H L (w) = 2x i x i Rozwiązanie początkowe: w 0 = 0. L (w 0 ) = 2 y i x i, H L (w 0 ) = 2x i x i Krok metodą Newtona-Rapshona: w 1 = w 0 H 1 L (w 0) L (w 0 ) 18 / 29

54 MNK jako metoda Newtona-Raphsona Gradient: Hesjan: L (w) = 2 (y i w x i )x i H L (w) = 2x i x i Rozwiązanie początkowe: w 0 = 0. L (w 0 ) = 2 y i x i, H L (w 0 ) = 2x i x i Krok metodą Newtona-Rapshona: ( w 1 = w 0 H 1 L (w 0) L (w 0 ) = x i x i ) 1 ( ) y i x i 18 / 29

55 MNK jako metoda Newtona-Raphsona Gradient: Hesjan: L (w) = 2 (y i w x i )x i H L (w) = 2x i x i Rozwiązanie początkowe: w 0 = 0. L (w 0 ) = 2 y i x i, H L (w 0 ) = 2x i x i Krok metodą Newtona-Rapshona: ( w 1 = w 0 H 1 L (w 0) L (w 0 ) = x i x i ) 1 ( ) y i x i Newton-Rapshon rozwiązuje MNK w jednym roku! 18 / 29

56 Metoda Levenberga-Marquada Co jeśli hesjan H L jest osobliwy (nieodwracalny)? 19 / 29

57 Metoda Levenberga-Marquada Co jeśli hesjan H L jest osobliwy (nieodwracalny)? Dodajemy do hesjanu macierz jednostkową I przemnożoną przez (małą) stałą λ: 1 w = x i x i + λi y i x i. 19 / 29

58 Metoda Levenberga-Marquada Co jeśli hesjan H L jest osobliwy (nieodwracalny)? Dodajemy do hesjanu macierz jednostkową I przemnożoną przez (małą) stałą λ: 1 w = x i x i + λi y i x i. Czy istnieje modyfikacja problemu regresji, które rozwiązaniem jest jeden krok Levenberga-Marquada? 19 / 29

59 Metoda Levenberga-Marquada Co jeśli hesjan H L jest osobliwy (nieodwracalny)? Dodajemy do hesjanu macierz jednostkową I przemnożoną przez (małą) stałą λ: 1 w = x i x i + λi y i x i. Czy istnieje modyfikacja problemu regresji, które rozwiązaniem jest jeden krok Levenberga-Marquada? = Regresja grzbietowa. 19 / 29

60 Regresja grzbietowa Funkcja celu: L(w) = (y i w x i ) 2 + λ w / 29

61 Regresja grzbietowa Funkcja celu: L(w) = Pochodne: L(w) w j = (y i w x i ) 2 + λ w 2. 2(y i w x i )x ij + 2λw j 20 / 29

62 Regresja grzbietowa Funkcja celu: L(w) = Pochodne: L(w) w j = (y i w x i ) 2 + λ w 2. 2(y i w x i )x ij + 2λw j Przyrównanie pochodnych do zera daje: m y i x ij = w k x ik x ij + λw j k=1 20 / 29

63 Regresja grzbietowa Funkcja celu: L(w) = Pochodne: L(w) w j = (y i w x i ) 2 + λ w 2. 2(y i w x i )x ij + 2λw j Przyrównanie pochodnych do zera daje: m y i x ij = w k x ik x ij + λw j Wektorowo: ( y i x i = x i x i k=1 ( = w = x i x i ) ( w + λw = x i x i ) + λi w ) 1 ( + λi y i x i ). 20 / 29

64 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 21 / 29

65 Optymalizacja Minimalizacja sumy wartości bezwzględnych błędów (LAD): min : L(w) = y i w x i. w 22 / 29

66 Optymalizacja Minimalizacja sumy wartości bezwzględnych błędów (LAD): min : L(w) = y i w x i. w Sprowadzamy do problemu programowania liniowego: Dla każdego i = 1,..., n wprowadzamy dwie zmienne σ i +, σ i 0 takie, że y i w x i = σ i + σi. 22 / 29

67 Optymalizacja Minimalizacja sumy wartości bezwzględnych błędów (LAD): min : L(w) = y i w x i. w Sprowadzamy do problemu programowania liniowego: Dla każdego i = 1,..., n wprowadzamy dwie zmienne σ i +, σ i 0 takie, że y i w x i = σ i + σi. Zauważmy, że wtedy: y i w x i σ + i + σ i, 22 / 29

68 Optymalizacja Minimalizacja sumy wartości bezwzględnych błędów (LAD): min : L(w) = y i w x i. w Sprowadzamy do problemu programowania liniowego: Dla każdego i = 1,..., n wprowadzamy dwie zmienne σ i +, σ i 0 takie, że y i w x i = σ i + σi. Zauważmy, że wtedy: y i w x i σ + i + σ i, czyli L(w) σ i + + σi, 22 / 29

69 Optymalizacja Minimalizacja sumy wartości bezwzględnych błędów (LAD): min : L(w) = y i w x i. w Sprowadzamy do problemu programowania liniowego: Dla każdego i = 1,..., n wprowadzamy dwie zmienne σ i +, σ i 0 takie, że y i w x i = σ i + σi. Zauważmy, że wtedy: y i w x i σ + i + σ i, czyli L(w) σ i + + σi, i równość zachodzi dokładnie gdy dla każdego i = 1,..., n, jedno z σ + i, σ i jest równe / 29

70 Optymalizacja Rozwiązujemy problem: min L (w, σ +, σ ) = σ + i + σ i p.o. y i w x i = σ i + σi i = 1,..., n σ i +, σ i 0 i = 1,..., n. 23 / 29

71 Optymalizacja Rozwiązujemy problem: min L (w, σ +, σ ) = σ + i + σ i p.o. y i w x i = σ i + σi i = 1,..., n σ i +, σ i 0 i = 1,..., n. Minimalizujemy górne ograniczenie funkcji L(w). Wiemy, że w optimum dokładnie jedno z σ + i, σ i jest równe / 29

72 Optymalizacja Rozwiązujemy problem: min L (w, σ +, σ ) = σ + i + σ i p.o. y i w x i = σ i + σi i = 1,..., n σ i +, σ i 0 i = 1,..., n. Minimalizujemy górne ograniczenie funkcji L(w). Wiemy, że w optimum dokładnie jedno z σ + i, σ i jest równe 0. Dowód: jeśli oba σ + i, σ i > 0, to możemy oba zmniejszyć o δ, zachowując ograniczenia, a zmniejszając funkcję celu o 2δ sprzeczność! 23 / 29

73 Optymalizacja Rozwiązujemy problem: min L (w, σ +, σ ) = σ + i + σ i p.o. y i w x i = σ i + σi i = 1,..., n σ i +, σ i 0 i = 1,..., n. Minimalizujemy górne ograniczenie funkcji L(w). Wiemy, że w optimum dokładnie jedno z σ + i, σ i jest równe 0. Dowód: jeśli oba σ + i, σ i > 0, to możemy oba zmniejszyć o δ, zachowując ograniczenia, a zmniejszając funkcję celu o 2δ sprzeczność! Wniosek: W optimum L (w, σ +, σ ) = L(w), więc rozwiązaliśmy problem LAD. 23 / 29

74 Spis treści 1 Problem regresji 2 Metody regresji liniowej 3 Minimalizacja kwadratów błędów 4 Minimalizacja sumy wartości bezwzględnych błędów 5 Przykład: wycena domów 24 / 29

75 Wycena domów Den Bosch ( s-hertogenbosch), Holandia 119 domów. X Y living area sale price x x x x x x area size [sq.m] price [1000EUR] 25 / 29

76 Wycena domów 119 domów, opisanych 9 cechami wejściowymi (X) i 1 wyjściową (Y ). DISTR type of district, four categories ranked from bad (1) to good (4) AREA total area including garden BEDR number of bedrooms TYPE apartment (1), row house (2), corner house (3), semidetached (4), detached (5), villa (6) VOL volume of the house STOR number of storeys GARD type of garden, four categories ranked from bad to good GARG no garage (1), normal garage (2), large garage (3) YEAR build year PRICE selling price 26 / 29

77 Wycena domów Zbiór danych: X 1 X 2 X 3 X 4 X 5 X 6 X 7 X 8 X 9 Y DISTR AREA BEDR TYPE VOL STOR GARD GARG YEAR PRICE x x x x x x / 29

78 Ilustracyjny przykład Weźmy tylko jedną zmienną X = X 2 (AREA) dla zilustrowania wyników na płaszczyźnie. Wykres Y =PRICE w funkcji X =AREA: area size [sq.m.] price [1000EUR] 28 / 29

79 Ilustracyjny przykład Weźmy tylko jedną zmienną X = X 2 (AREA) dla zilustrowania wyników na płaszczyźnie. Metoda najmniejszych kwadratów (LS): area size [sq.m.] price [1000EUR] 28 / 29

80 Ilustracyjny przykład Weźmy tylko jedną zmienną X = X 2 (AREA) dla zilustrowania wyników na płaszczyźnie. Minimalizacja sumy wartości bewzględnych (LAD): area size [sq.m.] price [1000EUR] 28 / 29

81 Ilustracyjny przykład Weźmy tylko jedną zmienną X = X 2 (AREA) dla zilustrowania wyników na płaszczyźnie. Minimalizacja największego błędu (MM): area size [sq.m.] price [1000EUR] 28 / 29

82 Koniec na dzisiaj :) 29 / 29

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Techniki Optymalizacji: Optymalizacja wypukła

Techniki Optymalizacji: Optymalizacja wypukła Techniki Optymalizacji: Optymalizacja wypukła Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: piątek 15:10-16:40

Bardziej szczegółowo

Metody Optymalizacji: Przeszukiwanie z listą tabu

Metody Optymalizacji: Przeszukiwanie z listą tabu Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

Analiza matematyczna i algebra liniowa Macierze

Analiza matematyczna i algebra liniowa Macierze Analiza matematyczna i algebra liniowa Macierze Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: poniedziałek

Bardziej szczegółowo

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re Wykład 4 Wybór najlepszej procedury. Estymacja parametrów regresji z wykorzystaniem metody bootstrap. Wrocław, 22.03.2017r Wybór najlepszej procedury - podsumowanie Co nas interesuje przed przeprowadzeniem

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VI... 16 Listopada 2011 1 / 24 Jest to rozkład zmiennej losowej rozkład chi-kwadrat Z = n i=1 X 2 i, gdzie X i N(µ i, 1) - niezależne. Oznaczenie: Z χ 2 (n, λ), gdzie:

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania

Bardziej szczegółowo

Analiza matematyczna i algebra liniowa Macierze

Analiza matematyczna i algebra liniowa Macierze Analiza matematyczna i algebra liniowa Macierze Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: poniedziałek

Bardziej szczegółowo

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej Ekonometria Wprowadzenie do modelowania ekonometrycznego Estymator Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 1 Estymator 1 / 16 Agenda 1 Literatura Zaliczenie przedmiotu 2 Model

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji Stosowana Analiza Regresji Wykład VIII 30 Listopada 2011 1 / 18 gdzie: X : n p Q : n n R : n p Zał.: n p. X = QR, - macierz eksperymentu, - ortogonalna, - ma zera poniżej głównej diagonali. [ R1 X = Q

Bardziej szczegółowo

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +

Bardziej szczegółowo

Rozwiązywanie układów równań liniowych

Rozwiązywanie układów równań liniowych Rozwiązywanie układów równań liniowych Marcin Orchel 1 Wstęp Jeśli znamy macierz odwrotną A 1, to możęmy znaleźć rozwiązanie układu Ax = b w wyniku mnożenia x = A 1 b (1) 1.1 Metoda eliminacji Gaussa Pierwszy

Bardziej szczegółowo

Analiza zależności cech ilościowych regresja liniowa (Wykład 13)

Analiza zależności cech ilościowych regresja liniowa (Wykład 13) Analiza zależności cech ilościowych regresja liniowa (Wykład 13) dr Mariusz Grządziel semestr letni 2012 Przykład wprowadzajacy W zbiorze danych homedata (z pakietu R-owskiego UsingR) można znaleźć ceny

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Statystyczna analiza danych 1

Statystyczna analiza danych 1 Statystyczna analiza danych 1 Regresja liniowa 1 Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski Ewa Szczurek Regresja liniowa 1 1 / 41 Dane: wpływ reklam produktu na sprzedaż

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 0. Wprowadzenie Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 11 Kontakt wojciech.kotlowski@cs.put.poznan.pl http://www.cs.put.poznan.pl/wkotlowski/mp/

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 4. Metody kierunków poprawy (metoda spadku wzdłuż gradientu) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 21.03.2019 1 / 41 Plan wykładu Minimalizacja

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład I dr inż. Bogumil.Konopka@pwr.edu.pl 2015/2016 1 Wykład I - plan Sprawy organizacyjne Uczenie maszynowe podstawowe pojęcia Proces modelowania

Bardziej szczegółowo

Metoda najmniejszych kwadratów

Metoda najmniejszych kwadratów Własności algebraiczne Model liniowy Zapis modelu zarobki = β 0 + β 1 plec + β 2 wiek + ε Oszacowania wartości współczynników zarobki = b 0 + b 1 plec + b 2 wiek + e Model liniowy Tabela: Oszacowania współczynników

Bardziej szczegółowo

WYKŁAD 9 METODY ZMIENNEJ METRYKI

WYKŁAD 9 METODY ZMIENNEJ METRYKI WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać

Bardziej szczegółowo

Planowanie eksperymentu (optymalizacja procesów chemicznych)

Planowanie eksperymentu (optymalizacja procesów chemicznych) Planowanie eksperymentu (optymalizacja procesów chemicznych) dr inż. Agnieszka Gadomska-Gajadhur E-mail: agadomska@ch.pw.edu.pl Lab. Pawilon, nr tel. 34 54 63 Plan wykładu Dlaczego planujemy eksperymenty?

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

Stosowana Analiza Regresji

Stosowana Analiza Regresji prostej Stosowana Wykład I 5 Października 2011 1 / 29 prostej Przykład Dane trees - wyniki pomiarów objętości (Volume), średnicy (Girth) i wysokości (Height) pni drzew. Interesuje nas zależność (o ile

Bardziej szczegółowo

Analiza matematyczna i algebra liniowa Elementy równań różniczkowych

Analiza matematyczna i algebra liniowa Elementy równań różniczkowych Analiza matematyczna i algebra liniowa Elementy równań różniczkowych Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936

Bardziej szczegółowo

Ekonometria dla IiE i MSEMat Z12

Ekonometria dla IiE i MSEMat Z12 Ekonometria dla IiE i MSEMat Z12 Rafał Woźniak Faculty of Economic Sciences, University of Warsaw Warszawa, 09-01-2017 Test RESET Ramsey a W pierwszym etapie estymujemy współczynniki regresji w modelu:

Bardziej szczegółowo

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 4 Mikołaj Czajkowski Wiktor Budziński Regresja kwantylowa W standardowej Metodzie Najmniejszych Kwadratów modelujemy warunkową średnią zmiennej objaśnianej: E( yi Xi) = μ ( Xi) Pokazaliśmy,

Bardziej szczegółowo

Analiza matematyczna i algebra liniowa Pochodna funkcji

Analiza matematyczna i algebra liniowa Pochodna funkcji Analiza matematyczna i algebra liniowa Pochodna funkcji Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9 Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności

Bardziej szczegółowo

1.1 Klasyczny Model Regresji Liniowej

1.1 Klasyczny Model Regresji Liniowej 1.1 Klasyczny Model Regresji Liniowej Klasyczny model Regresji Liniowej jest bardzo użytecznym narzędziem służącym do analizy danych empirycznych. Analiza regresji zajmuje się opisem zależności między

Bardziej szczegółowo

RÓWNANIA NIELINIOWE Maciej Patan

RÓWNANIA NIELINIOWE Maciej Patan RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 4

Stanisław Cichocki. Natalia Nehrebecka. Wykład 4 Stanisław Cichocki Natalia Nehrebecka Wykład 4 1 1. Własności hiperpłaszczyzny regresji 2. Dobroć dopasowania równania regresji. Współczynnik determinacji R 2 Dekompozycja wariancji zmiennej zależnej Współczynnik

Bardziej szczegółowo

Estymacja wektora stanu w prostym układzie elektroenergetycznym

Estymacja wektora stanu w prostym układzie elektroenergetycznym Zakład Sieci i Systemów Elektroenergetycznych LABORATORIUM INFORMATYCZNE SYSTEMY WSPOMAGANIA DYSPOZYTORÓW Estymacja wektora stanu w prostym układzie elektroenergetycznym Autorzy: dr inż. Zbigniew Zdun

Bardziej szczegółowo

Ekonometria. Metodologia budowy modelu. Jerzy Mycielski. Luty, 2011 WNE, UW. Jerzy Mycielski (WNE, UW) Ekonometria Luty, / 18

Ekonometria. Metodologia budowy modelu. Jerzy Mycielski. Luty, 2011 WNE, UW. Jerzy Mycielski (WNE, UW) Ekonometria Luty, / 18 Ekonometria Metodologia budowy modelu Jerzy Mycielski WNE, UW Luty, 2011 Jerzy Mycielski (WNE, UW) Ekonometria Luty, 2011 1 / 18 Sprawy organizacyjne Dyżur: środa godz. 14-15 w sali 302. Strona internetowa

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Narzędzia statystyczne i ekonometryczne. Wykład 1. dr Paweł Baranowski

Narzędzia statystyczne i ekonometryczne. Wykład 1. dr Paweł Baranowski Narzędzia statystyczne i ekonometryczne Wykład 1 dr Paweł Baranowski Informacje organizacyjne Wydział Ek-Soc, pok. B-109 pawel@baranowski.edu.pl Strona: baranowski.edu.pl (w tym materiały) Konsultacje:

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13 Stanisław Cichocki Natalia Nehrebecka Wykład 13 1 1. Autokorelacja Konsekwencje Testowanie autokorelacji 2. Metody radzenia sobie z heteroskedastycznością i autokorelacją Uogólniona Metoda Najmniejszych

Bardziej szczegółowo

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju

Funkcje charakterystyczne zmiennych losowych, linie regresji 1-go i 2-go rodzaju Funkcje charakterystyczne zmiennych losowych, linie regresji -go i 2-go rodzaju Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele

Bardziej szczegółowo

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów Formy heteroscedastyczności Własności estymatorów MNK wydatki konsumpcyjne 0 10000 20000 30000 40000 14.4 31786.08 dochód rozporz¹dzalny Zródlo: Obliczenia wlasne, dane BBGD 2004 Formy heteroscedastyczności

Bardziej szczegółowo

5. Rozwiązywanie układów równań liniowych

5. Rozwiązywanie układów równań liniowych 5. Rozwiązywanie układów równań liniowych Wprowadzenie (5.1) Układ n równań z n niewiadomymi: a 11 +a 12 x 2 +...+a 1n x n =a 10, a 21 +a 22 x 2 +...+a 2n x n =a 20,..., a n1 +a n2 x 2 +...+a nn x n =a

Bardziej szczegółowo

KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona

KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y 2. Współczynnik korelacji Pearsona 3. Siła i kierunek związku między zmiennymi 4. Korelacja ma sens, tylko wtedy, gdy związek między zmiennymi

Bardziej szczegółowo

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 4. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 4 Mikołaj Czajkowski Wiktor Budziński Endogeniczność regresja liniowa W regresji liniowej estymujemy następujące równanie: i i i KMRL zakłada, że wszystkie zmienne objaśniające są egzogeniczne

Bardziej szczegółowo

3. Macierze i Układy Równań Liniowych

3. Macierze i Układy Równań Liniowych 3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x

Bardziej szczegółowo

Rozdział 8. Regresja. Definiowanie modelu

Rozdział 8. Regresja. Definiowanie modelu Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

Model regresji wielokrotnej Wykład 14 ( ) Przykład ceny domów w Chicago

Model regresji wielokrotnej Wykład 14 ( ) Przykład ceny domów w Chicago Model regresji wielokrotnej Wykład 14 (4.06.2007) Przykład ceny domów w Chicago Poniżej są przedstawione dane dotyczące cen domów w Chicago (źródło: Sen, A., Srivastava, M., Regression Analysis, Springer,

Bardziej szczegółowo

Ekonometria - ćwiczenia 10

Ekonometria - ćwiczenia 10 Ekonometria - ćwiczenia 10 Mateusz Myśliwski Zakład Ekonometrii Stosowanej Instytut Ekonometrii Kolegium Analiz Ekonomicznych Szkoła Główna Handlowa 14 grudnia 2012 Wprowadzenie Optymalizacja liniowa Na

Bardziej szczegółowo

Wprowadzenie do analizy korelacji i regresji

Wprowadzenie do analizy korelacji i regresji Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących

Bardziej szczegółowo

Podstawy opracowania wyników pomiarów z elementami analizy niepewności statystycznych

Podstawy opracowania wyników pomiarów z elementami analizy niepewności statystycznych Podstawy opracowania wyników pomiarów z elementami analizy niepewności statystycznych Dr inż. Marcin Zieliński I Pracownia Fizyczna dla Biotechnologii, wtorek 8:00-10:45 Konsultacje Zakład Fizyki Jądrowej

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Część 2 Hipoteza złożona Testowanie hipotez łącznych Zapis matematyczny Rozkład statystyki testowej Hipoteza łączna H 0 : Rβ = q Hipoteza złożona Testowanie hipotez łącznych Zapis matematyczny Rozkład

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Matematyka stosowana i metody numeryczne

Matematyka stosowana i metody numeryczne Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładów Błędy obliczeń Błędy można podzielić na: modelu, metody, wejściowe (początkowe), obcięcia, zaokrągleń..

Bardziej szczegółowo

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

KADD Metoda najmniejszych kwadratów funkcje nieliniowe Metoda najmn. kwadr. - funkcje nieliniowe Metoda najmniejszych kwadratów Funkcje nieliniowe Procedura z redukcją kroku iteracji Przykłady zastosowań Dopasowanie funkcji wykładniczej Dopasowanie funkcji

Bardziej szczegółowo

Zaawansowane metody numeryczne

Zaawansowane metody numeryczne Wykład 10 Rozkład LU i rozwiązywanie układów równań liniowych Niech będzie dany układ równań liniowych postaci Ax = b Załóżmy, że istnieją macierze L (trójkątna dolna) i U (trójkątna górna), takie że macierz

Bardziej szczegółowo

Regresja liniowa w R Piotr J. Sobczyk

Regresja liniowa w R Piotr J. Sobczyk Regresja liniowa w R Piotr J. Sobczyk Uwaga Poniższe notatki mają charakter roboczy. Mogą zawierać błędy. Za przesłanie mi informacji zwrotnej o zauważonych usterkach serdecznie dziękuję. Weźmy dane dotyczące

Bardziej szczegółowo

DOPASOWYWANIE KRZYWYCH

DOPASOWYWANIE KRZYWYCH DOPASOWYWANIE KRZYWYCH Maciej Patan Uniwersytet Zielonogórski Motywacje Przykład 1. Dane o przyroście światowej populacji są aktualizowane co każde 10 lat, celem szacowania średniego przyrostu rocznego.

Bardziej szczegółowo

PODSTAWY OPRACOWANIA WYNIKÓW POMIARÓW Z ELEMENTAMI ANALIZY NIEPEWNOŚCI POMIAROWYCH

PODSTAWY OPRACOWANIA WYNIKÓW POMIARÓW Z ELEMENTAMI ANALIZY NIEPEWNOŚCI POMIAROWYCH PODSTAWY OPRACOWANIA WYNIKÓW POMIARÓW Z ELEMENTAMI ANALIZY NIEPEWNOŚCI POMIAROWYCH Dr Benedykt R. Jany I Pracownia Fizyczna Ochrona Środowiska grupa F1 Rodzaje Pomiarów Pomiar bezpośredni - bezpośrednio

Bardziej szczegółowo

WYKŁAD 8 ANALIZA REGRESJI

WYKŁAD 8 ANALIZA REGRESJI WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Sterowanie napędów maszyn i robotów

Sterowanie napędów maszyn i robotów Wykład 5 - Identyfikacja Instytut Automatyki i Robotyki (IAiR), Politechnika Warszawska Warszawa, 2015 Koncepcje estymacji modelu Standardowe drogi poszukiwania modeli parametrycznych M1: Analityczne określenie

Bardziej szczegółowo

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna

Interpolacja. Marcin Orchel. Drugi przypadek szczególny to interpolacja trygonometryczna Interpolacja Marcin Orchel 1 Wstęp Mamy daną funkcję φ (x; a 0,..., a n ) zależną od n + 1 parametrów a 0,..., a n. Zadanie interpolacji funkcji φ polega na określeniu parametrów a i tak aby dla n + 1

Bardziej szczegółowo

Analiza matematyczna i algebra liniowa Wprowadzenie Ciągi liczbowe

Analiza matematyczna i algebra liniowa Wprowadzenie Ciągi liczbowe Analiza matematyczna i algebra liniowa Wprowadzenie Ciągi liczbowe Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom

Bardziej szczegółowo

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), Zależność przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), funkcyjna stochastyczna Korelacja brak korelacji korelacja krzywoliniowa korelacja dodatnia korelacja ujemna Szereg korelacyjny numer

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka

Stanisław Cichocki. Natalia Nehrebecka Stanisław Cichocki Natalia Nehrebecka 1 1. Wstęp a) Binarne zmienne zależne b) Interpretacja ekonomiczna c) Interpretacja współczynników 2. Liniowy model prawdopodobieństwa a) Interpretacja współczynników

Bardziej szczegółowo

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja

Politechnika Wrocławska, Wydział Informatyki i Zarządzania. Optymalizacja Politechnika Wrocławska, Wydział Informatyki i Zarządzania Optymalizacja Dla podanych niżej problemów decyzyjnych (zad.1 zad.5) należy sformułować zadania optymalizacji, tj.: określić postać zmiennych

Bardziej szczegółowo

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12 Stanisław Cichocki Natalia Nehrebecka Wykład 1 1 1. Testy diagnostyczne Testowanie stabilności parametrów modelu: test Chowa. Heteroskedastyczność Konsekwencje Testowanie heteroskedastyczności 1. Testy

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora. imię, nazwisko, nr indeksu: Ekonometria egzamin 02/02/2011 1. Egzamin trwa 90 minut. 2. Rozwiązywanie zadań należy rozpocząć po ogłoszeniu początku egzaminu a skończyć wraz z ogłoszeniem końca egzaminu.

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium Zadanie nr 3 Osada autor: A Gonczarek Celem poniższego zadania jest zrealizowanie fragmentu komputerowego przeciwnika w grze strategiczno-ekonomicznej

Bardziej szczegółowo

Definicja problemu programowania matematycznego

Definicja problemu programowania matematycznego Definicja problemu programowania matematycznego minimalizacja lub maksymalizacja funkcji min (max) f(x) gdzie: x 1 x R n x 2, czyli: x = [ ] x n przy ograniczeniach (w skrócie: p.o.) p.o. g i (x) = b i

Bardziej szczegółowo

Metody Ekonometryczne

Metody Ekonometryczne Metody Ekonometryczne Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Metody Ekonometyczne Wykład 4 Uogólniona Metoda Najmniejszych Kwadratów (GLS) 1 / 19 Outline 1 2 3 Jakub Mućk Metody Ekonometyczne

Bardziej szczegółowo

8. PODSTAWY ANALIZY NIELINIOWEJ

8. PODSTAWY ANALIZY NIELINIOWEJ 8. PODSTAWY ANALIZY NIELINIOWEJ 1 8. 8. PODSTAWY ANALIZY NIELINIOWEJ 8.1. Wprowadzenie Zadania nieliniowe mają swoje zastosowanie na przykład w rozwiązywaniu cięgien. Przyczyny nieliniowości: 1) geometryczne:

Bardziej szczegółowo

Natalia Nehrebecka Stanisław Cichocki. Wykład 10

Natalia Nehrebecka Stanisław Cichocki. Wykład 10 Natalia Nehrebecka Stanisław Cichocki Wykład 10 1 1. Testy diagnostyczne 2. Testowanie prawidłowości formy funkcyjnej modelu 3. Testowanie normalności składników losowych 4. Testowanie stabilności parametrów

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8 STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8 Regresja wielokrotna Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X 1, X 2, X 3,...) na zmienną zależną (Y).

Bardziej szczegółowo

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki WYKŁAD 6 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Własności Wariancji Przypomnijmy, że VarX = E(X EX) 2 = EX 2 (EX) 2. Własności

Bardziej szczegółowo

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model

Bardziej szczegółowo

5. Metody Newtona. 5.1 Wzór Taylora

5. Metody Newtona. 5.1 Wzór Taylora 5. Metody Newtona Na ostatnich zajęciach zidentyfikowaliśmy ważny problem poznanych dotychczas metod (Gaussa-Seidel a, Cauchy iego, spadku wzdłuż gradientu, stochastycznego spadku wzdłuż gradientu): ich

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody poszukiwania ekstremum funkcji jednej zmiennej Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Układy równań liniowych. Krzysztof Patan

Układy równań liniowych. Krzysztof Patan Układy równań liniowych Krzysztof Patan Motywacje Zagadnienie kluczowe dla przetwarzania numerycznego Wiele innych zadań redukuje się do problemu rozwiązania układu równań liniowych, często o bardzo dużych

Bardziej szczegółowo

Rozdział 1 PROGRAMOWANIE LINIOWE

Rozdział 1 PROGRAMOWANIE LINIOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 1 PROGRAMOWANIE LINIOWE 1.2 Ćwiczenia komputerowe Ćwiczenie 1.1 Wykorzystując

Bardziej szczegółowo

PROGRAMOWANIE NIELINIOWE

PROGRAMOWANIE NIELINIOWE PROGRAMOWANIE NIELINIOWE Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie programowania nieliniowego (ZPN) min f(x) g i (x) 0, h i (x) = 0, i = 1,..., m g i = 1,..., m h f(x) funkcja celu g i (x) i

Bardziej szczegółowo

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Wprowadzenie do teorii ekonometrii Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe Zajęcia Wykład Laboratorium komputerowe 2 Zaliczenie EGZAMIN (50%) Na egzaminie obowiązują wszystkie informacje

Bardziej szczegółowo

Statystyczna analiza danych

Statystyczna analiza danych Statystyczna analiza danych Korelacja i regresja Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/30 Ostrożnie z interpretacją p wartości p wartości zależą od dwóch rzeczy

Bardziej szczegółowo

Rozdział 6 PROGRAMOWANIE WYPUKŁE I KWADRATOWE

Rozdział 6 PROGRAMOWANIE WYPUKŁE I KWADRATOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 6 PROGRAMOWANIE WYPUKŁE I KWADRATOWE 6. Ćwiczenia komputerowe Ćwiczenie 6.1

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków

Bardziej szczegółowo

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej Porównanie modeli logicznej regresji z klasycznymi modelami regresji liniowej i logistycznej Instytut Matematyczny, Uniwersytet Wrocławski Małgorzata Bogdan Instytut Matematyki i Informatyki, Politechnika

Bardziej szczegółowo

INTERPOLACJA I APROKSYMACJA FUNKCJI

INTERPOLACJA I APROKSYMACJA FUNKCJI Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Wprowadzenie Na czym polega interpolacja? Interpolacja polega

Bardziej szczegółowo

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej Ekonometria Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych Jakub Mućk Katedra Ekonomii Ilościowej Jakub Mućk Ekonometria Wykład 4 Prognozowanie, stabilność 1 / 17 Agenda

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Regresja nieparametryczna series estimator

Regresja nieparametryczna series estimator Regresja nieparametryczna series estimator 1 Literatura Bruce Hansen (2018) Econometrics, rozdział 18 2 Regresja nieparametryczna Dwie główne metody estymacji Estymatory jądrowe Series estimators (estymatory

Bardziej szczegółowo

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y

Bardziej szczegółowo

Układy równań i nierówności liniowych

Układy równań i nierówności liniowych Układy równań i nierówności liniowych Wiesław Krakowiak 1 grudnia 2010 1 Układy równań liniowych DEFINICJA 11 Układem równań m liniowych o n niewiadomych X 1,, X n, nazywamy układ postaci: a 11 X 1 + +

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy

Bardziej szczegółowo