Analiza regresji część III. Agnieszka Nowak - Brzezińska

Podobne dokumenty
Analiza regresji. Analiza korelacji.

Stanisław Cichocki Natalia Nehrebecka. Zajęcia 11-12

Statystyczne metody analizy danych przy użyciu środowiska R

MODELE LINIOWE. Dr Wioleta Drobik

Rozdział 8. Regresja. Definiowanie modelu

Wprowadzenie do analizy korelacji i regresji

Natalia Nehrebecka Stanisław Cichocki. Wykład 13

Analiza zależności cech ilościowych regresja liniowa (Wykład 13)

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Analiza składowych głównych. Wprowadzenie

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH. Wykład 2 Obserwacje nietypowe i wpływowe Regresja nieliniowa

Zmienne zależne i niezależne

WERYFIKACJA MODELI MODELE LINIOWE. Biomatematyka wykład 8 Dr Wioleta Drobik-Czwarno

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Analiza regresji - weryfikacja założeń

Agnieszka Nowak Brzezińska Wykład 2 z 5

Analiza Danych Sprawozdanie regresja Marek Lewandowski Inf 59817

Stosowana Analiza Regresji

Temat zajęć: ANALIZA DANYCH ZBIORU EKSPORT. Część I: analiza regresji

Metody wykrywania odchyleo w danych. Metody wykrywania braków w danych. Korelacja. PED lab 4

Analiza regresji część II. Agnieszka Nowak - Brzezińska

Stanisław Cichocki. Natalia Nehrebecka. Wykład 14

Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej)

Statystyka. Wykład 8. Magdalena Alama-Bućko. 10 kwietnia Magdalena Alama-Bućko Statystyka 10 kwietnia / 31

Zaawansowana eksploracja danych - sprawozdanie nr 1 Rafał Kwiatkowski 89777, Poznań

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

KORELACJE I REGRESJA LINIOWA

Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

Wykład 5: Statystyki opisowe (część 2)

Regresja liniowa wprowadzenie

Wykład 9 Wnioskowanie o średnich

Outlier to dana (punkt, obiekt, wartośd w zbiorze) znacznie odstająca od reszty. prezentacji punktów odstających jest rysunek poniżej.

Statystyka. Wykład 9. Magdalena Alama-Bućko. 24 kwietnia Magdalena Alama-Bućko Statystyka 24 kwietnia / 34

Estymacja parametrów w modelu normalnym

Oszacowanie i rozkład t

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Korelacja oznacza współwystępowanie, nie oznacza związku przyczynowo-skutkowego

Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych

ANALIZA REGRESJI WIELOKROTNEJ. Zastosowanie statystyki w bioinżynierii Ćwiczenia 8

Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb

Zadania ze statystyki cz. 8 I rok socjologii. Zadanie 1.

Ekonometria ćwiczenia 3. Prowadzący: Sebastian Czarnota

Regresja liniowa, klasyfikacja metodą k-nn. Agnieszka Nowak Brzezińska

3. Modele tendencji czasowej w prognozowaniu

Stanisław Cichocki. Natalia Nehrebecka. Wykład 12

Regresja liniowa w R Piotr J. Sobczyk

Regresja wielokrotna. PDF created with FinePrint pdffactory Pro trial version

Szkice rozwiązań z R:

PDF created with FinePrint pdffactory Pro trial version

Analiza składowych głównych

LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Wstęp do teorii niepewności pomiaru. Danuta J. Michczyńska Adam Michczyński

Regresja liniowa oraz regresja wielokrotna w zastosowaniu zadania predykcji danych. Agnieszka Nowak Brzezińska Wykład III-VI

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2012

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13

Statystyka w przykładach

Regresja logistyczna (LOGISTIC)

1 n. s x x x x. Podstawowe miary rozproszenia: Wariancja z populacji: Czasem stosuje się też inny wzór na wariancję z próby, tak policzy Excel:

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

K wartość kapitału zaangażowanego w proces produkcji, w tys. jp.

parametrów strukturalnych modelu = Y zmienna objaśniana, X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających,

Zadania ze statystyki cz.8. Zadanie 1.

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Analizy wariancji ANOVA (analysis of variance)

Statystyka. Wykład 4. Magdalena Alama-Bućko. 13 marca Magdalena Alama-Bućko Statystyka 13 marca / 41

Wprowadzenie do technik analitycznych Metoda najmniejszych kwadratów

Monte Carlo, bootstrap, jacknife

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Statystyka w analizie i planowaniu eksperymentu

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Estymacja przedziałowa. Przedział ufności

Wykład 4: Statystyki opisowe (część 1)

Typy zmiennych. Zmienne i rekordy. Rodzaje zmiennych. Graficzne reprezentacje danych Statystyki opisowe

Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2013

Ekonometria. Modele regresji wielorakiej - dobór zmiennych, szacowanie. Paweł Cibis pawel@cibis.pl. 1 kwietnia 2007

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Lepiej zapobiegać niż leczyć Diagnostyka regresji

Zagadnienia regresji. Cz ± III Regresja wielokrotna Konspekt do zaj : Statystyczne metody analizy danych

Analizowane modele. Dwa modele: y = X 1 β 1 + u (1) y = X 1 β 1 + X 2 β 2 + ε (2) Będziemy analizować dwie sytuacje:

ANALIZA REGRESJI SPSS

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji

istocie dziedzina zajmująca się poszukiwaniem zależności na podstawie prowadzenia doświadczeń jest o wiele starsza: tak na przykład matematycy

Następnie przypominamy (dla części studentów wprowadzamy) podstawowe pojęcia opisujące funkcje na poziomie rysunków i objaśnień.

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

STATYSTYKA OPISOWA. LICZBOWE CHARAKTERYSTYKI(MIARY)

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

KORELACJA 1. Wykres rozrzutu ocena związku między zmiennymi X i Y. 2. Współczynnik korelacji Pearsona

Stanisław Cichocki. Natalia Nehrebecka. Wykład 13

1. Opis tabelaryczny. 2. Graficzna prezentacja wyników. Do technik statystyki opisowej można zaliczyć:

Transkrypt:

Analiza regresji część III Agnieszka Nowak - Brzezińska

Są trzy typy obserwacji, które mogą ale nie muszą wywierać nadmiernego nacisku na wyniki regresji: Obserwacje oddalone (outlier) Obserwacje wysokiej dźwigni (laverage) Obserwacje wpływowe (influential).

Identyfikacja obserwacji odstających i obserwacji wpływowych Wykrycie wśród danych obserwacji nietypowych jest niezwykle istotne, gdyż mogą one utrudniać właściwą ich analizę, np. mogą (choć nie muszą) wywierać nadmierny nacisk na wyniki regresji. Szczególnej uwagi wymagają przypadki w których nietypowość danych nie wynika z błędu pomiaru.

przykład Nietypową obserwacją może być chociażby zawodnik o wzroście 165 cm w grupie koszykarzy ze średnią wartością wzrostu powyżej 190 cm. Wtedy możemy wyróżnić przynajmniej dwa warte uwagi przypadki: gdy ów niski koszykarz ma wagę zgodną ze średnią wagą całej grupy, lub gdy jego waga jest odpowiednio niższa w stosunku do wyższych kolegów w grupie. Nietypowość pierwszego przypadku będzie polegała na tym, że przy typowej wadze, ów zawodnik ma nietypowy wzrost, i w tym sensie będzie to obserwacja potencjalnie odstająca (być może także wpływowa). Drugi przypadek natomiast będzie dotyczył sytuacji gdy jeden zawodnik w grupie jest po prostu lżejszy i niższy niż reszta grupy - i nie oznacza to, że obserwację należy uznać za odstającą.

Należy rozróżnić: (i) nietypową wartość tylko zmiennej objaśnianej y podczas gdy zmienna objaśniająca x ma wartość typową od (ii) nietypowej wartości obu zmiennych: objaśniającej i objaśnianej.

Obserwacje odstające W analizie regresji, za odstające (ang. outlier), uznamy obserwacje posiadające nietypowe wartości zmiennej objaśnianej y dla ich wartości zmiennej (bądź zmiennych) objaśniającej x i w konsekwencji dostarczające dużych wartości tzw. rezyduów e. Obserwacja, dla której wartość zmiennej objaśniającej x znacząco odbiega od typowych wartości tej zmiennej jest potencjalną obserwacją wpływową. Dołączenie takich obserwacji do zbioru danych ma w rezultacie duży wpływ na przebieg prostej regresji (zmiany współczynników regresji).

Obserwacje odstające Obserwacja odstająca (ang. outlier) jest obserwacją, która nie spełnia równania regresji czyli nie należy do modelu regresji. Obserwacje odstające mogą znacząco wpływać na postać prostej regresji: dla której wartość sumy: ma być możliwie najmniejsza zgodnie z założeniami metody MNK. W przypadku modelu regresji, w którym tylko jedna zmienna objaśniająca określać ma wartość zmiennej objaśnianej, obserwacje odstające można identyfikować sporządzając dla obserwacji wykres rozproszenia. Oko ludzkie zwykle potrafi na nich wykrywać obserwacje nietypowe.

Najlepiej jednak (zwłaszcza dla modeli o więcej niż jednej zmiennej objaśniającej) badać tzw. rezydua lub rezydua studentyzowane i wśród nich szukać wartości odstających. Zakładając, że rezyduum e i przyjmuje dla i-tej obserwacji wartość różnicy: między wartością zmiennej objaśnianej a wartością przewidywaną, błąd standardowy (ang. standard error) takiego rezyduum e i jest równy: gdzie S = to przeciętne odchylenie wartości rzeczywistych od wartości przewidywanych zaś h i to wartość wpływu i-tej obserwacji wyrażana jako: Dla małych prób, wartości zmiennej objaśniającej nie są w miarę równomiernie rozłożone i niektóre błędy Se ei mogą znacznie odbiegać od błędu S. Wówczas dobrze jest analizować rezydua przy użyciu tzw. rezyduów studentyzowanych.

Wówczas dobrze jest analizować rezydua przy użyciu tzw. rezyduów studentyzowanych r i definiowanych jako: To pozwoli wykrywać obserwacje faktycznie odstające, pomijając te, które przy analizie rezyduów e i sugerowały, że są odstające mimo, że takimi nie były. Dla rezyduów studentyzowanych zakłada się, że przy poziomie ufności równym 0.95 uznaje się je za normalne (zachowujące własność rozkładu normalnego) gdy należą do przedziału [ 2, +2]. Wykres studentyzowanych rezyduów względem ich indeksu identyfikuje duże wartości, które przypuszczalnie odpowiadają obserwacjom odstającym. Metoda ta nie sprawdzi się w sytuacji, gdy mamy w analizowanym zbiorze obserwację wpływową o małej wartości e i. Wówczas bowiem nie określimy jej jako odstającej mimo, że taka w istocie jest.

Tutaj z ratunkiem przychodzą tzw. Modyfikowane studentyzowane rezydua d i, badające różnicę między wartością rzeczywistą Y i a wartością przewidywaną dla tej obserwacji, gdy pominiemy ją w analizie. Wartość d i określona jako modyfikowane rezyduum wyznaczana jest następująco: Gdzie to wartość przewidywana zmiennej objaśnianej w modelu regresji dla zbioru wszystkich obserwacji z pominięciem obserwacji i-tej. Studentyzowane modyfikowane rezyduum przyjmuje wartość:

Obserwacje wpływowe Obserwacja jest wpływowa (ang. influential), jeśli jej obecność wpływa na prostą regresji, w taki sposób, że zmienia się współczynnik kierunkowy tej prostej. Innymi słowy, usunięcie tej obserwacji ze zbioru danych powoduje dużą zmianę wektora współczynników regresji. Obserwacje odstające mogą, ale nie muszą być obserwacjami wpływowymi.

Obserwacje wpływowe Wpływ i-tej obserwacji będziemy określać jako odstępstwo obserwacji x i od. Im większa jest różnica (podnoszona do kwadratu) tym większa wartość wpływu. Dla modelu z jedną zmienną objaśniającą wystarczyłoby w zasadzie sporządzić wykres typu histogram dla tej zmiennej objaśniającej i za jego pomocą wykrywać obserwacje odbiegające od wartości typowej tej zmiennej. Jednak gdy w modelu mamy więcej zmiennych objaśniających, wówczas odbieganie wektora x od wektora średnich gdzie wcale nie oznacza, że któraś ze współrzędnych wektora x będzie odstawać znacznie od odpowiadającej współrzędnej wektora średnich.

Z pomocą przychodzi tutaj założenie, że pewna globalna miara odstępstwa obserwacji x i od określona jest przez i-ty diagonalny element macierzy H: hi = hii zwany wpływem obserwacji. Dla modelu o p parametrach (gdzie p to łączna liczba zmiennych objaśniających i objaśnianych) powiemy, że oraz dla każdego To oznacza, że typowa wartość wpływu hi nie powinna przekraczać wartości p/n. Jeśli zaś wartość ta dla analizowanej i-tej obserwacji przekracza wartość 2p/n (a dla małych prób 3p/n) wówczas taką zmienną uznamy za potencjalnie wpływową.

Na uwagę zasługuje tu fakt, że dla obserwacji o dużych wartościach wpływu rezydua ei mogą być małe. Dlatego, by upewnić się, że poprawnie zidentyfikowaliśmy obserwacje wpływowe stosując próg 2p/n powinniśmy każdą taką obserwację usunąć ze zbioru i sprawdzić jak bardzo dzięki temu zmienił się wektor spółczynników regresji w stosunku do modelu w którym tę obserwację ujęto w analizie.

Równie popularnymi miarami wpływu poszczególnych obserwacji na równanie regresji są:. DFFITS (autorzy: Belsley, Kuh & Welsch, 1980);. Odległość Cooka (autorzy: Cook, 1977);. DFBETAS (autorzy: Belsley, Kuh & Welsch, 1980);

Zupełnie innym typem obserwacji, o których raczej nie powiemy, że są odstającymi, są obserwacje dla których wektor zmiennych objaśniających jest znacznie oddalony od typowego wektora wartości objaśniających. Nie zakładamy dla takich obserwacji, że mając nietypowe wartości zmiennych objaśniających nie spełnią równania regresji. Z omawianym zagadnieniem wiąże się jeszcze pojęcie tzw. dźwigni (ang. leverage) obserwacji.

Obserwacja cechuje się wysoką dźwignią gdy przy nietypowej wartości zmiennej objaśniającej cechuje się typową wartością zmiennej objaśnianej. Wówczas bowiem rezyduum ei będzie małe a o obserwacji powiemy, że przyciąga linię regresji ˆ Yi blisko Yi. Możemy także powiedzieć, że miarą dźwigni dla i-tej obserwacji jest wartość jej wpływu hi. W regresji prostej mierzy ona odległość danej obserwacji od średniej wartości tej zmiennej. W regresji wielokrotnej zaś mierzy ona po prostu odległość od punktu średnich wartości wszystkich zmiennych objaśniających. Im bardziej różni się wartość zmiennej (bądź zmiennych) objaśniającej dla i-tej obserwacji od wartości średniej, tym większa jest wartość tzw. dźwigni dla tej obserwacji. Zwykle wartości dźwigni mieszczą się w przedziale [0, 1] zatem wartość dźwigni większa od wartości 4/n świadczy o tym, że obserwacja będzie traktowana jako nietypowa (mając tzw. wysoką wartość dźwigni).

Masking i Swamping Masking (nazywany maskowaniem odchyleń) zachodzi wówczas, gdy spodziewamy się w zbiorze jednej obserwacji będącej odchyleniem a w rzeczywistości takich odchyleń jest więcej. Wówczas test może nie wykryć odchyleń w ogóle gdyż te - dodatkowe - odchylenia mogą wpływać na wielkości różnych statystyk i w efekcie nie znajdować żadnych odchyleń w danych. Z kolei swamping jest nieuprawnionym dołączaniem obserwacji do zbioru obserwacji wpływowych i/lub odstających.

Wykrywanie obserwacji odstających, wpływowych i obserwacji wysokiej dźwigni w praktyce Dla przykładowego zbioru danych zawierających 20 obserwacji opisanych dwoma wartościami (po jednej zmiennej objaśniającej x i objaśnianej y) ta część rozdziału będzie przedstawiała krok po kroku procedury wyznaczania obserwacji wpływowych, odstających oraz obserwacji wysokiej dźwigni. Rozważymy trzy przypadki dodając za każdym razem po jednej nietypowej obserwacji do tego zbioru.

Dla tego zbioru rozważymy trzy różne przypadki: dodamy do niego za każdym razem po jednej obserwacji nietypowej: obserwacji odstającej, o niewielkim wpływie na regresję, i nie będącej obserwacją tzw. wysokiej dźwigni (o współrzędnych (4, 40)), obserwacji jednocześnie odstającej, wpływowej i z wysoką dźwignią (o współrzędnych (13, 15)), obserwacji wysokiej dźwigni, nie będącej obserwacją odstającą ani też wpływową (o współrzędnych (14, 68)).

Łatwo zauważyć, że dodanie nowej obserwacji (wyraźnie odstającej, o czym świadczą wartości 4, 40) nie wpłynęło na równanie regresji, zatem możemy wnioskować, że nie jest ona wpływową mimo, że jest odstająca. Dla oryginalnego zbioru danych równanie regresji miało postać: dane$y = 5.1169 dane$x+1.7322 podczas gdy teraz dla zbioru zawierającego obserwację (4, 40) równanie będzie następujące: dane$y = 5.0373 dane$x + 2.9576 Dla takiego zbioru postaramy się sprawdzić wartości poszczególnych miar: rezyduów (lub rezyduów studentyzowanych), dźwigni, odległości Cooka czy DFFITS.

Szukamy obserwacji o dużej wartości rezyduów lub rezyduów studentyzowanych: Tylko nr 21 przekracza próg dopuszczalny równy 2. Obserwacjami wpływowymi są te, których wartość DFFITS przekracza wartość 1 (dla małych prób) bądź wartość odległości Cooka przekracza próg 0.1904: taką obserwacją jest również tylko obserwacja nr 21 (choć należy zaznaczyć, że wpływ tej obserwacji na zmiany współczynników regresji nie jest znaczący, a i wartość miary DFFITS nieznacznie przekracza wartość progową).

Będzie to obserwacja wpływowa ale nie będzie obserwacją wysokiej dźwigni

Drugi analizowany przypadek zbioru zawiera obserwację wpływową ale nie odstającą. Do oryginalnego zbioru 20 obserwacji dodajemy obserwację nr 21 o współrzędnych (13, 15).

możemy zauważyć, jak bardzo zmieniły się wszystkie parametry tego modelu. Widać różnice we współczynnikach równania regresji, które teraz wygląda następująco: dane$y = 3.3198 dane$x + 8.5045. Różnice widać także dla błędu standardowego rezyduów oraz chociażby wartości współczynnika determinacji R2.

Wniosek W tym zbiorze obserwacja nr 21 jest zarówno obserwacją o dużej wartości reszty i reszty studentyzowanej (jest więc obserwacją odstającą), obserwacją wpływową (wartość odległości Cooka jak i miary DFFITS przekraczają dopuszczalny próg) a także obserwacją wysokiej dźwigni.

ostatni analizowany przypadek danych nietypowych. Nietypowość jego polega na tym, że nowododana obserwacja nie jest ani odstająca, ani wyraźnie wpływowa, jest zaś obserwacją wysokiej dźwigni. Po dodaniu, do oryginalnego zbioru, obserwacji o współrzędnych (14, 68)

Równanie regresji dla tego zbioru jest następujące: dane$ y = 4.9272 dane$x + 2.4679. Równanie różni się nieznacznie od równania regresji dla oryginalnego zbioru 20 obserwacji: dane$y = 5.1169 dane$x + 1.7322 Zmiany są niewielkie także dla współczynnika determinacji, czy wartości rezyduów. To sugeruje, iż nowo dodana obserwacja nie jest obserwacją wpływową.

Ten zbiór jest o tyle interesujący, że obserwacja nr 21 nie jest obserwacją odstającą (umieszczona jest na linii regresji, wartość rezyduum studentyzowanego nie przekracza wartości ±2). Z pewnością obserwacja ta ma wysoką wartość dźwigni. W zbiorze tym zauważamy także inne obserwacje nietypowe. Obserwacje 4, 14, 18 cechują się dużą wartością rezyduów ale nie mają z kolei zbyt dużych wartości odległości Cooka czy miary DFFITS, które świadczyłyby o tym, że są to obserwacje zdecydowanie wpływowe. Owszem, przekraczają one progowe wartości tych miar, jednak odstępstwa nie są znaczące.

Obserwacje odstające w R Obserwacja jest odstająca (oddalona) czyli nietypowa gdy ma bardzo dużą bezwzględną wartość standaryzowanej reszty. Wartości resztowe mogą mieć różne wariancje, zatem preferuje się użycie standaryzowanych wartości resztowych w celu identyfikacji punktów oddalonych. Mówimy, że wartości resztowe są standaryzowane, jeśli są podzielone przez ich błąd standardowy, a więc mają wszystkie tę samą skalę.

Reszty

Wykres reszt Obserwujemy różnice między rzeczywistą wartością y a wartością oszacowaną ŷ.

Wykres standaryzowanych reszt

Wykres standaryzowanych reszt

Normalny wykres kwantylowy

W praktyce sporządzając wykres wartości studentyzowanych rezyduów r i względem ich indeksu będziemy potrafili rozpoznawać te duże wartości, które przypuszczalnie będą odstającymi. Podsumowując powiemy, że nowa obserwacja będzie punktem odstającym jeśli będzie się cechować dużą wartością studentyzowanej (standaryzowanej) reszty. W praktyce, obserwacje odstające to takie, których wartość bezwzględnych studentyzowanych reszt przekracza 2.

Studentyzowane reszty Studentyzowane reszty różnią się od standaryzowanych reszt tym, że standaryzując i-tą resztę, za ocenę wariancji wybiera się wariancję liczoną na próbie z pominięciem tej obserwacji (tzw. próbie One leave out) r stud i r i 2 ( i) (1 hi ) W środowisku R pomocna będzie funkcja rstudent z pakietu {stats} h i 1 n ( x n i 1 i ( x x) i 2 x) 2

reszty Zależności między oryginalnymi y i a ocenami mówią jak bardzo na ocenę y i wpływa wartość y i, a jak pozostałe wartości. Nazywamy je dźwigniami (ang. leverages). Wartości h i opisują wpływ obserwacji y i na Są bardzo użyteczne w diagnostyce modelu. y i h i 1 n ( x n i 1 i ( x x) i 2 x) 2

Standaryzowane reszty To reszty dzielone przez ocenę odchylenia standardowego reszt W środowisku R pomocna będzie funkcja rstandard z pakietu {stats} ) (1 2 i i std i h r r n i i i i x x x x n h 1 2 2 ) ( ) ( 1

Jeśli przez s i,resid oznaczymy błąd standardowy i-tej reszty to Gdzie h i jest dźwignią i-tej obserwacji, a wówczas standardowa wartość resztowa (reszta) jest równa: i resid i h s s 1, resid i i i darized s i s y y reszta, tan, n i i i i x x x x n h 1 2 2 ) ( ) ( 1

W praktyce oddalone obserwacje to te, których wartość bezwzględnych standaryzowanych reszt przekracza 2. si, resid s 1 hi Np. w naszym zbiorze obserwacje 1 i 4 są oddalone. Ogólnie, jeżeli reszta jest dodatnia, to mówimy że obserwowana wartość y jest większa od przewidywanej dla danej wartości x. Jeżeli reszta jest ujemna, mówimy, że obserwowana wartość y jest mniejsza od przewidywanej dla danej wartości x. reszta i, s tan darized yi s y i, resid i

R- wartości oddalone w zbiorze cereals Rozważmy wykres rozrzutu wartości odżywczej względem cukrów. Dwie obserwacje z największymi bezwzględnymi wartościami reszt to All-Bram Extra Fiber i 100% Bran. Zauważmy, że odległość od linii regresji jest większa dla tych dwóch obserwacji niż dla pozostałych rodzajów płatków śniadaniowych, co oznacza największe wartości resztowe.

Obserwacja wysokiej dźwigni Obserwacja wysokiej dźwigni (high leverage point) to obserwacja, która przyjmuje bardzo duże lub bardzo małe wartości w przestrzeni zmiennych objaśniających. Obserwacja wysokiej dźwigni przyjmuje wartości na skraju zakresu dla zmiennej (zmiennych) x, a wartość zmiennej y nie jest istotna. Więc dźwignia uwzględnia tylko wartości zmiennej x i ignoruje wartości zmiennej y. Pojęcie dźwigni wywodzi się od używanego w fizyce pojęcia dźwigni, za pomocą której można poruszyć Ziemię, gdyby tylko jej ramię było dostatecznie długie. Dźwignię hi dla i-tej obserwacji można obliczyć w następujący sposób: h i 1 n ( x n i 1 i ( x x) i 2 x) 2

h i 1 n ( x n i 1 i ( x x) i 2 x) 2 Dla danego zbioru danych wielkości: 1 n oraz ( x x) n i 1 i ( x x) i 2 2 można uważać za stałe. Zatem wartość dźwigni dla i-tej obserwacji zależy jedynie od kwadratu odległości między wartością zmiennej objaśniającej a średnią wartością zmiennych objaśniających. Im bardziej wartość obserwowana różni się od średniej wartości zmiennej x, tym większa jest wartość dźwigni. Kres dolny dla wartości dźwigni to 1/n, a kres górny to 1. Jeżeli wartość dźwigni jest większa od około 2(m+1)/n lub 3(m+1)/n, to uznaje się, że jest ona wysoka (m oznacza tu liczbę zmiennych objaśniających).

Obserwacja wpływowa Obserwacja jest wpływowa (ang. influential), jeśli jej obecność wpływa na prostą regresji, w taki sposób, że zmienia się współczynnik kierunkowy tej prostej. Inaczej powiemy, że jeśli obserwacja jest wpływowa to inaczej wygląda prosta regresji w zależności od tego czy ta obserwacja została ujęta w zbiorze, czy też nie (została usunięta). 1 n n ( x x) i 1 i ( x x) Obserwacja jest wpływowa (influential) jeżeli parametry regresji istotnie zmieniają się w zależności od obecności lub nieobecności tej obserwacji w zbiorze danych. i 2 2

Identyfikacja obserwacji wpływowych W praktyce, jeśli obserwowana wartość leży w Q1 to mówimy, że ma ona mały wpływ na regresję. Obserwacje leżące między Q1 a Q3 nazywamy wpływowymi. Mówimy także, że czynnik SEe i S 1 1 ( n ( x x) n i 1 i ( x x) i 2 2 we wzorze na SE ei to tzw. wpływ tej obserwacji (czasami nazywany w literaturze ''dźwignią''). Zwykle obserwacje cechujące się wysoką wartością dźwigni będą uznawane za wpływowe. Dodatkowo powiemy, że nawet jeśli obserwacja jest odstająca, ale ma małą wartość wpływu to uznamy, że nie jest ona wpływowa.

Wykrywanie odchyleń - metody 1. wysoka dźwignia (Leverages) 2. reszty (Jackknife residuals) 3. odległość Cook a (Cook s distance).

Jackknife residuals (Externally studentized residuals): is called a jackknife residual (or R-Student residual). MSE( i) is the residual variance computed with the ith observation deleted. Jackknife residuals have a mean near 0 and a variance that is slightly greater than 1. Jackknife residuals are usually the preferred residual for regression diagnostics.

Odległość Cook a Di: Odległość Cook a do pomiaru obs. wpływowych hi: dźwignia dla mierzenia nietypowości zmiennej (-ych) x ri: Studentyzowane reszty dla pomiaru odchylenia

Odległość Cook a ri = i-ta studentyzowana reszta; Wpływowość jest w relacji z dźwignią i tym, czy obserwacja jest odstająca: Odchylenia o wysokiej dźwigni są wpływowe Odchylenia o niskiej dźwigni są zdecydowanie mniej wpływowe Punkty wysokiej dźwigni które nie są odchyleniami są mniej wpływowe Wysoka wpływowość gdy Di > 1 w środowisku R: cooks.distance(y.lm) Lub plot(y.lm, which=4)

Metody: Szukając: 1. Odchyleń (na wykresie reszt) szukamy punktów które są wpływowe, czyli takie dla których model regresji nie jest adekwatny 2. Obserwacji wysokiej dźwigni (na wykresie hat diagonal) to punkty potencjalnie wpływowe 3. Obserwacji wpływowych (za pomocą odległości Cook a) szukamy punktów które mogą zaburzać model regresji Pamiętaj, że: 1. Odchylenia nie muszą być wpływowe. 2. Obserwacje wysokiej dźwigni też nie muszą być wpływowe. 3. Obserwacje wpływowe mogą nie być odchyleniami.

Odległość Cooka mierzy poziom wpływu obserwacji, uwzględniając zarówno wielkość reszty, jak i wysokość wpływu dla tej obserwacji. Dla i-tej obserwacji odległość Cooka jest obliczana jako: n 2 ( Yj Yj ) 2 Y j Gdzie (i) jest obserwacją przewidywaną dla j-tej obserwacji obliczoną na podstawie danych z usuniętą obserwacją i-tą, zaś będzie wartością przewidywaną dla j-tej obserwacji gdy i-tej obserwacji Y j nie usunięto. Duża wartość D i mówi o dużym wpływie usunięcia i-tej obserwacji, a tym samym obserwację i-tą uznajemy za wpływową. D i j 1 ps 2 ( i) ei ps 2 hi (1 h ) i 2

W praktyce obserwacja jest wpływowa jeżeli jej odległość Cooka przekracza wartość 1.

Najpierw należy załadować pakiet {car} I następnie wywołać komendę: Wykres obserwacji wpływowych z zaznaczeniem odległości Cooka

Wykres obserwacji wpływowych z zaznaczeniem odległości Cooka Teraz jeśli chcemy poznać obserwacje wpływowe możemy użyć komendy: > influenceplot(lm(b~a), main="influence Plot",sub="Rozmiar kółka jest proporcjonalny do odległości Cooka)

Wykres QQ powinien w przybliżeniu pokrywać się z linią prostą Na wykresie Cooka pokazany jest wpływ poszczególnych punktów na regresję wielokrotną interesują nas punkty (a) o wartościach w pobliżu 1, (b) odbiegające znacząco od innych

Do wykrycia obserwacji wpływowych możemy także użyć funkcji. > influence.measures(model.regresji) której efekty będzie następujący Jak widać, ostatnia kolumna wskazuje na obserwacje wpływowe zaznaczając przy nich symbol *. Z naszych danych wynika, że w zbiorze cereals mamy 2 wpływowe. Są to obserwacje 1 i 4.

Wyznaczenie obserwacji odstających w modelu z wieloma zmiennymi objaśniającymi Obserwacje odstające będziemy wykrywać przy użyciu znanego już pakietu car i funkcji outlier.test w ramach tego pakietu. library(car) > outlier.test(model) max rstudent = 2.850639, degrees of freedom = 73, unadjusted p = 0.005668692, Bonferroni p = 0.4364893 Observation: Golden_Crisp Wykryliśmy jedną obserwację odstającą (płatki o nazwie Golden_Crisp).

Wyznaczenie obserwacji wpływowych w modelu z wieloma zmiennymi objaśniającymi Wartości wpływowe będziemy wykrywać za pomocą fukcji influence.measures. Wyniki takiej analizy widzimy poniżej. influence.measures(model) Influence measures of lm(formula = rating ~ sugars + fiber, data = dane) : dfb.1_ dfb.sgrs dfb.fibr dffit 100\%_Bran -0.029606 0.006873 8.71e-02 0.09114 100\%_Natural_Bran -0.032678-0.025977 3.28e-03-0.11268 All-Bran 0.107395 0.004022-4.24e-01-0.45329 All-Bran_with_Extra_Fiber -0.051238-0.047248 2.62e-01 0.28122... Frosted_Flakes -0.000309 0.015791-6.58e-03 0.02575 Frosted_Mini-Wheats 0.065331 0.017652 9.33e-02 0.27267... Golden_Crisp -0.171769 0.576328-2.20e-01 0.73321 Golden_Grahams -0.087125-0.053260 1.31e-01-0.21490 Grape_Nuts_Flakes 0.031668-0.020034 1.55e-02 0.05831 Grape-Nuts -0.005289 0.004597-1.28e-03-0.00738 Shredded_Wheat_'n'Bran 0.287978-0.328880 1.26e-01 0.43414 Shredded_Wheat_spoon_size 0.373845-0.378815 3.42e-02 0.46093 Wheaties_Honey_Gold -0.007926-0.002691 6.93e-03-0.01710 cov.r cook.d hat inf 100\%_Bran 1.233 2.80e-03 0.1565 * 100\%_Natural_Bran 1.018 4.24e-03 0.0138 All-Bran 1.116 6.80e-02 0.1216 * All-Bran_with_Extra_Fiber 1.588 2.67e-02 0.3480 *... Frosted_Flakes 1.068 2.24e-04 0.0257 Frosted_Mini-Wheats 0.867 2.35e-02 0.0147 *... Golden_Crisp 0.809 1.63e-01 0.0621 *... Post_Nat._Raisin_Bran 1.147 1.57e-04 0.0918 *

influence.measures(model) Influence measures of lm(formula = rating ~ sugars + fiber, data = dane) : dfb.1_ dfb.sgrs dfb.fibr dffit 100\%_Bran -0.029606 0.006873 8.71e-02 0.09114 100\%_Natural_Bran -0.032678-0.025977 3.28e-03-0.11268 All-Bran 0.107395 0.004022-4.24e-01-0.45329 All-Bran_with_Extra_Fiber -0.051238-0.047248 2.62e-01 0.28122... Frosted_Flakes -0.000309 0.015791-6.58e-03 0.02575 Frosted_Mini-Wheats 0.065331 0.017652 9.33e-02 0.27267... Golden_Crisp -0.171769 0.576328-2.20e-01 0.73321 Golden_Grahams -0.087125-0.053260 1.31e-01-0.21490 Grape_Nuts_Flakes 0.031668-0.020034 1.55e-02 0.05831 Grape-Nuts -0.005289 0.004597-1.28e-03-0.00738 Shredded_Wheat_'n'Bran 0.287978-0.328880 1.26e-01 0.43414 Shredded_Wheat_spoon_size 0.373845-0.378815 3.42e-02 0.46093 Wheaties_Honey_Gold -0.007926-0.002691 6.93e-03-0.01710 cov.r cook.d hat inf 100\%_Bran 1.233 2.80e-03 0.1565 * 100\%_Natural_Bran 1.018 4.24e-03 0.0138 All-Bran 1.116 6.80e-02 0.1216 * All-Bran_with_Extra_Fiber 1.588 2.67e-02 0.3480 *... Frosted_Flakes 1.068 2.24e-04 0.0257 Frosted_Mini-Wheats 0.867 2.35e-02 0.0147 *... Golden_Crisp 0.809 1.63e-01 0.0621 *... Post_Nat._Raisin_Bran 1.147 1.57e-04 0.0918 *

Za wpływowe uznamy 6 obserwacji: 100%_Bran All-Bran All-Bran_with_Extra_Fiber Frosted_Mini-Wheats Golden_Crisp (które zresztą uznaliśmy za obserwację odstającą, outlier) oraz Post_Nat._Raisin_Bran.

Wyznaczenie obserwacji wpływowych w modelu z wieloma zmiennymi objaśniającymi Wartości wpływowe będziemy wykrywać za pomocą funkcji influence.measures. Wyniki takiej analizy widzimy poniżej. influence.measures(model) Influence measures of lm(formula = rating ~ sugars + fiber, data = dane) : dfb.1_ dfb.sgrs dfb.fibr dffit 100\%_Bran -0.029606 0.006873 8.71e-02 0.09114 100\%_Natural_Bran -0.032678-0.025977 3.28e-03-0.11268 All-Bran 0.107395 0.004022-4.24e-01-0.45329 All-Bran_with_Extra_Fiber -0.051238-0.047248 2.62e-01 0.28122 Frosted_Flakes -0.000309 0.015791-6.58e-03 0.02575 Frosted_Mini-Wheats 0.065331 0.017652 9.33e-02 0.27267 Fruit_&_Fibre_Dates,_Walnuts,_and_Oats 0.044397-0.053242-7.99e-02-0.10900 Fruitful_Bran -0.026656 0.032621 3.37e-02 0.05029 Fruity_Pebbles 0.001325 0.051194-3.74e-02 0.08435 Golden_Crisp -0.171769 0.576328-2.20e-01 0.73321 Golden_Grahams -0.087125-0.053260 1.31e-01-0.21490 Post_Nat._Raisin_Bran 0.013573-0.015027-1.52e-02-0.02158 Product_19-0.172077 0.117140 7.49e-02-0.17857 Puffed_Rice 0.393316-0.308803-2.06e-01 0.39332 Wheaties -0.037606 0.032686-9.08e-03-0.05246 Wheaties_Honey_Gold -0.007926-0.002691 6.93e-03-0.01710

Wyznaczenie obserwacji wpływowych w modelu z wieloma zmiennymi objaśniającymi cov.r cook.d hat inf 100\%_Bran 1.233 2.80e-03 0.1565 * 100\%_Natural_Bran 1.018 4.24e-03 0.0138 All-Bran 1.116 6.80e-02 0.1216 * All-Bran_with_Extra_Fiber 1.588 2.67e-02 0.3480 * Frosted_Mini-Wheats 0.867 2.35e-02 0.0147 * Fruit_&_Fibre_Dates,_Walnuts,_and_Oats 1.075 4.00e-03 0.0417 Fruitful_Bran 1.100 8.54e-04 0.0549 Fruity_Pebbles 1.074 2.40e-03 0.0375 Golden_Crisp 0.809 1.63e-01 0.0621 * Golden_Grahams 0.994 1.52e-02 0.0253. Post_Nat._Raisin_Bran 1.147 1.57e-04 0.0918 * Product_19 1.025 1.06e-02 0.0282 Puffed_Rice 1.010 5.06e-02 0.0618 Wheaties 1.062 9.29e-04 0.0239 Wheaties_Honey_Gold 1.058 9.88e-05 0.0165 >

A więc mamy zapewne 6 obserwacji wpływowych. Są to kolejno płatki: 100%_Bran All-Bran, All-Bran_with_Extra_Fiber Frosted_Mini-Wheats, Golden_Crisp (które zresztą uznaliśmy za obserwację odstającą, outlier) oraz Post_Nat._Raisin_Bran.

Wyznaczenie obserwacji odstających w modelu z wieloma zmiennymi objaśniającymi Chcąc przeprowadzić test na obserwacje odstające użyjemy znanego już pakietu car i funkcji outlier.test w ramach tego pakietu. library(car) > outlier.test(model) max rstudent = 2.850639, degrees of freedom = 73, unadjusted p = 0.005668692, Bonferroni p = 0.4364893 Observation: Golden_Crisp Wykryto więc jedną obserwację odstającą (płatki o nazwie Golden_Crisp).

obserwacje odstające Wysokiej dźwigni wpływowe definicja Mają dużą bezwzględną wartość standaryzowanej reszty (czyli reszty podzielonej przez błąd standardowy) Przyjmują wartości na skraju zakresu zmiennej (-ych) z a wartość y nie jest istotna. Im bardziej wartość obserwowana różni się od średniej wartości zmiennej x tym większa jest wartość dźwigni. Wpływają na prostą regresji, tak, że zmienia się współczynnik kierunkowy. Jak je wykrywamy? Gdy wartość > 2 Hi 2(m+1)/n Jeśli obserwacja leży między Q1 a Q3, lub jeśli si, resid s 1 hi odległość Cooka przekracza wartość 1

Wnioski!!! Punkt oddalony (odstający) może, ale nie musi być wpływowy. Podobnie punkt wysokiej dźwigni, może, ale nie musi być wpływowy. Zwykle wpływowe obserwacje łączą cechy dużej wartości reszty i dużej wartości dźwigni. Istnieje możliwość, że obserwacja nie będzie w pełni rozpoznana jako punkt oddalony ani jako punkt wysokiej dźwigni, ale nadal będzie wpływowa, ponieważ będzie łączyć w sobie obie te cechy.