Ścieżki dostępu do STATISTICA



Podobne dokumenty
Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;

Analizy wariancji ANOVA (analysis of variance)

Testy nieparametryczne

Badanie zależności skala nominalna

Przedmowa Wykaz symboli Litery alfabetu greckiego wykorzystywane w podręczniku Symbole wykorzystywane w zagadnieniach teorii

Zaawansowana eksploracja danych - sprawozdanie nr 1 Rafał Kwiatkowski 89777, Poznań

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6

Podstawy statystyki dla psychologów. Podręcznik akademicki. Wydanie drugie poprawione. Wiesław Szymczak

Importowanie danych do SPSS Eksportowanie rezultatów do formatu MS Word... 22

REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji

Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X1, X2, X3,...) na zmienną zależną (Y).

Jak sprawdzić normalność rozkładu w teście dla prób zależnych?

ANALIZY WIELOZMIENNOWE

Księgarnia PWN: George A. Ferguson, Yoshio Takane - Analiza statystyczna w psychologii i pedagogice

Przykład 1. (A. Łomnicki)

STATYSTYKA MATEMATYCZNA

Statystyka w zarzadzaniu / Amir D. Aczel, Jayavel Sounderpandian. Wydanie 2. Warszawa, Spis treści

Wielowymiarowa analiza regresji. Regresja wieloraka, wielokrotna

Spis treści. Księgarnia PWN: Bruce M. King, Edward W. Minium - Statystyka dla psychologów i pedagogów. Wstęp Wprowadzenie...

Przykład 2. Na podstawie książki J. Kowal: Metody statystyczne w badaniach sondażowych rynku

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

KORELACJE I REGRESJA LINIOWA

STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE

Rozdział 8. Regresja. Definiowanie modelu

Inżynieria biomedyczna, I rok, semestr letni 2013/2014 Analiza danych pomiarowych. Laboratorium VI: Testy nieparametryczne

Korelacja oznacza współwystępowanie, nie oznacza związku przyczynowo-skutkowego

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4

Badanie zależności pomiędzy zmiennymi

Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Ćwiczenie: Wybrane zagadnienia z korelacji i regresji.

MODELE LINIOWE. Dr Wioleta Drobik

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

Założenia do analizy wariancji. dr Anna Rajfura Kat. Doświadczalnictwa i Bioinformatyki SGGW

P: Czy studiujący i niestudiujący preferują inne sklepy internetowe?

Wprowadzenie do analizy dyskryminacyjnej

(x j x)(y j ȳ) r xy =

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

STATYSTYKA I DOŚWIADCZALNICTWO. Wykład 2

Statystyka w zarządzaniu : pełny wykład / Amir D. Aczel. wyd. 1, dodr. 5. Warszawa; Spis treści

ANALIZA WARIANCJI - KLASYFIKACJA WIELOCZYNNIKOWA

TABELE WIELODZIELCZE

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

dr Dominik M. Marciniak Analizy statystyczne w pracach naukowych czego unikać, na co zwracać uwagę.

Projekt zaliczeniowy z przedmiotu Statystyka i eksploracja danych (nr 3) Kamil Krzysztof Derkowski

Podstawy statystyki matematycznej w programie R

Test niezależności chi-kwadrat stosuje się (między innymi) w celu sprawdzenia związku pomiędzy dwiema zmiennymi nominalnymi (lub porządkowymi)

ANALIZA WARIANCJI - KLASYFIKACJA JEDNOCZYNNIKOWA

STATYSTYKA OPISOWA. Dr Alina Gleska. 12 listopada Instytut Matematyki WE PP

Ćwiczenie komputerowe 2 testy t-studenta. Program Statistica

METODOLOGIA BADAŃ PSYCHOLOGICZNYCH I STATYSTYKA. opracowała dr Anna Szałańska

( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:

Model 1: Estymacja KMNK z wykorzystaniem 32 obserwacji Zmienna zależna: st_g

GRUPY NIEZALEŻNE Chi kwadrat Pearsona GRUPY ZALEŻNE (zmienne dwuwartościowe) McNemara Q Cochrana

Przykład 1 ceny mieszkań

Liczba godzin Punkty ECTS Sposób zaliczenia. ćwiczenia 30 zaliczenie z oceną. laboratoria 30 zaliczenie z oceną

Analiza współzależności zjawisk

WNIOSKOWANIE STATYSTYCZNE

Temat: BADANIE ZGODNOŚCI ROZKŁADU CECHY (EMPIRYCZNEGO) Z ROZKŁADEM TEORETYCZNYM TEST CHI-KWADRAT. Anna Rajfura 1

S t a t y s t y k a, część 3. Michał Żmihorski

ANALIZA KORELACJI Korelacja między zmiennymi X i Y jest miarą siły liniowego związku między tymi zmiennymi.

Statystyczna analiza danych w programie STATISTICA 7.1 PL (wykład 3) Dariusz Gozdowski

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

Testowanie hipotez statystycznych

Analiza wariancji jednej zmiennej (UNIANOVA)

WERYFIKACJA MODELI MODELE LINIOWE. Biomatematyka wykład 8 Dr Wioleta Drobik-Czwarno

Jednoczynnikowa analiza wariancji

Wprowadzenie do analizy korelacji i regresji

1 Estymacja przedziałowa

Ekonometria Ćwiczenia 19/01/05

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja) założenie: znany rozkład populacji (wykorzystuje się dystrybuantę)

Test t-studenta dla jednej średniej

Kolejna z analiz wielozmiennowych Jej celem jest eksploracja danych, poszukiwanie pewnych struktur, które mogą utworzyć wskaźniki

Badania eksperymentalne

weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)

Spis treści. Laboratorium III: Testy statystyczne. Inżynieria biomedyczna, I rok, semestr letni 2013/2014 Analiza danych pomiarowych

Analiza Współzależności

ĆWICZENIE 11 NIEPARAMETRYCZNE TESTY ISTOTNOŚCI

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

STATYSTYKA MATEMATYCZNA

Egzamin ze statystyki, Studia Licencjackie Stacjonarne. TEMAT C grupa 1 Czerwiec 2007

Zadanie 1. a) Przeprowadzono test RESET. Czy model ma poprawną formę funkcyjną? 1

Korelacja krzywoliniowa i współzależność cech niemierzalnych

dr hab. Dariusz Piwczyński, prof. nadzw. UTP

JEDNOCZYNNIKOWA ANOVA

1 Analiza wariancji H 1 : 1 6= 2 _ 1 6= 3 _ 1 6= 4 _ 2 6= 3 _ 2 6= 4 _ 3 6= 4

Analiza współzależności zjawisk. dr Marta Kuc-Czarnecka

ANALIZA STATYSTYCZNA WYNIKÓW BADAŃ

Metodologia badań psychologicznych. Wykład 12. Korelacje

Statystyka i Analiza Danych

STATYSTYKA MATEMATYCZNA

Analiza regresji - weryfikacja założeń

R-PEARSONA Zależność liniowa

Statystyka. Wykład 7. Magdalena Alama-Bućko. 3 kwietnia Magdalena Alama-Bućko Statystyka 3 kwietnia / 36

Statystyka. Wykład 8. Magdalena Alama-Bućko. 23 kwietnia Magdalena Alama-Bućko Statystyka 23 kwietnia / 38

Podstawowe pojęcia i testy statystyczne

Transkrypt:

Ścieżki dostępu do STATISTICA Spis treści Sprawdzanie zgodności z rozkładem normalnym test Shapiro-Wilka:... 2 Test t-studenta w modelu zmiennych niezależnych:... 3 Test t-studenta w modelu zmiennych powiązanych... 4 Test Manna-Whitneya :... 5 Test Wilcoxona... 5 Tabele kontyngencji skala nominalna... 6 Badanie zależności... 8 ANOVA w modelu zmiennych niezależnych... 10 ANOVA w modelu zmiennych zależnych... 11 Test Kruskala-Wallisa test nieparametryczny (ANOVA rang Kruskala-Wallisa)... 12 Test Friedmana test nieparametryczny (ANOVA rang Friedmana)... 12 Regresja Wielokrotna... 13

Sprawdzanie zgodności z rozkładem normalnym test Shapiro-Wilka: H 0 : R Dane = R Nor H 1 : R Dane R Nor Grupa płeć =k p=0,8206 H 0 Grupa płeć =m p=0,8077 H 0

Test t-studenta w modelu zmiennych niezależnych: Skala interwałowa, model zmiennych niepowiązanych, zgodność z rozkładem normalnym w każdej z grup, liczba grup k=2 H 0 : 1 = 2 H 1 : 1 2 Jednorodność wariancji test Levena H 0 : SD 2 1 = SD 2 2 H 1 : SD 2 1 SD 2 2 p testu Levena p=0,4991 H 0 patrzymy na wartość p testu t-studenta p=0,3353 p testu Levena p=0,0235 H 1 patrzymy na wartość p testu t z oddz. est. war. p=0,0042 H 1 (test Welcha)

Test t-studenta w modelu zmiennych powiązanych Skala interwałowa, model zmiennych powiązanych, zgodność z rozkładem normalnym, liczba grup k=2 H 0 : przed = po H 1 : przed po Wartość p testu p=0,0195 H 1

Test Manna-Whitneya : Gdy brak zgodności z rozkładem normalnym skala interwałowa, lub skala porządkowa w modelu zmiennych niepowiązanych, liczba grup k=2 H 0 : φ 1 = φ 2 H 1 : φ 1 φ 2 Patrzymy na drugie p za Z popraw. (poprawka na rangi wiązane) p=0,5312 H 0 Test Wilcoxona Gdy brak zgodności z rozkładem normalnym skala interwałowa, lub skala porządkowa w modelu zmiennych powiązanych, liczba grup k=2 H 0 : φ przed = φ po H 1 : φ przed φ po Wartość p testu p=0,0005 H 1

Tabele kontyngencji skala nominalna Test Chi 2, Test Chi 2 z poprawką Yates a, test dokładny Fishera H 0 : φ 1 = φ 2 H 1 : φ 1 φ 2 H 0 : brak zależności między badanymi parametrami H 1 : jest zależność między badanymi parametrami 1. Sposób menopauza Podsumowująca tabela dwudzielcza: częstości obserwowane (Rak piersi- 2 grupy) Typ hist. 1 Typ hist. 2 Wiersz Razem POST 24 10 34 MEN 6 4 10 Ogół 30 14 44

Podsumowująca tabela Wyliczanie menopauza liczności (Rak piersi- 2 grupy) Typ hist. 1 Typ hist. 2 Wiersz Razem POST 23,18182 10,81818 34,00000 MEN 6,81818 3,18182 10,00000 Ogół 30,00000 14,00000 44,00000 Liczebność oczekiwana <5 test dokładny Fishera dwustronny Statystyka: menopauza(2) x Typ statystyka hist.(2) (Rak piersi- 2 grupy) Chi-kwadr. df p Chi^2 Pearsona,3993277 df=1 p=,52744 Chi^2 NW,3887764 df=1 p=,53294 Chi^2 Yatesa,0603922 df=1 p=,80588 dokł. Fishera, 1-stronny p=,39386 2-stronny p=,70135 Chi^2 McNemara (A/D) 12,89286 df=1 p=,00033 (B/C),5625000 df=1 p=,45325 p=0,7014 H 0 2 Sposób - tylko dla tabel 2x2 Tabela 2x2 (Rak piersi- 2 grupy) Kolumna1 Kolumna2 Wiersz Razem Liczności, wiersz 78 29 107 Procent całości 34,667% 12,889% 47,556% Liczności, wiersz 19 99 118 Procent całości 8,444% 44,000% 52,444% Razem w kol. 97 128 225 Procent całości 43,111% 56,889% Chi-kwadrat (df=1) 73,81 p=,0000 V-kwadrat (df=1) 73,48 p=,0000 Chi-kwadrat skoryg. Yatesa 71,51 p=,0000 Fi-kwadrat,32803 dokł. p Fishera, jednostr. p=,0000 dwustr. p=,0000 Chi-kwadrat McNemary A/D 2,26 p=,1328 Chi-kwadrat McNemary B/C 1,69 p=,1939 p< 0,0001 H 1

Badanie zależności Współczynnik korelacji Pearsona oba parametry na skali interwałowej i oba zgodne z rozkładem normalnym, bada zależność liniową H 0 : R P = 0 H 1 : R P 0 brak zależności linowej między badanymi parametrami jest zależność linowa między badanymi parametrami Gdy potwierdzona zgodność z rozkładem normalnym Zmn. X & Zmn. Y Poziom estriolu [mg/24h] Masa urodzeniowa [g/100] Korelacje (Zadania_3) Oznaczone wsp. korelacji są istotne z p <,05000 (Braki danych usuwano przypadkami) Średnia Odch.st. r(x,y) r2 t p Ważnych Stała zal: Y 16,20000 4,645787 Nachyle zal: Y Stała zal: X 30,36000 3,510461 0,455274 0,207275 2,452312 0,022203 25 24,78695 0,344015-2,09237 Wsp. korelacji Pearsona; wsp. determinacji y = a + b x Nachyle zal: X 0,602516 p=0,0222 H 1 Wykr. rozrzutu: Masa urodzeniowa [g/100] vs. Poziom estriolu [mg/24h] (BD usuwano przypadk.) Poziom estriolu [mg/24h] = -2,092 +,60252 * Masa urodzeniowa [g/100] Korelacja: r =,45527 28 26 24 Poziom estriolu [mg/24h] 22 20 18 16 14 12 10 8 6 22 24 26 28 30 32 34 36 Masa urodzeniowa [g/100] 0,95 Prz.Ufn.

Współczynnik korelacji nieparametrycznej Spearmana oba parametry na skali interwałowej ale brak zgodności z rozkładem normalnym, jeden lub oba parametry na skali porządkowej H 0 : R S = 0 H 1 : R S 0 brak zależności monotonicznej między badanymi parametrami jest zależność monotoniczna między badanymi parametrami Para zmiennych Korelacja porządku rang Spearmana (Zad1) BD usuwane parami Oznaczone wsp. korelacji są istotne z p <,05000 N Ważnych R Spearman t(n-2) Apgar - 5 & ph pęp. 105 0,623545 8,094646 0,000000 Wsp. korelacji Spearmana p p< 0,0001 H 1 Korelacje (Zad1 10v*105c) ph pęp. Apgar - 5

ANOVA w modelu zmiennych niezależnych Skala interwałowa, liczba grup >2, zgodność z rozkładem normalnym w każdej z grup, jednorodność wariancji H 0 : 1 = 2 =.= k H 1 : i j i=1 k; j=1.k; i j Można wyznaczyć statystyki opisowe w każdej z grup, następnie zakładka Testy ANOVA Sprawdzamy na wykresie czy średnie i odchylenia standardowe są skorelowane Test Levene'a jednorodności wariancji (ANOVA1)Zaznaczone efekty są istotne z p <,05000 Zmienna SS df MS SS df MS F p Efekt Efekt Efekt Błąd Błąd Błąd zmiana ciśnienia 1,315070 3 0,438357 14,16468 36 0,393463 1,114098 0,356127 Jednorodność wariancji potwierdzona Zmienna Analiza wariancji (ANOVA1) Zaznaczone efekty są istotne z p <,05000 SS Efekt df Efekt MS Efekt SS Błąd df Błąd MS Błąd zmiana ciśnienia 58,39500 3 19,46500 50,63600 36 1,406556 13,83877 0,000004 p< 0,0001 H 1 testujemy które pary średnich się różnią testami post-hoc F Test Scheffe; Zmienna: (ANOVA1) Metoda Zaznaczone różnice są istotne z p <,05000 1 M=,37000 2 M=1,7300 3 M=2,4500 4 M=3,7100 m1 1 0,105887 0,004688 0,000006 m2 2 0,105887 0,610212 0,007601 m3 3 0,004688 0,610212 0,150215 m4 4 0,000006 0,007601 0,150215 5 Wykres średnich i przedz. ufności (95,00%) zmiana ciśnienia p 4 3 Wartości 2 1 0 Test Scheffe najbardziej konserwatywny, test NIR najmniej konserwatywny -1 m1 m2 m3 m4 Metoda zmiana ciśnienia

ANOVA w modelu zmiennych zależnych Skala interwałowa, liczba grup >2, zgodność z rozkładem normalnym w każdej z grup, założenie sferyczności (test Mauchleya) i symetrii połączonej H 0 : 1 = 2 =.= k H 1 : i j i=1 k; j=1.k; i j Test sferyczności Mauchleya (ANOVA) Efekt Parametryzacja z sigma-ograniczeniami Dekompozycja efektywnych hipotez W Chi-kw. df p R1 0,943258 1,635645 2 0,441392 Efekt Analiza wariancji dla powtarzanych pomiarów (ANOVA) Parametryzacja z sigma-ograniczeniami Dekompozycja efektywnych hipotez SS Stopnie swobody MS F p Wyraz wolny 725224,9 1 725224,9 1799,191 0,000000 Błąd 11689,4 29 403,1 R1 447,8 2 223,9 2,079 0,134213 Błąd 6244,9 58 107,7 p= 0,1342 H 0 brak statystycznie istotnych różnic (średnie w trzech czasach nie różnią się) 100 R1; Oczekiwane średnie brzegowe Bieżący efekt: F(2, 58)=2,0795, p=,13421 Dekompozycja efektywnych hipotez Pionowe słupki oznaczają 0,95 przedziały ufności DV_1 98 96 94 92 90 88 86 84 82 80 78 MAP 36g MAP 48g MAP 60g R1

Test Kruskala-Wallisa test nieparametryczny (ANOVA rang Kruskala-Wallisa) Model niezależny, liczba grup >2, skala interwałowa ale nie spełnione założenia ANOVA (brak normalności w jakiejś z grup lub wariancje niejednorodne lub skorelowanie średnich z odchyleniami standardowymi), skala porządkowa H 0 : φ 1 = φ 2 =.=φ k H 1 : φ i φ j i=1 k; j=1.k; i j Zależna: SCORAD Wartość p dla porównań wielokrotnych (dwustronych); SCORAD (Rosińska 02062011) Zmienna niezależna (grupująca): Group Test Kruskala-Wallisa: H ( 2, N= 154) =21,14553 p =,0000 CH-AD R:77,500 CH-ADe R:94,186 CH-ADi R:44,769 CH-AD 0,114717 0,003644 CH-ADe 0,114717 0,000013 CH-ADi 0,003644 0,000013 p testu Kruskala-wallisa p< 0,0001 H 1 testujemy które rozkłady się różnią testem Dunna Test Friedmana test nieparametryczny (ANOVA rang Friedmana) Model zależny, liczba grup >2, skala interwałowa ale nie spełnione założenia ANOVA, skala porządkowa H 0 : φ 1 = φ 2 =.=φ k H 1 : φ i φ j i=1 k; j=1.k; i j Zmienna ANOVA Friedmana i współczynnik zgodności Kendalla (ANOVA) Chi kwad. ANOVA (N = 30, df 6 ) =17,00240 p,00928 Współczynnik zgodności=,09446 r śred. rang =,06323 Średnia Ranga Suma Rang Średnia Odch.std TNF 0g 5,066667 152,0000 23,26800 17,46910 TNF 12g 3,900000 117,0000 16,57667 7,54539 TNF 24g 4,533333 136,0000 16,36600 7,21716 TNF 36g 4,266667 128,0000 15,54200 5,84767 TNF 48g 3,350000 100,5000 14,32033 5,03198 TNF 60g 3,250000 97,5000 14,03867 4,26091 TNF 5d 3,633333 109,0000 14,39967 4,46019 p testu Friedmana p< 0,0001 H 1 testujemy które rozkłady się różnią testem Dunna (Zestaw medyczny lub makro Post Hoc for Friedman)

Regresja Wielokrotna 1. Regresja z jednym predykatorem y= b 0 (wyraz wolny) + b 1 *x + e (błąd estymacji) Stat.podsum.; Zmn. statystyka zal.:wzrost (Korelacje) Wartość R wielorakie 0,786658889 Wielorakie R2 0,618832207 Skorygowane R2 0,591605936 F(1,14) 22,7292312 p 0,000300369924 Błąd std. estymacji 12,7245012 Podsumowanie regresji zmiennej zależnej: WZROST (Korelacje) N=16 R=,78665889 R^2=,61883221 Skoryg. R2=,59160594 F(1,14)=22,729 p<,00030 Błąd std. estymacji: 12,725 b* Bł. std. b Bł. std. t(14) p z b* z b W. wolny 87,72349 12,01024 7,304059 0,000004 WIEK 0,786659 0,165004 4,14753 0,86996 4,767518 0,000300 WZROST = 4.15*WIEK + 87.72 ± 12.725 (0,87) (12,01)

2. Regresja z wieloma predykatorami y= b 0 + b 1 *x 1 + b2 *x 2 + + b k *x k + e Wykresy ramkowe dla zmiennych ciągłych Brak zgodności z rozkładem normalnym reszt należy sprawdzić dlaczego 1. Badanie założenia liniowości związku seria wykresów rozrzutu między zmienną zależną a poszczególnymi zmiennymi niezależnymi 2. Badanie warunku wystarczającej liczebności (n>>k+1 k- liczba predyktorów) 3. Tablice korelacji liniowych wybieramy takie predykatory, które są silnie skorelowane ze zmienną zależną ale słabo między sobą 4. Współczynnik korelacji cząstkowej miara korelacji ze zmienną zależną z wyłączeniem oddziaływania na ten związek innych predyktorów( czysty wkład predykatora do wyjaśnienia zmienności zmiennej opisywanej)( 1/(1+4)) 5. Współczynnik korelacji semicząstkowej korelacja predyktora (uwzględniająca jego powiązania ze wszystkimi pozostałymi predyktorami ) a zmienną zależną (bez uwzględnienia jej korelacji z innymi predyktorami ( 1/(1+2+3+4)) Predyktor 1 Predyktor 2 [1] [3] [2] [4] Zm.zależna 6. Tolerancja (obliczana jako 1 R-kwadrat korelacji wielorakiej) miara określająca ile procent wariancji predyktora nie jest wyjaśniony przez pozostałe zmienne niezależne (predyktory) im wartość niższa (bliższa zero) tym bardziej jest w modelu zbędna 7. Czynnik inflacji wariancji CIW = 1/Tolerancja (jeśli brak współliniowości CIW=1. Im CIW większe jeden, tym zmienna jest bardziej nadmiarowa). Zakłócająca model współliniowość, gdy CIW>10 (R 2 > 0.9) 8. Analiza reszt 1. - ocena normalności histogramu rozkładu reszt ( można użyć w razie wątpliwości testu Shapiro- Wilksa) 9. Analiza reszt 2 - badanie autokorelacji reszt _ test Durbina Watsona ( powinien być koło wartości 2, wartość 0 silne skorelowanie dodatnie, wartość 4 silne skorelowanie ujemne) 10. Analiza reszt 3 ocena homoscedastyczności ( wykres rozrzutu reszt i kwadratów reszt względem wartości przewidywanych) 11. Analiza reszt 4 ocena rozrzutu reszt względem poszczególnych predykatorów Stat.podsum.; statystyka Zmn. zal.:masa (Korelacje) Wartość R wielorakie 0,883168187 Wielorakie R2 0,779986047 Skorygowane R2 0,731094058 F(2,9) 15,9532483 p 0,0010990717 Błąd std. estymacji 1,62162604 Podsumowanie regresji zmiennej zależnej: masa (Korelacje) N=12 R=,88316819 R^2=,77998605 Skoryg. R2=,73109406 F(2,9)=15,953 p<,00110 Błąd std. estymacji: 1,6216 b* Bł. std. z b* b Bł. std. z b t(9) p W. wolny 2,280461 3,808800 0,598735 0,564113 wiek 0,433237 0,198057 0,713444 0,326155 2,187442 0,056485 wzrost 0,548319 0,198057 9,892489 3,573235 2,768497 0,021807