ANALIZA KORELACJI I REGRESJI
|
|
- Bernard Daniel Krajewski
- 8 lat temu
- Przeglądów:
Transkrypt
1
2 Szkic wykładu Zależności korelacyjne 1 Zależności korelacyjne 2
3 Przykłady Zależności korelacyjne Badajac różnego rodzaju zjawiska, np. społeczne, ekonomiczne, psychologiczne, przyrodniczne itp. stwierdzamy niemal zawsze, że każde z nich jest uwarunkowane działaniem innych zjawisk.
4 Przykłady Zależności korelacyjne Badajac różnego rodzaju zjawiska, np. społeczne, ekonomiczne, psychologiczne, przyrodniczne itp. stwierdzamy niemal zawsze, że każde z nich jest uwarunkowane działaniem innych zjawisk. Istnienie zwiazków pomiędzy zjawiskami charakteryzujacymi badane zbiorowości bywa często przedmiotem dociekań i eksperymentów naukowych.
5 Przykłady Zależności korelacyjne Badajac różnego rodzaju zjawiska, np. społeczne, ekonomiczne, psychologiczne, przyrodniczne itp. stwierdzamy niemal zawsze, że każde z nich jest uwarunkowane działaniem innych zjawisk. Istnienie zwiazków pomiędzy zjawiskami charakteryzujacymi badane zbiorowości bywa często przedmiotem dociekań i eksperymentów naukowych. Przykład: David Buss w publikacji z 2001 roku pt. Psychologia ewolucyjna. Jak wytłumaczyć społeczne zachowania człowieka?, opisał badanie, w którym sprawdzał, czy istnieje zwiazek między szybkościa chodzenia a pozycja społeczna. Okazało się, że zwiazek ten jest dość wyraźny wśród mężczyzn, natomiast w mniejszym stopniu wśród kobiet.
6 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki:
7 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę),
8 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata),
9 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata), masa ciała (kg),
10 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata), masa ciała (kg), masa mózgu (g),
11 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata), masa ciała (kg), masa mózgu (g), czas trwania ciaży (dni).
12 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata), masa ciała (kg), masa mózgu (g), czas trwania ciaży (dni). Cel badania: Ustalenie, czy istnieja jakiekolwiek zależności pomiędzy wymienionymi charakterystykami, a jeśli tak, to jaka jest siła tych zależności.
13 Przykłady Zależności korelacyjne Inny przykład: Allison i Cicchetti w pracy Sleep in mammals (Science, 194, 1976) opisali badania przeprowadzone wśród przedstawicieli 62 gatunkach ssaków. Przedmiotem obserwacji (pomiarów) były m.in. następujace charakterystyki: długość snu w ciagu doby (godz/dobę), maksymalna długości życia (lata), masa ciała (kg), masa mózgu (g), czas trwania ciaży (dni). Cel badania: Ustalenie, czy istnieja jakiekolwiek zależności pomiędzy wymienionymi charakterystykami, a jeśli tak, to jaka jest siła tych zależności. Wyniki badań: Będa przedstawione dalej.
14 Przykłady Zależności korelacyjne Kolejny przykład: Zwiazek pomiędzy waga a wzrostem człowieka próbuje się wyrazić za pomoca tzw. wskaźnika BMI (Body Mass Index): waga BMI = (wzrost w metrach) 2
15 Przykłady Zależności korelacyjne Kolejny przykład: Zwiazek pomiędzy waga a wzrostem człowieka próbuje się wyrazić za pomoca tzw. wskaźnika BMI (Body Mass Index): waga BMI = (wzrost w metrach) 2 Przyjmuje się, że wartość BMI dla osób z prawidłowa masa ciała zawiera się mniej więcej w przedziale 18, 5 BMI < 25. Jednak BMI kształtuje się na poziomie indywidualnym dla konkretnych osób i może znacznie przekraczać wartość 25.
16 Przykłady Zależności korelacyjne Kolejny przykład: Zwiazek pomiędzy waga a wzrostem człowieka próbuje się wyrazić za pomoca tzw. wskaźnika BMI (Body Mass Index): waga BMI = (wzrost w metrach) 2 Przyjmuje się, że wartość BMI dla osób z prawidłowa masa ciała zawiera się mniej więcej w przedziale 18, 5 BMI < 25. Jednak BMI kształtuje się na poziomie indywidualnym dla konkretnych osób i może znacznie przekraczać wartość 25. Przykład ten wskazuje, że zależność między waga a wzrostem nie jest ściśle funkcyjna. Podana formuła opisuje tylko w przybliżeniu tę zależności.
17 Zależność korelacyjna Zależności korelacyjne Przy analizie współzależności pomiędzy wzrostem i waga, nie oczekujemy, aby zależność ta była ściśle funkcyjna, tzn. aby istniała jednoznacznie określona funkcja matematyczna y = f (x), podajaca wagę y konkretnej osoby z ustalonym wzrostem x.
18 Zależność korelacyjna Zależności korelacyjne Przy analizie współzależności pomiędzy wzrostem i waga, nie oczekujemy, aby zależność ta była ściśle funkcyjna, tzn. aby istniała jednoznacznie określona funkcja matematyczna y = f (x), podajaca wagę y konkretnej osoby z ustalonym wzrostem x. Mimo tego wydaje się, że jakaś zależność pomiędzy waga i wzrostem istnieje.
19 Zależność korelacyjna Zależności korelacyjne Przy analizie współzależności pomiędzy wzrostem i waga, nie oczekujemy, aby zależność ta była ściśle funkcyjna, tzn. aby istniała jednoznacznie określona funkcja matematyczna y = f (x), podajaca wagę y konkretnej osoby z ustalonym wzrostem x. Mimo tego wydaje się, że jakaś zależność pomiędzy waga i wzrostem istnieje. Obserwujac obie cechy w dużej zbiorowości osób, dojdziemy do przekonania, że średnia waga jest większa w grupie osób wyższych i na odwrót.
20 Zależność korelacyjna Zależności korelacyjne Przy analizie współzależności pomiędzy wzrostem i waga, nie oczekujemy, aby zależność ta była ściśle funkcyjna, tzn. aby istniała jednoznacznie określona funkcja matematyczna y = f (x), podajaca wagę y konkretnej osoby z ustalonym wzrostem x. Mimo tego wydaje się, że jakaś zależność pomiędzy waga i wzrostem istnieje. Obserwujac obie cechy w dużej zbiorowości osób, dojdziemy do przekonania, że średnia waga jest większa w grupie osób wyższych i na odwrót. Zwiazek między waga i wzrostem jest przykładem tzw. zwiazku korelacyjnego, w skrócie korelacji.
21 Zależność korelacyjna Zależności korelacyjne Przy analizie współzależności pomiędzy wzrostem i waga, nie oczekujemy, aby zależność ta była ściśle funkcyjna, tzn. aby istniała jednoznacznie określona funkcja matematyczna y = f (x), podajaca wagę y konkretnej osoby z ustalonym wzrostem x. Mimo tego wydaje się, że jakaś zależność pomiędzy waga i wzrostem istnieje. Obserwujac obie cechy w dużej zbiorowości osób, dojdziemy do przekonania, że średnia waga jest większa w grupie osób wyższych i na odwrót. Zwiazek między waga i wzrostem jest przykładem tzw. zwiazku korelacyjnego, w skrócie korelacji. Z korelacja mamy do czynienia wtedy, gdy wraz ze zmiana wartości jednej cechy zmienia się średnia wartość drugiej cechy.
22 Zależność korelacyjna Przykład korelacji wagi i wzrostu Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Low Resolution
23 Współczynnik korelacji Pearsona Przykład korelacji wagi i wzrostu c.d. Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Low Resolution
24 Zależność korelacyjna Inne przykłady Zależności korelacyjne Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Low Resolution
25 Zależność korelacyjna Wstępne wnioski z przedstawionych przykładów Zwiazek korelacyjny można odkryć obserwujac duża liczbę przypadków. Nie ujawnia się w pojedycznych obserwacjach.
26 Zależność korelacyjna Wstępne wnioski z przedstawionych przykładów Zwiazek korelacyjny można odkryć obserwujac duża liczbę przypadków. Nie ujawnia się w pojedycznych obserwacjach. Zależność korelacyjna może być prostoliniowa (w skrócie liniowa) lub krzywoliniowa, silna lub słaba.
27 Zależność korelacyjna Wstępne wnioski z przedstawionych przykładów Zwiazek korelacyjny można odkryć obserwujac duża liczbę przypadków. Nie ujawnia się w pojedycznych obserwacjach. Zależność korelacyjna może być prostoliniowa (w skrócie liniowa) lub krzywoliniowa, silna lub słaba. Na podstawie obserwacji wykresu rozproszenia możemy w przybliżeniu ocenić charakter zależności i jej siłę.
28 Zależność korelacyjna Wstępne wnioski z przedstawionych przykładów Zwiazek korelacyjny można odkryć obserwujac duża liczbę przypadków. Nie ujawnia się w pojedycznych obserwacjach. Zależność korelacyjna może być prostoliniowa (w skrócie liniowa) lub krzywoliniowa, silna lub słaba. Na podstawie obserwacji wykresu rozproszenia możemy w przybliżeniu ocenić charakter zależności i jej siłę. Potrzebujemy miary, która pomógłaby wyrazić siłę zależności w sposób liczbowy.
29 Pomiar siły korelacji liniowej Współczynnik korelacji liniowej Pearsona Załóżmy, że między cechami X i Y występuje zależność korelacyjna o charakterze liniowym.
30 Pomiar siły korelacji liniowej Współczynnik korelacji liniowej Pearsona Załóżmy, że między cechami X i Y występuje zależność korelacyjna o charakterze liniowym. Współczynnikiem służacym do pomiaru siły tego zwiazku jest współczynnik korelacji liniowej Pearsona określony wzorem 1 n n i=1 r = (x i x)(y i ȳ), s x s y gdzie x, ȳ oznaczaja średnie arytmetyczne, natomiast s x, s y odchylenia standardowe zmiennych odpowiednio X i Y.
31 Pomiar siły korelacji liniowej Średnie arytmetyczne i odchylenia standardowe przypomnienie Średnie arytmetyczne: x = 1 n n x i, i=1 ȳ = 1 n n y i. i=1 Odchylenia standardowe: s x = 1 n (x i x) n 2, s y = 1 n i=1 n (y i ȳ) 2. i=1
32 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1].
33 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1]. Znak współczynnika informuje o kierunku korelacji (liniowa ujemna lub liniowa dodatnia).
34 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1]. Znak współczynnika informuje o kierunku korelacji (liniowa ujemna lub liniowa dodatnia). Wartość bezwzględna r informuje o sile korelacji liniowej.
35 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1]. Znak współczynnika informuje o kierunku korelacji (liniowa ujemna lub liniowa dodatnia). Wartość bezwzględna r informuje o sile korelacji liniowej. W szczególnym przypadku, gdy r = 1, wówczas mamy do czynienia z korelacja funkcyjna (tzn. zależność Y od X można wyrazić za pomoca funkcji Y = ax + b, gdzie a, b sa pewnymi stałymi).
36 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1]. Znak współczynnika informuje o kierunku korelacji (liniowa ujemna lub liniowa dodatnia). Wartość bezwzględna r informuje o sile korelacji liniowej. W szczególnym przypadku, gdy r = 1, wówczas mamy do czynienia z korelacja funkcyjna (tzn. zależność Y od X można wyrazić za pomoca funkcji Y = ax + b, gdzie a, b sa pewnymi stałymi). Współczynnik r mierzy tylko korelację o charakterze prostoliniowym.
37 Współczynnik korelacji liniowej Pearsona Własności Współczynnik r korelacji liniowej Pearsona przyjmuje zawsze wartości z przedziału [ 1, 1]. Znak współczynnika informuje o kierunku korelacji (liniowa ujemna lub liniowa dodatnia). Wartość bezwzględna r informuje o sile korelacji liniowej. W szczególnym przypadku, gdy r = 1, wówczas mamy do czynienia z korelacja funkcyjna (tzn. zależność Y od X można wyrazić za pomoca funkcji Y = ax + b, gdzie a, b sa pewnymi stałymi). Współczynnik r mierzy tylko korelację o charakterze prostoliniowym. Gdy r = 0, wówczas mówimy, że nie ma korelacji liniowej (ale może być krzywoliniowa).
38 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1
39 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania:
40 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania: wszystkie cechy sa ze soba wzajemnie powiazane (w mniejszym lub większym stopniu),
41 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania: wszystkie cechy sa ze soba wzajemnie powiazane (w mniejszym lub większym stopniu), można zauważyć silna, dodatnia korelację liniowa między masa mózgu i ciała,
42 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania: wszystkie cechy sa ze soba wzajemnie powiazane (w mniejszym lub większym stopniu), można zauważyć silna, dodatnia korelację liniowa między masa mózgu i ciała, umiarkowana, ujemna korelacja liniowa między czasem snu a czasem życia,
43 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania: wszystkie cechy sa ze soba wzajemnie powiazane (w mniejszym lub większym stopniu), można zauważyć silna, dodatnia korelację liniowa między masa mózgu i ciała, umiarkowana, ujemna korelacja liniowa między czasem snu a czasem życia, dość silna korelacja (dodatnia lub ujemna) czasu ciaży z innymi zmiennymi,
44 Współczynniki korelacji liniowej Pearsona Allison i Cicchetti Wyniki badań ssaków macierz współczynników masa masa czas snu maks. długość czas korelacji liniowej Pearsona ciała (kg) mózgu (g) (godz/dobę) życia (lata) ciaży (dni) masa ciała (kg) 1 0,93-0,31 0,30 0,65 masa mózgu (g) 0,93 1-0,36 0,51 0,75 czas snu (godz/dobę) -0,31-0,36 1-0,41-0,63 maks. długość życia (lata) 0,30 0,51-0,41 1 0,61 czas ciaży (dni) 0,65 0,75-0,63 0,61 1 Kilka wybranych uwag podsumowania: wszystkie cechy sa ze soba wzajemnie powiazane (w mniejszym lub większym stopniu), można zauważyć silna, dodatnia korelację liniowa między masa mózgu i ciała, umiarkowana, ujemna korelacja liniowa między czasem snu a czasem życia, dość silna korelacja (dodatnia lub ujemna) czasu ciaży z innymi zmiennymi, Pytanie: Jak opisać zależność np. czasu ciaży od wszystkich pozostałych zmiennych jednocześnie? Odpowiedzi dostarcza analiza regresji.
45 Korelacja a zależności pozorne Przykład Czy w krajach, w których jest więcej bocianów rodzi się więcej dzieci? Wyniki analizy korelacji liniowej dla 17 krajów europejskich (dane z 1990 roku) pomiędzy powierzchnia, liczba mieszkańców, liczba urodzeń oraz liczba bocianów (!): macierz współczynników powierzchnia liczba bocianów liczba mieszkańców liczba urodzeń korelacji liniowej Pearsona powierzchnia 1 0,579 0,812 0,923 liczba bocianów 0, ,354 0,620 liczba mieszkańców 0,812 0, ,851 liczba urodzeń 0,923 0,620 0,851 1
46 Korelacja a zależności pozorne Przykład Czy w krajach, w których jest więcej bocianów rodzi się więcej dzieci? Wyniki analizy korelacji liniowej dla 17 krajów europejskich (dane z 1990 roku) pomiędzy powierzchnia, liczba mieszkańców, liczba urodzeń oraz liczba bocianów (!): macierz współczynników powierzchnia liczba bocianów liczba mieszkańców liczba urodzeń korelacji liniowej Pearsona powierzchnia 1 0,579 0,812 0,923 liczba bocianów 0, ,354 0,620 liczba mieszkańców 0,812 0, ,851 liczba urodzeń 0,923 0,620 0,851 1 Zaskoczeniem może być dość wysoka wartość współczynnika korelacji liniowej dla liczby bocianów i liczby urodzeń.
47 Korelacja a zależności pozorne Przykład Czy w krajach, w których jest więcej bocianów rodzi się więcej dzieci? Wyniki analizy korelacji liniowej dla 17 krajów europejskich (dane z 1990 roku) pomiędzy powierzchnia, liczba mieszkańców, liczba urodzeń oraz liczba bocianów (!): macierz współczynników powierzchnia liczba bocianów liczba mieszkańców liczba urodzeń korelacji liniowej Pearsona powierzchnia 1 0,579 0,812 0,923 liczba bocianów 0, ,354 0,620 liczba mieszkańców 0,812 0, ,851 liczba urodzeń 0,923 0,620 0,851 1 Zaskoczeniem może być dość wysoka wartość współczynnika korelacji liniowej dla liczby bocianów i liczby urodzeń. Pytania: Czy w krajach, w których jest więcej bocianów rodzi się, średnio rzecz biorac, więcej dzieci? Odpowiedź brzmi tak, potwierdzaja to uzyskane wyniki. Czy na tej podstawie możemy sadzić, że liczba bocianów oddziałuje na liczbę noworodków (lub odwrotnie)? Odpowiedź brzmi nie, ponieważ pomiędzy badanymi zmiennymi nie ma bezpośredniej zależności przyczynowo-skutkowej. Jest to przykład zależności pozornej.
48 Korelacja a zależności pozorne Przykład c.d. Zależność przyczynowo-skutkowa pomiędzy liczba urodzeń i liczba bocianów jest pozorna, gdyż ma tu miejsce jedynie współwystępowanie obu zjawisk (większej liczbie bocianów towarzyszy na ogół większa liczba urodzeń i na odwrót).
49 Korelacja a zależności pozorne Przykład c.d. Zależność przyczynowo-skutkowa pomiędzy liczba urodzeń i liczba bocianów jest pozorna, gdyż ma tu miejsce jedynie współwystępowanie obu zjawisk (większej liczbie bocianów towarzyszy na ogół większa liczba urodzeń i na odwrót). Pozorna zależność ma miejsce także między liczba urodzeń i powierzchnia kraju.
50 Korelacja a zależności pozorne Przykład c.d. Zależność przyczynowo-skutkowa pomiędzy liczba urodzeń i liczba bocianów jest pozorna, gdyż ma tu miejsce jedynie współwystępowanie obu zjawisk (większej liczbie bocianów towarzyszy na ogół większa liczba urodzeń i na odwrót). Pozorna zależność ma miejsce także między liczba urodzeń i powierzchnia kraju. Układ zależności przyczynowo-skutkowych w tym przykładzie można zilustrować graficznie: Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Low Resolution
51 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Przypuśćmy, że porzadkujemy 4 studentów w zależności od stopnia ich zdolności matematycznych, zaczynajac od studenta najlepszego, któremu przydzielamy numer 1, a kończac na studencie najsłabszym, któremu przydzielamy numer 4 (ocenę zdolności powierzamy np. ekspertowi).
52 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Przypuśćmy, że porzadkujemy 4 studentów w zależności od stopnia ich zdolności matematycznych, zaczynajac od studenta najlepszego, któremu przydzielamy numer 1, a kończac na studencie najsłabszym, któremu przydzielamy numer 4 (ocenę zdolności powierzamy np. ekspertowi). Mówimy wówczas, że studenci zostali uporzadkowani w kolejności rang, a numer studenta jest jego ranga.
53 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Przypuśćmy, że porzadkujemy 4 studentów w zależności od stopnia ich zdolności matematycznych, zaczynajac od studenta najlepszego, któremu przydzielamy numer 1, a kończac na studencie najsłabszym, któremu przydzielamy numer 4 (ocenę zdolności powierzamy np. ekspertowi). Mówimy wówczas, że studenci zostali uporzadkowani w kolejności rang, a numer studenta jest jego ranga. Oznaczmy rangi poszczególnych studentów przez a i. Przykładowo, niech: a 1 = 4, a 2 = 2, a 3 = 3, a 4 = 1, co oznacza, iż w badanej grupie, ustawionej w kolejności alfabetycznej, pierwszy student (oznaczmy go umownie litera A) jest najsłabszy, student B dobry, student C słaby, a student D najlepszy.
54 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Załóżmy, że w podobny sposób uporzadkowaliśmy tych samych studentów z punktu widzenia ich zdolności muzycznych. Niech b i będa rangami poszczególnych studentów: b 1 = 2, b 2 = 1, b 3 = 3, b 4 = 4
55 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Załóżmy, że w podobny sposób uporzadkowaliśmy tych samych studentów z punktu widzenia ich zdolności muzycznych. Niech b i będa rangami poszczególnych studentów: b 1 = 2, b 2 = 1, b 3 = 3, b 4 = 4 W ten sposób każdemu studentowi przyporzadkowaliśmy po dwie rangi a i oraz b i.
56 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Załóżmy, że w podobny sposób uporzadkowaliśmy tych samych studentów z punktu widzenia ich zdolności muzycznych. Niech b i będa rangami poszczególnych studentów: b 1 = 2, b 2 = 1, b 3 = 3, b 4 = 4 W ten sposób każdemu studentowi przyporzadkowaliśmy po dwie rangi a i oraz b i. Pytanie: Jak na tej podstawie możemy ocenić, czy istnieje zależność między zdolnościami matematycznymi oraz muzycznymi w badanej grupie. Innymi słowy, jak ocenić stopień zgodności (lub niezgodności) rang a i, b i?
57 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Załóżmy, że w podobny sposób uporzadkowaliśmy tych samych studentów z punktu widzenia ich zdolności muzycznych. Niech b i będa rangami poszczególnych studentów: b 1 = 2, b 2 = 1, b 3 = 3, b 4 = 4 W ten sposób każdemu studentowi przyporzadkowaliśmy po dwie rangi a i oraz b i. Pytanie: Jak na tej podstawie możemy ocenić, czy istnieje zależność między zdolnościami matematycznymi oraz muzycznymi w badanej grupie. Innymi słowy, jak ocenić stopień zgodności (lub niezgodności) rang a i, b i? Uwaga: W przypadku danych rangowych nie możemy zastosować współczynnika korelacji Pearsona.
58 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. r S = 1 6 n i=1 d i 2 n(n 2 1),
59 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. Własności: r S = 1 6 n i=1 d i 2 n(n 2 1),
60 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. r S = 1 6 n i=1 d i 2 n(n 2 1), Własności: Współczynnik r S przymuje wartości z przedziału [ 1, 1].
61 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. r S = 1 6 n i=1 d i 2 n(n 2 1), Własności: Współczynnik r S przymuje wartości z przedziału [ 1, 1]. Wartość r S = 1 oznacza, że istnieje całkowita zgodność uporzadkowań wg rang a i i b i.
62 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. r S = 1 6 n i=1 d i 2 n(n 2 1), Własności: Współczynnik r S przymuje wartości z przedziału [ 1, 1]. Wartość r S = 1 oznacza, że istnieje całkowita zgodność uporzadkowań wg rang a i i b i. Wartość r S = 1 oznacza z kolei pełna przeciwstawność uporzadkowań między rangami.
63 Inne miary korelacji współczynnik korelacji rang Spearmana Jednym ze współczynników korelacji obliczanych dla danych rangowych jest współczynnik korelacji rang Spearmana, określony wzorem gdzie d i = a i b i. r S = 1 6 n i=1 d i 2 n(n 2 1), Własności: Współczynnik r S przymuje wartości z przedziału [ 1, 1]. Wartość r S = 1 oznacza, że istnieje całkowita zgodność uporzadkowań wg rang a i i b i. Wartość r S = 1 oznacza z kolei pełna przeciwstawność uporzadkowań między rangami. Wartość r S = 0 oznacza brak korelacji rang.
64 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Student rangi a i rangi b i różnice rang d i di 2 A B C D Razem 14 Źródło: Dane umowne.
65 Inne miary korelacji współczynnik korelacji rang Spearmana Przykład Student rangi a i rangi b i różnice rang d i di 2 A B C D Razem 14 Źródło: Dane umowne. Wartość współczynnika korelacji rang Spearmana w tym przykładzie wynosi: r S = (16 1) = 0, 4 co świadczy o stosunkowo słabej korelacji między zdolnościami matematycznymi i muzycznymi badanych studentów.
66 Inne miary korelacji współczynnik korelacji rangowej Kendalla Innym współczynnikiem zaliczanym do mierników korelacji rangowej jest współczynnik Kendalla. Zalóżmy, że obserwujemy dwie cechy ilościowe X i Y w pewnej n-elementowej zbiorowości.
67 Inne miary korelacji współczynnik korelacji rangowej Kendalla Innym współczynnikiem zaliczanym do mierników korelacji rangowej jest współczynnik Kendalla. Zalóżmy, że obserwujemy dwie cechy ilościowe X i Y w pewnej n-elementowej zbiorowości. Jednostki zbiorowości łaczymy w dwuelementowe podzbiory.
68 Inne miary korelacji współczynnik korelacji rangowej Kendalla Innym współczynnikiem zaliczanym do mierników korelacji rangowej jest współczynnik Kendalla. Zalóżmy, że obserwujemy dwie cechy ilościowe X i Y w pewnej n-elementowej zbiorowości. Jednostki zbiorowości łaczymy w dwuelementowe podzbiory. Dla n-elementowej zbiorowości można utworzyć łacznie N = n (n 1) takich podzbiorów (tj. uporzadkowanych par).
69 Inne miary korelacji współczynnik korelacji rangowej Kendalla Innym współczynnikiem zaliczanym do mierników korelacji rangowej jest współczynnik Kendalla. Zalóżmy, że obserwujemy dwie cechy ilościowe X i Y w pewnej n-elementowej zbiorowości. Jednostki zbiorowości łaczymy w dwuelementowe podzbiory. Dla n-elementowej zbiorowości można utworzyć łacznie N = n (n 1) takich podzbiorów (tj. uporzadkowanych par). Współczynnik korelacji Kendalla obliczamy na podstawie zbiorowości dwuelementowych podzbiorów, utworzonych z elementów zbioru wyjściowego.
70 Inne miary korelacji współczynnik korelacji rangowej Kendalla Niech U j dla j = 1, 2,..., N będa zmiennymi przyjmujacymi wartości 1 lub -1, zgodnie z następujacymi zasadami: U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest większa niż dla drugiego elementu. U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest mniejsza niż dla drugiego elementu.
71 Inne miary korelacji współczynnik korelacji rangowej Kendalla Niech U j dla j = 1, 2,..., N będa zmiennymi przyjmujacymi wartości 1 lub -1, zgodnie z następujacymi zasadami: U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest większa niż dla drugiego elementu. U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest mniejsza niż dla drugiego elementu. W podobny sposób zdefiniujmy zmienne V j dla j = 1, 2,..., N, odwołujac się do analogicznego sposobu uporzadkowań wartości cechy Y w poszczególnych parach.
72 Inne miary korelacji współczynnik korelacji rangowej Kendalla Niech U j dla j = 1, 2,..., N będa zmiennymi przyjmujacymi wartości 1 lub -1, zgodnie z następujacymi zasadami: U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest większa niż dla drugiego elementu. U j = 1, gdy wartość cechy X dla pierwszego elementu w j-tej parze jest mniejsza niż dla drugiego elementu. W podobny sposób zdefiniujmy zmienne V j dla j = 1, 2,..., N, odwołujac się do analogicznego sposobu uporzadkowań wartości cechy Y w poszczególnych parach. Uwaga: Dalej zakładać będziemy, że zarówno wartości cechy X, jak i cechy Y nie powtarzaja się w badanej zbiorowości (w przeciwnym przypadku trzeba skorzystać z pewnej skorygowanej formuły na współczynnik Kendalla, która tutaj nie będzie przytoczona).
73 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Niech P oznacza liczbę przypadków (par) zgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j sa równe V j.
74 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Niech P oznacza liczbę przypadków (par) zgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j sa równe V j. Podobnie, niech Q oznacza liczbę przypadków (par) niezgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j oraz V j sa przeciwnego znaku.
75 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Niech P oznacza liczbę przypadków (par) zgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j sa równe V j. Podobnie, niech Q oznacza liczbę przypadków (par) niezgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j oraz V j sa przeciwnego znaku. Przy tych oznaczeniach współczynniki korelacji Kendalla wyraża się wzorem: τ = P Q n(n 1).
76 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Niech P oznacza liczbę przypadków (par) zgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j sa równe V j. Podobnie, niech Q oznacza liczbę przypadków (par) niezgodnie uporzadkowanych, tj. liczbę par, dla których wartości U j oraz V j sa przeciwnego znaku. Przy tych oznaczeniach współczynniki korelacji Kendalla wyraża się wzorem: τ = P Q n(n 1). Podobnie, jak współczynnik korelacji Spearmanna, współczynnik τ (tau) przyjmuje zawsze wartości z przedziału [ 1, 1]. Jest również podobnie interpretowany.
77 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Wróćmy do przykładu dotyczacego zdolności matematycznych i muzycznych grupy studentów (A, B, C, D). W tym przykładzie można utworzyć łacznie 4 (4 1) = 12 dwuelementowych podzbiorów ze zbioru 4-elementowego (por. pierwsza kolumna tablicy). Dalsze kolumny prezentuja uporzadkowane w parach wartości cech, w tym przypadku rang a i oraz b i, a także wartości U j, V j.
78 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Wróćmy do przykładu dotyczacego zdolności matematycznych i muzycznych grupy studentów (A, B, C, D). W tym przykładzie można utworzyć łacznie 4 (4 1) = 12 dwuelementowych podzbiorów ze zbioru 4-elementowego (por. pierwsza kolumna tablicy). Dalsze kolumny prezentuja uporzadkowane w parach wartości cech, w tym przypadku rang a i oraz b i, a także wartości U j, V j. Pary a i dla pierwszej uporzadkowanie U j b i dla pierwszej uporzadkowanie V j studentów i drugiej osoby w parze i drugiej osoby w parze (A,B) 4; 2 1 2; 1 1 (A,C) 4; 3 1 2; 3-1 (A,D) 4; 1 1 2; 4-1 (B,A) 2; 4-1 1; 2-1 (B,C) 2; 3-1 1; 3-1 (B,D) 2; 1 1 1; 4-1 (C,A) 3; 4-1 3; 2 1 (C,B) 3; 2 1 3; 1 1 (C,D) 3; 1 1 3; 4-1 (D,A) 1; 4-1 4; 2 1 (D,B) 1; 2-1 4; 1 1 (D,C) 1; 3-1 4; 3 1
79 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Liczba P przypadków (par) zgodnie uporzadkowanych w naszym przykładzie wynosi P = 4 (oznaczone w tablicy kolorem niebieskim).
80 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Liczba P przypadków (par) zgodnie uporzadkowanych w naszym przykładzie wynosi P = 4 (oznaczone w tablicy kolorem niebieskim). Z kolei liczba Q przypadków (par) niezgodnie uporzadkowanych wynosi Q = 8 (oznaczone w tablicy kolorem czerwonym).
81 Inne miary korelacji współczynnik korelacji rangowej Kendalla Przykład Liczba P przypadków (par) zgodnie uporzadkowanych w naszym przykładzie wynosi P = 4 (oznaczone w tablicy kolorem niebieskim). Z kolei liczba Q przypadków (par) niezgodnie uporzadkowanych wynosi Q = 8 (oznaczone w tablicy kolorem czerwonym). Współczynniki Kendalla dla n = 4, P = 4, Q = 8 wynosi: τ = , 33 co wskazuje na słaba korelację między zdolnościami matematycznymi i muzycznymi w badanej grupie studentów (podobna wartość, jak współczynnika r S ).
82 Inne miary korelacji współczynnik korelacji rangowej Kendalla Uwagi Zauważymy, że jeśli dla pewnej pary elementów, np. (A, B) wartość U j wynosi 1, to dla pary (B, A) musi być U j = 1.
83 Inne miary korelacji współczynnik korelacji rangowej Kendalla Uwagi Zauważymy, że jeśli dla pewnej pary elementów, np. (A, B) wartość U j wynosi 1, to dla pary (B, A) musi być U j = 1. Oznacza to, że zamiast badać zbiorowość wszystkich podzbiorów dwuelementowych, wśród których niektóre pary składaja się z tych samych elementów, a różnia się jedynie ich kolejnościa (np. (A, B) i (B, A) lub (A, C) i (C, A) itd.), można ograniczyć rozważania do mniejszej zbiorowości par, w której podzbiór o określonych elementach występuje tylko raz.
84 Inne miary korelacji współczynnik korelacji rangowej Kendalla Uwagi Zauważymy, że jeśli dla pewnej pary elementów, np. (A, B) wartość U j wynosi 1, to dla pary (B, A) musi być U j = 1. Oznacza to, że zamiast badać zbiorowość wszystkich podzbiorów dwuelementowych, wśród których niektóre pary składaja się z tych samych elementów, a różnia się jedynie ich kolejnościa (np. (A, B) i (B, A) lub (A, C) i (C, A) itd.), można ograniczyć rozważania do mniejszej zbiorowości par, w której podzbiór o określonych elementach występuje tylko raz. Jednak w takiej zbiorowości liczba wszystkich możliwych par byłaby równa n(n 1) 2, a wartości P i Q byłyby o połowę mniejsze, a więc wzór na współczynnik τ przyjałby postać: τ = 2(P Q ) n(n 1), gdzie P = 1 2 P, Q = 1 2 Q.
85 Analiza regresji Wprowadzenie Zależności korelacyjne Jak już wcześniej wspomniano, na ogół powiazania pomiędzy cechami (zmiennymi) nie maja charakteru matematycznego, który dałoby się zapisać jednoznacznie w postaci: Y = f (X 1, X 2,..., X s ), gdzie f oznacza pewna funkcję opisujac a zależność zmiennej Y od zmiennych X 1, X 2,..., X s.
86 Analiza regresji Wprowadzenie Zależności korelacyjne Jak już wcześniej wspomniano, na ogół powiazania pomiędzy cechami (zmiennymi) nie maja charakteru matematycznego, który dałoby się zapisać jednoznacznie w postaci: Y = f (X 1, X 2,..., X s ), gdzie f oznacza pewna funkcję opisujac a zależność zmiennej Y od zmiennych X 1, X 2,..., X s. Zapis taki oznaczałby, że zależność pomiędzy Y a pozostałymi cechamy jest ściśle funkcyjna, tj. konkretnym wartościom obserwowanych cech X 1, X 2,..., X s odpowiada dokładnie jedna wartość cechy Y.
87 Analiza regresji Wprowadzenie Zależności korelacyjne Jak już wcześniej wspomniano, na ogół powiazania pomiędzy cechami (zmiennymi) nie maja charakteru matematycznego, który dałoby się zapisać jednoznacznie w postaci: Y = f (X 1, X 2,..., X s ), gdzie f oznacza pewna funkcję opisujac a zależność zmiennej Y od zmiennych X 1, X 2,..., X s. Zapis taki oznaczałby, że zależność pomiędzy Y a pozostałymi cechamy jest ściśle funkcyjna, tj. konkretnym wartościom obserwowanych cech X 1, X 2,..., X s odpowiada dokładnie jedna wartość cechy Y. W przypadku zjawisk społecznych, ekonomicznych, przyrodniczych itp. zależności funkcyjne rzadko występuja, częściej natomiast występuja zależności korelacyjne.
88 Analiza regresji Wprowadzenie Zależności korelacyjne W statystyce zależności o charakterze korelacyjnym pomiędzy zmienna Y a pewnym zespołem zmiennych X 1, X 2,..., X s wyraża się często w postaci zbliżonej do przedstawionej powyżej, ale z pewna istotna zmiana. Mianowicie: Y = f (x 1, x 2,..., x s ) + ɛ
89 Analiza regresji Wprowadzenie Zależności korelacyjne W statystyce zależności o charakterze korelacyjnym pomiędzy zmienna Y a pewnym zespołem zmiennych X 1, X 2,..., X s wyraża się często w postaci zbliżonej do przedstawionej powyżej, ale z pewna istotna zmiana. Mianowicie: Y = f (x 1, x 2,..., x s ) + ɛ x 1, x 2,..., x s reprezentuja tu konkretne (ustalone) wartości zmiennych X 1, X 2,..., X s ;
90 Analiza regresji Wprowadzenie Zależności korelacyjne W statystyce zależności o charakterze korelacyjnym pomiędzy zmienna Y a pewnym zespołem zmiennych X 1, X 2,..., X s wyraża się często w postaci zbliżonej do przedstawionej powyżej, ale z pewna istotna zmiana. Mianowicie: Y = f (x 1, x 2,..., x s ) + ɛ x 1, x 2,..., x s reprezentuja tu konkretne (ustalone) wartości zmiennych X 1, X 2,..., X s ; ɛ jest składnikiem losowym reprezentujacym sumaryczny (nieobserwowany) wpływ innych czynników;
91 Analiza regresji Wprowadzenie Zależności korelacyjne W statystyce zależności o charakterze korelacyjnym pomiędzy zmienna Y a pewnym zespołem zmiennych X 1, X 2,..., X s wyraża się często w postaci zbliżonej do przedstawionej powyżej, ale z pewna istotna zmiana. Mianowicie: Y = f (x 1, x 2,..., x s ) + ɛ x 1, x 2,..., x s reprezentuja tu konkretne (ustalone) wartości zmiennych X 1, X 2,..., X s ; ɛ jest składnikiem losowym reprezentujacym sumaryczny (nieobserwowany) wpływ innych czynników; Dołaczenie składnika losowego ɛ powoduje, że konkretnym wartościom x 1, x 2,..., x s moga odpowiadać nie takie same, ale różne wartości zmiennej Y.
92 Analiza regresji Terminologia Zależności korelacyjne Zmienna objaśniana (zmienna zależna) zmienna będaca przedmiotem badania. Na ogół oznaczamy ja symbolem Y.
93 Analiza regresji Terminologia Zależności korelacyjne Zmienna objaśniana (zmienna zależna) zmienna będaca przedmiotem badania. Na ogół oznaczamy ja symbolem Y. Zmienne objaśniajace (zmienne niezależne) zmienne, za pomoca których chcemy objaśnić zmiany zmiennej zależnej. Na ogół oznaczamy je symbolami X 1, X 2,....
94 Analiza regresji Terminologia Zależności korelacyjne Zmienna objaśniana (zmienna zależna) zmienna będaca przedmiotem badania. Na ogół oznaczamy ja symbolem Y. Zmienne objaśniajace (zmienne niezależne) zmienne, za pomoca których chcemy objaśnić zmiany zmiennej zależnej. Na ogół oznaczamy je symbolami X 1, X 2,.... Funkcja regresji funkcja odwzorowujaca zależność pomiędzy zmienna objaśniana Y a zmiennymi objaśniajacymi.
95 Analiza regresji Terminologia Zależności korelacyjne Zmienna objaśniana (zmienna zależna) zmienna będaca przedmiotem badania. Na ogół oznaczamy ja symbolem Y. Zmienne objaśniajace (zmienne niezależne) zmienne, za pomoca których chcemy objaśnić zmiany zmiennej zależnej. Na ogół oznaczamy je symbolami X 1, X 2,.... Funkcja regresji funkcja odwzorowujaca zależność pomiędzy zmienna objaśniana Y a zmiennymi objaśniajacymi. W przypadku wielu zmiennych objaśniajacych mówimy o regresji wielorakiej, natomiast w przypadku jednej zmiennej objaśniajacej o regresji jednej zmiennej.
96 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2.
97 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2. Mamy tylko jedna zmienna objaśniajac a X.
98 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2. Mamy tylko jedna zmienna objaśniajac a X. Funkcja f należy do klasy funkcji liniowych.
99 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2. Mamy tylko jedna zmienna objaśniajac a X. Funkcja f należy do klasy funkcji liniowych. Model regresji liniowej:
100 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2. Mamy tylko jedna zmienna objaśniajac a X. Funkcja f należy do klasy funkcji liniowych. Model regresji liniowej: Przy podanych założeniach, zależność pomiędzy cechami Y i X możemy zapisać w postaci Y = a + bx + ɛ, gdzie a i b sa pewnymi parametrami.
101 jednej zmiennej Dalej przyjmiemy następujace założenia: Składnik losowy ɛ ma wartość średnia równa 0 i pewna dodatnia wariancję oznaczana symbolem σ 2. Mamy tylko jedna zmienna objaśniajac a X. Funkcja f należy do klasy funkcji liniowych. Model regresji liniowej: Przy podanych założeniach, zależność pomiędzy cechami Y i X możemy zapisać w postaci Y = a + bx + ɛ, gdzie a i b sa pewnymi parametrami. Model ten nazywamy modelem regresji liniowej jednej zmiennej. Parametry a i b nazywamy odpowiednio wyrazem wolnym i współczynnikiem regresji.
102 jednej zmiennej Funkcję f (x) = a + bx nazywamy prosta regresji.
103 jednej zmiennej Funkcję f (x) = a + bx nazywamy prosta regresji. Podstawowym problemem, jaki pojawia się przy wyznaczaniu równania prostej regresji, która opisywałaby możliwie wiernie zależność pomiędzy konkretnymi zmiennymi Y i X, jest określenie liczbowych wartości parametrów a i b.
104 jednej zmiennej Funkcję nazywamy prosta regresji. f (x) = a + bx Podstawowym problemem, jaki pojawia się przy wyznaczaniu równania prostej regresji, która opisywałaby możliwie wiernie zależność pomiędzy konkretnymi zmiennymi Y i X, jest określenie liczbowych wartości parametrów a i b. Dokonujemy tego na podstawie obserwacji wartości cech Y i X w badanej zbiorowości, stosujac tzw. metodę najmniejszych kwadratów MNK.
105 jednej zmiennej Przykład Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Agnieszka Low Resolution Rossa
106 jednej zmiennej Przykład Copyright Giorgio Krenkel and Alex Sandri, GNU Free Documentation License, Agnieszka Low Resolution Rossa
107 jednej zmiennej Przykład jak wyznaczyć prosta regresji? W tym przykładzie chcielibyśmy, żeby prosta najlepiej przybliżała dana chmurę punktów, czyli by wartości różnic y i ŷ i (tzw. wartości resztowe lub inaczej wartości składnika losowego) były jak najmniejsze dla wszystkich badanych jednostek.
108 jednej zmiennej Przykład jak wyznaczyć prosta regresji? W tym przykładzie chcielibyśmy, żeby prosta najlepiej przybliżała dana chmurę punktów, czyli by wartości różnic y i ŷ i (tzw. wartości resztowe lub inaczej wartości składnika losowego) były jak najmniejsze dla wszystkich badanych jednostek. Jak łatwo zauważyć, przesunięcie prostej w kierunku jednego z punktów może spowodować odsunięcie od innych punktów. Tak wiec postulat, aby jednocześnie minimalizować wszystkie wartości resztowe nie jest możliwy do realizacji.
109 jednej zmiennej Przykład jak wyznaczyć prosta regresji? W tym przykładzie chcielibyśmy, żeby prosta najlepiej przybliżała dana chmurę punktów, czyli by wartości różnic y i ŷ i (tzw. wartości resztowe lub inaczej wartości składnika losowego) były jak najmniejsze dla wszystkich badanych jednostek. Jak łatwo zauważyć, przesunięcie prostej w kierunku jednego z punktów może spowodować odsunięcie od innych punktów. Tak wiec postulat, aby jednocześnie minimalizować wszystkie wartości resztowe nie jest możliwy do realizacji. Jako kryterium dopasowania prostej regresji do danych empirycznych przyjmuje się minimalizację sumy kwadratów wartości resztowych.
110 Metoda najmniejszych kwadratów Niech (y 1, x 1 ), (y 2, x 2 ),..., (y n, x n ), będzie n-elementowym zbiorem wartości zmiennych Y i X.
111 Metoda najmniejszych kwadratów Niech (y 1, x 1 ), (y 2, x 2 ),..., (y n, x n ), będzie n-elementowym zbiorem wartości zmiennych Y i X. Rozważmy sumę kwadratów wartości resztowych n (y i ŷ i ) 2, lub równoważnie i=1 n (y i (a + bx i )) 2, i=1 która oznaczymy symbolem S(a, b).
112 Metoda najmniejszych kwadratów Niech (y 1, x 1 ), (y 2, x 2 ),..., (y n, x n ), będzie n-elementowym zbiorem wartości zmiennych Y i X. Rozważmy sumę kwadratów wartości resztowych n (y i ŷ i ) 2, lub równoważnie i=1 n (y i (a + bx i )) 2, i=1 która oznaczymy symbolem S(a, b). Funkcję regresji, dla której wartości parametrów a, b wyznaczone zostały w drodze minimalizacji sumy S(a, b) nazywamy prosta regresji MNK i oznaczamy przez ŷ.
113 Metoda najmniejszych kwadratów Trochę matematyki, czyli jak obliczyć a i b Po zrożniczkowaniu sumy S(a, b) względem a i b i przyrównaniu obu pochodnych czastkowych do 0, mamy S(a, b) n = 2 (y i (a + bx i )) = 0, a S(a, b) b = 2 i=1 n x i (y i (a + bx i )) = 0. i=1
114 Metoda najmniejszych kwadratów Trochę matematyki, czyli jak obliczyć a i b Po zrożniczkowaniu sumy S(a, b) względem a i b i przyrównaniu obu pochodnych czastkowych do 0, mamy S(a, b) n = 2 (y i (a + bx i )) = 0, a S(a, b) b = 2 i=1 n x i (y i (a + bx i )) = 0. i=1 Zapisujac inaczej, mamy układ dwóch równań n n y i na b x i = 0, i=1 n x i y i a i=1 i=1 n x i b i=1 n i=1 x 2 i = 0.
115 Metoda najmniejszych kwadratów Trochę matematyki Z pierwszego równania natychmiast otrzymujemy, że ( n ) a = 1 n y i b x i = ȳ b x. n i=1 i=1
116 Metoda najmniejszych kwadratów Trochę matematyki Z pierwszego równania natychmiast otrzymujemy, że ( n ) a = 1 n y i b x i = ȳ b x. n i=1 i=1 Po wstawieniu powyższego wyrażenia do drugiego równania mamy także n x i y i (ȳ b x) i=1 n x i b i=1 n i=1 x 2 i = 0,
117 Metoda najmniejszych kwadratów Trochę matematyki Z pierwszego równania natychmiast otrzymujemy, że ( n ) a = 1 n y i b x i = ȳ b x. n i=1 i=1 Po wstawieniu powyższego wyrażenia do drugiego równania mamy także n x i y i (ȳ b x) i=1 n x i b i=1 n i=1 co po przekształceniach daje n i=1 b = (x i x)(y i ȳ) n i=1 (x i x) 2. x 2 i = 0,
118 Metoda najmniejszych kwadratów Podsumowanie Równanie prostej regresji MNK ŷ = a + bx znajdziemy, obliczajac wyraz wolny a oraz współczynnik regresji b, które sa określone następujacymi wzorami a = ȳ b x, b = n i=1 (x i x)(y i ȳ) n i=1 (x i x) 2, lub równoważnie gdzie b = 1 n n i=1 (x i x)(y i ȳ) s 2 x (y 1, x 1 ), (y 2, x 2 ),..., (y n, x n ), sa wartościami zmiennych Y i X w badanej zbiorowości.,
119 Relacja łacz aca współczynnik regresji i współczynnik korelacji liniowej Pearsona Porównajmy wzory na współczynnik regresji b oraz współczynnik korelacji liniowej Pearsona r: b = 1 n n i=1 (x i x)(y i ȳ) s 2 x, r = 1 n n i=1 (x i x)(y i ȳ) s x s y.
120 Relacja łacz aca współczynnik regresji i współczynnik korelacji liniowej Pearsona Porównajmy wzory na współczynnik regresji b oraz współczynnik korelacji liniowej Pearsona r: b = 1 n n i=1 (x i x)(y i ȳ) s 2 x, r = 1 n n i=1 (x i x)(y i ȳ) s x s y. Wniosek 1: Pomiędzy współczynnikami b i r zachodzi równość b = r sy s x
121 Relacja łacz aca współczynnik regresji i współczynnik korelacji liniowej Pearsona Porównajmy wzory na współczynnik regresji b oraz współczynnik korelacji liniowej Pearsona r: b = 1 n n i=1 (x i x)(y i ȳ) s 2 x, r = 1 n n i=1 (x i x)(y i ȳ) s x s y. Wniosek 1: Pomiędzy współczynnikami b i r zachodzi równość b = r sy s x Wniosek 2: Współczynniki b i r maja zawsze ten sam znak, przy czym współczynnik b nie musi należeć do przedziału [ 1, 1], w przeciwieństwie do współczynnika r korelacji liniowej Pearsona.
122 jednej zmiennej Przykład c.d.
123 Ocena dobroci dopasowania prostej regresji MNK Jak wiemy, zmienność każdej cechy ilościowej, a więc również zmiennej objaśnianej Y, możemy oceniać np. za pomoca wariancji sy: 2 sy 2 = 1 n (y i ȳ) 2, n i=1 gdzie y 1, y 2,..., y n jest n-elementowym zbiorem zaobserowanych wartości tej zmiennej.
124 Ocena dobroci dopasowania prostej regresji MNK Jak wiemy, zmienność każdej cechy ilościowej, a więc również zmiennej objaśnianej Y, możemy oceniać np. za pomoca wariancji sy: 2 sy 2 = 1 n (y i ȳ) 2, n i=1 gdzie y 1, y 2,..., y n jest n-elementowym zbiorem zaobserowanych wartości tej zmiennej. Pomijajac składnik 1/n w powyższym wyrażeniu, otrzymujemy wzór na tzw. całkowita sumę kwadratów n SST = (y i ȳ) 2. i=1
125 Ocena dobroci dopasowania prostej regresji MNK Jak wiemy, zmienność każdej cechy ilościowej, a więc również zmiennej objaśnianej Y, możemy oceniać np. za pomoca wariancji sy: 2 sy 2 = 1 n (y i ȳ) 2, n i=1 gdzie y 1, y 2,..., y n jest n-elementowym zbiorem zaobserowanych wartości tej zmiennej. Pomijajac składnik 1/n w powyższym wyrażeniu, otrzymujemy wzór na tzw. całkowita sumę kwadratów n SST = (y i ȳ) 2. i=1 Można pokazać, że SST daje się rozbić na dwie sumy, które także interpretujemy w kategoriach zmienności.
126 Ocena dobroci dopasowania prostej regresji MNK Mianowicie SST = gdzie ŷ i = a + bx i. n n (y i ŷ i ) 2 + (ŷ i ȳ) 2, i=1 i=1
127 Ocena dobroci dopasowania prostej regresji MNK Mianowicie SST = gdzie ŷ i = a + bx i. n (y i ŷ i ) 2 + i=1 n (ŷ i ȳ) 2, Pierwszy ze składników nosi nazwę sumy kwadratów błędów, ponieważ jest suma kwadratów wartości resztowych. Jest oznaczany przez SSE. Drugi składnik nosi miano regresyjnej sumy kwadratów i jest oznaczany symbolem SSR. i=1
Statystyka. Wykład 8. Magdalena Alama-Bućko. 10 kwietnia Magdalena Alama-Bućko Statystyka 10 kwietnia / 31
Statystyka Wykład 8 Magdalena Alama-Bućko 10 kwietnia 2017 Magdalena Alama-Bućko Statystyka 10 kwietnia 2017 1 / 31 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia
Bardziej szczegółowoSTATYSTYKA OPISOWA. Dr Alina Gleska. 12 listopada Instytut Matematyki WE PP
STATYSTYKA OPISOWA Dr Alina Gleska Instytut Matematyki WE PP 12 listopada 2017 1 Analiza współzależności dwóch cech 2 Jednostka zbiorowości - para (X,Y ). Przy badaniu korelacji nie ma znaczenia, która
Bardziej szczegółowoStatystyka. Wykład 8. Magdalena Alama-Bućko. 23 kwietnia Magdalena Alama-Bućko Statystyka 23 kwietnia / 38
Statystyka Wykład 8 Magdalena Alama-Bućko 23 kwietnia 2017 Magdalena Alama-Bućko Statystyka 23 kwietnia 2017 1 / 38 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia
Bardziej szczegółowoAnaliza współzależności zjawisk. dr Marta Kuc-Czarnecka
Analiza współzależności zjawisk dr Marta Kuc-Czarnecka Wprowadzenie Prawidłowości statystyczne mają swoje przyczyny, w związku z tym dla poznania całokształtu badanego zjawiska potrzebna jest analiza z
Bardziej szczegółowoStatystyka. Wykład 7. Magdalena Alama-Bućko. 3 kwietnia Magdalena Alama-Bućko Statystyka 3 kwietnia / 36
Statystyka Wykład 7 Magdalena Alama-Bućko 3 kwietnia 2017 Magdalena Alama-Bućko Statystyka 3 kwietnia 2017 1 / 36 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia
Bardziej szczegółowoStatystyka. Wykład 7. Magdalena Alama-Bućko. 16 kwietnia Magdalena Alama-Bućko Statystyka 16 kwietnia / 35
Statystyka Wykład 7 Magdalena Alama-Bućko 16 kwietnia 2017 Magdalena Alama-Bućko Statystyka 16 kwietnia 2017 1 / 35 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia
Bardziej szczegółowoStatystyka. Wykład 9. Magdalena Alama-Bućko. 24 kwietnia Magdalena Alama-Bućko Statystyka 24 kwietnia / 34
Statystyka Wykład 9 Magdalena Alama-Bućko 24 kwietnia 2017 Magdalena Alama-Bućko Statystyka 24 kwietnia 2017 1 / 34 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia
Bardziej szczegółowoAnaliza współzależności zjawisk
Analiza współzależności zjawisk Informacje ogólne Jednostki tworzące zbiorowość statystyczną charakteryzowane są zazwyczaj za pomocą wielu cech zmiennych, które nierzadko pozostają ze sobą w pewnym związku.
Bardziej szczegółowoStatystyka. Wykład 9. Magdalena Alama-Bućko. 7 maja Magdalena Alama-Bućko Statystyka 7 maja / 40
Statystyka Wykład 9 Magdalena Alama-Bućko 7 maja 2018 Magdalena Alama-Bućko Statystyka 7 maja 2018 1 / 40 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia miary
Bardziej szczegółowoZależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),
Zależność przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), funkcyjna stochastyczna Korelacja brak korelacji korelacja krzywoliniowa korelacja dodatnia korelacja ujemna Szereg korelacyjny numer
Bardziej szczegółowoAnaliza Współzależności
Statystyka Opisowa z Demografią oraz Biostatystyka Analiza Współzależności Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag oraz Biostatystyka
Bardziej szczegółowoStatystyka w analizie i planowaniu eksperymentu
23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja
Bardziej szczegółowoElementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa
Spis treści Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa Romuald Kotowski Katedra Informatyki Stosowanej PJWSTK 2009 Spis treści Spis treści 1 Wstęp Bardzo często interesujący
Bardziej szczegółowoWprowadzenie do analizy korelacji i regresji
Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących
Bardziej szczegółowoStatystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Bardziej szczegółowoSTATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2
STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Zależność przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna), funkcyjna stochastyczna
Bardziej szczegółowoKORELACJE I REGRESJA LINIOWA
KORELACJE I REGRESJA LINIOWA Korelacje i regresja liniowa Analiza korelacji: Badanie, czy pomiędzy dwoma zmiennymi istnieje zależność Obie analizy się wzajemnie przeplatają Analiza regresji: Opisanie modelem
Bardziej szczegółowoESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW
ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW POPULACJI Szkic wykładu Wprowadzenie 1 Wprowadzenie 2 3 4 Przypomnienie dotychczasowych rozważań Przedziałem ufności nazywamy przedział losowy, o którym przypuszczamy
Bardziej szczegółowoAnaliza współzależności dwóch cech I
Analiza współzależności dwóch cech I Współzależność dwóch cech W tym rozdziale pokażemy metody stosowane dla potrzeb wykrywania zależności lub współzależności między dwiema cechami. W celu wykrycia tych
Bardziej szczegółowoX Y 4,0 3,3 8,0 6,8 12,0 11,0 16,0 15,2 20,0 18,9
Zadanie W celu sprawdzenia, czy pipeta jest obarczona błędem systematycznym stałym lub zmiennym wykonano szereg pomiarów przy różnych ustawieniach pipety. Wyznacz równanie regresji liniowej, które pozwoli
Bardziej szczegółowoPDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com
Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych
Bardziej szczegółowoZałóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb
Współzależność Załóżmy, że obserwujemy nie jedną lecz dwie cechy, które oznaczymy symbolami X i Y. Wyniki obserwacji obu cech w i-tym obiekcie oznaczymy parą liczb (x i, y i ). Geometrycznie taką parę
Bardziej szczegółowoRegresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna
Regresja wieloraka Regresja wieloraka Ogólny problem obliczeniowy: dopasowanie linii prostej do zbioru punktów. Najprostszy przypadek - jedna zmienna zależna i jedna zmienna niezależna (można zobrazować
Bardziej szczegółowoStatystyka. Wykład 6. Magdalena Alama-Bućko. 9 kwietnia Magdalena Alama-Bućko Statystyka 9 kwietnia / 36
Statystyka Wykład 6 Magdalena Alama-Bućko 9 kwietnia 2018 Magdalena Alama-Bućko Statystyka 9 kwietnia 2018 1 / 36 Krzywa koncentracji Lorenza w ekonometrii, ekologii, geografii ludności itp. koncentrację
Bardziej szczegółowoPODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH
PODSTAWOWE ROZKŁADY ZMIENNYCH LOSOWYCH Szkic wykładu 1 Podstawowe rozkłady zmiennej losowej skokowej Rozkład dwupunktowy Rozkład dwumianowy Rozkład Poissona 2 Rozkład dwupunktowy Rozkład dwumianowy Rozkład
Bardziej szczegółowoKorelacja oznacza współwystępowanie, nie oznacza związku przyczynowo-skutkowego
Korelacja oznacza współwystępowanie, nie oznacza związku przyczynowo-skutkowego Współczynnik korelacji opisuje siłę i kierunek związku. Jest miarą symetryczną. Im wyższa korelacja tym lepiej potrafimy
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 5
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y
Bardziej szczegółowoX WYKŁAD STATYSTYKA. 14/05/2014 B8 sala 0.10B Godz. 15:15
X WYKŁAD STATYSTYKA 14/05/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 10 ANALIZA KORELACJI Korelacja 1. Współczynnik korelacji 2. Kowariancja 3. Współczynnik korelacji liniowej definicja 4. Estymacja współczynnika
Bardziej szczegółowo(x j x)(y j ȳ) r xy =
KORELACJA. WSPÓŁCZYNNIKI KORELACJI Gdy w badaniu mamy kilka cech, często interesujemy się stopniem powiązania tych cech między sobą. Pod słowem korelacja rozumiemy współzależność. Mówimy np. o korelacji
Bardziej szczegółowoRegresja i Korelacja
Regresja i Korelacja Regresja i Korelacja W przyrodzie często obserwujemy związek między kilkoma cechami, np.: drzewa grubsze są z reguły wyższe, drewno iglaste o węższych słojach ma większą gęstość, impregnowane
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny 2. Zmienne losowe i teoria prawdopodobieństwa 3. Populacje i próby danych 4. Testowanie hipotez i estymacja parametrów 5. Najczęściej wykorzystywane testy statystyczne
Bardziej szczegółowoPojęcie korelacji. Korelacja (współzależność cech) określa wzajemne powiązania pomiędzy wybranymi zmiennymi.
Pojęcie korelacji Korelacja (współzależność cech) określa wzajemne powiązania pomiędzy wybranymi zmiennymi. Charakteryzując korelację dwóch cech podajemy dwa czynniki: kierunek oraz siłę. Korelacyjne wykresy
Bardziej szczegółowoKorelacja krzywoliniowa i współzależność cech niemierzalnych
Korelacja krzywoliniowa i współzależność cech niemierzalnych Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki Szczecińskiej
Bardziej szczegółowoWspółczynniki korelacji czastkowej i wielorakiej STATYSTYKA OPISOWA. Dr Alina Gleska. Instytut Matematyki WE PP. 18 listopada 2017
STATYSTYKA OPISOWA Dr Alina Gleska Instytut Matematyki WE PP 18 listopada 2017 1 Regresja krzywoliniowa 2 Model potęgowy Model potęgowy y = αx β e można sprowadzić poprzez zlogarytmowanie obu stron równania
Bardziej szczegółowoWspółczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ
Współczynnik korelacji Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ Własności współczynnika korelacji 1. Współczynnik korelacji jest liczbą niemianowaną 2. ϱ 1,
Bardziej szczegółowoStatystyka. Wykład 4. Magdalena Alama-Bućko. 13 marca Magdalena Alama-Bućko Statystyka 13 marca / 41
Statystyka Wykład 4 Magdalena Alama-Bućko 13 marca 2017 Magdalena Alama-Bućko Statystyka 13 marca 2017 1 / 41 Na poprzednim wykładzie omówiliśmy następujace miary rozproszenia: Wariancja - to średnia arytmetyczna
Bardziej szczegółowoMetodologia badań psychologicznych. Wykład 12. Korelacje
Metodologia badań psychologicznych Lucyna Golińska SPOŁECZNA AKADEMIA NAUK Wykład 12. Korelacje Korelacja Korelacja występuje wtedy gdy dwie różne miary dotyczące tych samych osób, zdarzeń lub obiektów
Bardziej szczegółowoAnaliza zależności cech ilościowych regresja liniowa (Wykład 13)
Analiza zależności cech ilościowych regresja liniowa (Wykład 13) dr Mariusz Grządziel semestr letni 2012 Przykład wprowadzajacy W zbiorze danych homedata (z pakietu R-owskiego UsingR) można znaleźć ceny
Bardziej szczegółowoR-PEARSONA Zależność liniowa
R-PEARSONA Zależność liniowa Interpretacja wyników: wraz ze wzrostem wartości jednej zmiennej (np. zarobków) liniowo rosną wartości drugiej zmiennej (np. kwoty przeznaczanej na wakacje) czyli np. im wyższe
Bardziej szczegółowoPojęcie funkcji. Funkcja liniowa
Pojęcie funkcji. Funkcja liniowa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu Wykład 2; rok akademicki 2016/2017 Zależności funkcyjne w naukach przyrodniczych Rozwój algebry
Bardziej szczegółowoZJAZD 4. gdzie E(x) jest wartością oczekiwaną x
ZJAZD 4 KORELACJA, BADANIE NIEZALEŻNOŚCI, ANALIZA REGRESJI Analiza korelacji i regresji jest działem statystyki zajmującym się badaniem zależności i związków pomiędzy rozkładami dwu lub więcej badanych
Bardziej szczegółowoWprowadzenie do technik analitycznych Metoda najmniejszych kwadratów
Wprowadzenie do technik analitycznych Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Wykład 2 Korelacja i regresja Przykład: Temperatura latem średnia liczba napojów sprzedawanych
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 7
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 7 Analiza korelacji - współczynnik korelacji Pearsona Cel: ocena współzależności między dwiema zmiennymi ilościowymi Ocenia jedynie zależność liniową. r = cov(x,y
Bardziej szczegółowoRozdział 8. Regresja. Definiowanie modelu
Rozdział 8 Regresja Definiowanie modelu Analizę korelacji można traktować jako wstęp do analizy regresji. Jeżeli wykresy rozrzutu oraz wartości współczynników korelacji wskazują na istniejąca współzmienność
Bardziej szczegółowoStatystyka. Wykład 4. Magdalena Alama-Bućko. 19 marca Magdalena Alama-Bućko Statystyka 19 marca / 33
Statystyka Wykład 4 Magdalena Alama-Bućko 19 marca 2018 Magdalena Alama-Bućko Statystyka 19 marca 2018 1 / 33 Analiza struktury zbiorowości miary położenia ( miary średnie) miary zmienności (rozproszenia,
Bardziej szczegółowoĆWICZENIE 11 ANALIZA KORELACJI I REGRESJI
ĆWICZENIE 11 ANALIZA KORELACJI I REGRESJI Korelacja 1. Współczynnik korelacji 2. Współczynnik korelacji liniowej definicja 3. Estymacja współczynnika korelacji 4. Testy istotności współczynnika korelacji
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 8
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8 Regresja wielokrotna Regresja wielokrotna jest metodą statystyczną, w której oceniamy wpływ wielu zmiennych niezależnych (X 1, X 2, X 3,...) na zmienną zależną (Y).
Bardziej szczegółowoWYKŁAD 8 ANALIZA REGRESJI
WYKŁAD 8 ANALIZA REGRESJI Regresja 1. Metoda najmniejszych kwadratów-regresja prostoliniowa 2. Regresja krzywoliniowa 3. Estymacja liniowej funkcji regresji 4. Testy istotności współczynnika regresji liniowej
Bardziej szczegółowoJEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY
JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY Będziemy zapisywać wektory w postaci (,, ) albo traktując go jak macierz jednokolumnową (dzięki temu nie będzie kontrowersji przy transponowaniu wektora ) Model
Bardziej szczegółowoStatystyka. Wykład 10. Magdalena Alama-Bućko. 14 maja Magdalena Alama-Bućko Statystyka 14 maja / 31
Statystyka Wykład 10 Magdalena Alama-Bućko 14 maja 2018 Magdalena Alama-Bućko Statystyka 14 maja 2018 1 / 31 Tematyka zajęć: Wprowadzenie do statystyki. Analiza struktury zbiorowości miary położenia miary
Bardziej szczegółowoProgramowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Bardziej szczegółowoEstymacja parametrów w modelu normalnym
Estymacja parametrów w modelu normalnym dr Mariusz Grządziel 6 kwietnia 2009 Model normalny Przez model normalny będziemy rozumieć rodzine rozkładów normalnych N(µ, σ), µ R, σ > 0. Z Centralnego Twierdzenia
Bardziej szczegółowoWykład 4 Związki i zależności
Wykład 4 Związki i zależności Rozważmy: Dane z dwiema lub więcej zmiennymi Zagadnienia do omówienia: Zmienne objaśniające i zmienne odpowiedzi Wykres punktowy Korelacja Prosta regresji Słownictwo: Zmienna
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 6
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 6 Metody sprawdzania założeń w analizie wariancji: -Sprawdzanie równości (jednorodności) wariancji testy: - Cochrana - Hartleya - Bartletta -Sprawdzanie zgodności
Bardziej szczegółowoStatystyka opisowa. Wykład V. Regresja liniowa wieloraka
Statystyka opisowa. Wykład V. e-mail:e.kozlovski@pollub.pl Spis treści 1 Prosta regresji cechy Y względem cech X 1,..., X k. 2 3 Wyznaczamy zależność cechy Y od cech X 1, X 2,..., X k postaci Y = α 0 +
Bardziej szczegółowoWNIOSKOWANIE W MODELU REGRESJI LINIOWEJ
WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y
Bardziej szczegółowoANALIZA KORELACJI Korelacja między zmiennymi X i Y jest miarą siły liniowego związku między tymi zmiennymi.
ANALIZA KORELACJI Większość zjawisk w otaczającym nas świecie występuje nie samotnie a w różnorodnych związkach. Odnosi się to również do zjawisk biologiczno-medycznych. O powiązaniach między nimi mówią
Bardziej szczegółowoSTATYSTYKA I DOŚWIADCZALNICTWO Wykład 4
STATYSTYKA I DOŚWIADCZALNICTWO Wykład 4 Inne układy doświadczalne 1) Układ losowanych bloków Stosujemy, gdy podejrzewamy, że może występować systematyczna zmienność między powtórzeniami np. - zmienność
Bardziej szczegółowoREGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ
REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ Korelacja oznacza fakt współzależności zmiennych, czyli istnienie powiązania pomiędzy nimi. Siłę i kierunek powiązania określa się za pomocą współczynnika korelacji
Bardziej szczegółowoStosowana Analiza Regresji
prostej Stosowana Wykład I 5 Października 2011 1 / 29 prostej Przykład Dane trees - wyniki pomiarów objętości (Volume), średnicy (Girth) i wysokości (Height) pni drzew. Interesuje nas zależność (o ile
Bardziej szczegółowoSzczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
Bardziej szczegółowoAnaliza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Bardziej szczegółowoW rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
Bardziej szczegółowoREGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ. Analiza regresji i korelacji
Statystyka i opracowanie danych Ćwiczenia 5 Izabela Olejarczyk - Wożeńska AGH, WIMiIP, KISIM REGRESJA I KORELACJA MODEL REGRESJI LINIOWEJ MODEL REGRESJI WIELORAKIEJ MODEL REGRESJI LINIOWEJ Analiza regresji
Bardziej szczegółowoStatystyczne metody analizy danych
Statystyczne metody analizy danych Statystyka opisowa Wykład I-III Agnieszka Nowak - Brzezioska Podstawowe pojęcia STATYSTYKA - nauka traktująca o metodach ilościowych badania prawidłowości zjawisk (procesów)
Bardziej szczegółowoStatystyczna analiza danych
Statystyczna analiza danych Korelacja i regresja Ewa Szczurek szczurek@mimuw.edu.pl Instytut Informatyki Uniwersytet Warszawski 1/30 Ostrożnie z interpretacją p wartości p wartości zależą od dwóch rzeczy
Bardziej szczegółowoStatystyka. Wykład 5. Magdalena Alama-Bućko. 20 marca Magdalena Alama-Bućko Statystyka 20 marca / 26
Statystyka Wykład 5 Magdalena Alama-Bućko 20 marca 2017 Magdalena Alama-Bućko Statystyka 20 marca 2017 1 / 26 Koncentracja Analiza struktury zbiorowości miary położenia ( miary średnie) miary zmienności
Bardziej szczegółowo7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach
Bardziej szczegółowoSzczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)
Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć) 1. Populacja generalna a losowa próba, parametr rozkładu cechy a jego ocena z losowej próby, miary opisu statystycznego
Bardziej szczegółowoWIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI REGRESJA LINIOWA
WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI REGRESJA LINIOWA Powtórka Powtórki Kowiariancja cov xy lub c xy - kierunek zależności Współczynnik korelacji liniowej Pearsona r siła liniowej zależności Istotność
Bardziej szczegółowoAnaliza korelacji
Analiza korelacji Zakres szkolenia Wstęp Podstawowe pojęcia korelacji Współczynnik korelacji liniowej Pearsona Współczynnik korelacji rang Spearmana Test istotności Zadania 2 Wstęp Do czego służy korelacja:
Bardziej szczegółowoREGRESJA (postać liniowa funkcji) - ROZWIĄZANIA Komentarze kursywą, rozwiązania oraz treści zadań pismem prostym.
REGRESJA (postać liniowa funkcji) - ROZWIĄZANIA Komentarze kursywą, rozwiązania oraz treści zadań pismem prostym. Zadanie 1 W celu ustalenia zależności między liczbą braków a wielkością produkcji części
Bardziej szczegółowoBadanie zależności skala nominalna
Badanie zależności skala nominalna I. Jak kształtuje się zależność miedzy płcią a wykształceniem? II. Jak kształtuje się zależność między płcią a otyłością (opis BMI)? III. Jak kształtuje się zależność
Bardziej szczegółowoWYRAŻENIA ALGEBRAICZNE
WYRAŻENIA ALGEBRAICZNE Wyrażeniem algebraicznym nazywamy wyrażenie zbudowane z liczb, liter, nawiasów oraz znaków działań, na przykład: Symbole literowe występujące w wyrażeniu algebraicznym nazywamy zmiennymi.
Bardziej szczegółowoistocie dziedzina zajmująca się poszukiwaniem zależności na podstawie prowadzenia doświadczeń jest o wiele starsza: tak na przykład matematycy
MODEL REGRESJI LINIOWEJ. METODA NAJMNIEJSZYCH KWADRATÓW Analiza regresji zajmuje się badaniem zależności pomiędzy interesującymi nas wielkościami (zmiennymi), mające na celu konstrukcję modelu, który dobrze
Bardziej szczegółowoStanisław Cichocki. Natalia Nehrebecka. Wykład 4
Stanisław Cichocki Natalia Nehrebecka Wykład 4 1 1. Własności hiperpłaszczyzny regresji 2. Dobroć dopasowania równania regresji. Współczynnik determinacji R 2 Dekompozycja wariancji zmiennej zależnej Współczynnik
Bardziej szczegółowoStatystyka. Wykład 5. Magdalena Alama-Bućko. 26 marca Magdalena Alama-Bućko Statystyka 26 marca / 40
Statystyka Wykład 5 Magdalena Alama-Bućko 26 marca 2018 Magdalena Alama-Bućko Statystyka 26 marca 2018 1 / 40 Uwaga Gdy współczynnik zmienności jest większy niż 70%, czyli V s = s x 100% > 70% (co świadczy
Bardziej szczegółowoFunkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne.
Funkcje wymierne. Funkcja homograficzna. Równania i nierówności wymierne. Funkcja homograficzna. Definicja. Funkcja homograficzna jest to funkcja określona wzorem f() = a + b c + d, () gdzie współczynniki
Bardziej szczegółowoSTATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE
STATYSTYKA - PRZYKŁADOWE ZADANIA EGZAMINACYJNE 1 W trakcie badania obliczono wartości średniej (15,4), mediany (13,6) oraz dominanty (10,0). Określ typ asymetrii rozkładu. 2 Wymień 3 cechy rozkładu Gauss
Bardziej szczegółowoPojęcie funkcji. Funkcja liniowa
Pojęcie funkcji. Funkcja liniowa dr Mariusz Grządziel Wykład 1; 1 października 2013 1 Matematyka w naukach przyrodniczych Zależności funkcyjne w naukach przyrodniczych Rozwój algebry i analiza matematycznej
Bardziej szczegółowoZmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
Bardziej szczegółowoPOLITECHNIKA OPOLSKA
POLITECHNIKA OPOLSKA WYDZIAŁ MECHANICZNY Katedra Technologii Maszyn i Automatyzacji Produkcji Laboratorium Podstaw Inżynierii Jakości Ćwiczenie nr 4 Temat: Analiza korelacji i regresji dwóch zmiennych
Bardziej szczegółowo4. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych.
Jarosław Wróblewski Matematyka dla Myślących, 008/09. Postęp arytmetyczny i geometryczny. Wartość bezwzględna, potęgowanie i pierwiastkowanie liczb rzeczywistych. 15 listopada 008 r. Uwaga: Przyjmujemy,
Bardziej szczegółowoCechy X, Y są dowolnego typu: Test Chi Kwadrat niezależności. Łączny rozkład cech X, Y jest normalny: Test współczynnika korelacji Pearsona
Badanie zależności między cechami Obserwujemy dwie cechy: X oraz Y Obiekt (X, Y ) H 0 : Cechy X oraz Y są niezależne Próba: (X 1, Y 1 ),..., (X n, Y n ) Cechy X, Y są dowolnego typu: Test Chi Kwadrat niezależności
Bardziej szczegółowo1. Opis tabelaryczny. 2. Graficzna prezentacja wyników. Do technik statystyki opisowej można zaliczyć:
Wprowadzenie Statystyka opisowa to dział statystyki zajmujący się metodami opisu danych statystycznych (np. środowiskowych) uzyskanych podczas badania statystycznego (np. badań terenowych, laboratoryjnych).
Bardziej szczegółowoBiostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Bardziej szczegółowoWeryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowo( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:
ma postać y = ax + b Równanie regresji liniowej By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : xy b = a = b lub x Gdzie: xy = też a = x = ( b ) i to dane empiryczne, a ilość
Bardziej szczegółowoMODELE LINIOWE. Dr Wioleta Drobik
MODELE LINIOWE Dr Wioleta Drobik MODELE LINIOWE Jedna z najstarszych i najpopularniejszych metod modelowania Zależność między zbiorem zmiennych objaśniających, a zmienną ilościową nazywaną zmienną objaśnianą
Bardziej szczegółowoparametrów strukturalnych modelu = Y zmienna objaśniana, X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających,
诲 瞴瞶 瞶 ƭ0 ƭ 瞰 parametrów strukturalnych modelu Y zmienna objaśniana, = + + + + + X 1,X 2,,X k zmienne objaśniające, k zmiennych objaśniających, α 0, α 1, α 2,,α k parametry strukturalne modelu, k+1 parametrów
Bardziej szczegółowoĆWICZENIE 11 NIEPARAMETRYCZNE TESTY ISTOTNOŚCI
ĆWICZENIE 11 NIEPARAMETRYCZNE TESTY ISTOTNOŚCI ANALIZA KORELACJI Korelacja 1. Współczynnik korelacji 2. Współczynnik korelacji liniowej definicja 3. Estymacja współczynnika korelacji 4. Testy istotności
Bardziej szczegółowoLokalna odwracalność odwzorowań, odwzorowania uwikłane
Lokalna odwracalność odwzorowań, odwzorowania uwikłane Katedra Matematyki i Ekonomii Matematycznej Szkoła Główna Handlowa 17 maja 2012 Definicja Mówimy, że odwzorowanie F : X R n, gdzie X R n, jest lokalnie
Bardziej szczegółowoRozkłady statystyk z próby
Rozkłady statystyk z próby Rozkłady statystyk z próby Przypuśćmy, że wykonujemy serię doświadczeń polegających na 4 krotnym rzucie symetryczną kostką do gry, obserwując liczbę wyrzuconych oczek Nr kolejny
Bardziej szczegółowoPODSTAWY WNIOSKOWANIA STATYSTYCZNEGO czȩść II
PODSTAWY WNIOSKOWANIA STATYSTYCZNEGO czȩść II Szkic wykładu 1 Wprowadzenie 2 3 4 5 Weryfikacja hipotez statystycznych Obok estymacji drugim działem wnioskowania statystycznego jest weryfikacja hipotez
Bardziej szczegółowoWykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe
Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe Nierówność Czebyszewa Niech X będzie zmienną losową o skończonej wariancji V ar(x). Wtedy wartość oczekiwana E(X) też jest skończona i
Bardziej szczegółowoDefinicja i własności wartości bezwzględnej.
Równania i nierówności z wartością bezwzględną. Rozwiązywanie układów dwóch (trzech) równań z dwiema (trzema) niewiadomymi. Układy równań liniowych z parametrem, analiza rozwiązań. Definicja i własności
Bardziej szczegółowoFunkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.
Funkcje wymierne Jerzy Rutkowski Teoria Przypomnijmy, że przez R[x] oznaczamy zbiór wszystkich wielomianów zmiennej x i o współczynnikach rzeczywistych Definicja Funkcją wymierną jednej zmiennej nazywamy
Bardziej szczegółowoKARTA KURSU. (do zastosowania w roku ak. 2015/16) Kod Punktacja ECTS* 4
KARTA KURSU (do zastosowania w roku ak. 2015/16) Nazwa Statystyka 1 Nazwa w j. ang. Statistics 1 Kod Punktacja ECTS* 4 Koordynator Dr hab. Tadeusz Sozański (koordynator, wykłady) Dr Paweł Walawender (ćwiczenia)
Bardziej szczegółowoWstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra
Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 2012 Uwarunkowanie zadania numerycznego Niech ϕ : R n R m będzie pewna funkcja odpowiednio wiele
Bardziej szczegółowo4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Bardziej szczegółowo