Wstęp do probabilistyki i statystyki Wykład 6. Zmienne losowe dr inż. Krystyna Schneider, Katedra Elektroniki, WIEiT AGH Wstęp do probabilistyki i statystyki. wykład 4 1
Plan: Pojęcie zmiennej losowej Ilościowy opis zmiennych losowych Wstęp do probabilistyki i statystyki. wykład 4
Pojęcie zmiennej losowej Zmienna losowa jest to funkcja X, która przypisuje liczbę rzeczywistą x danemu wynikowi eksperymentu losowego. { e, e, X : R X ( e ) i 1 x i R Przykłady: 1) Rzut monetą: zdarzeniu orzeł przypisujemy 1; zdarzeniu reszka przypisujemy 0. ) Losowanie wyrobów: zdarzeniu brak (wadliwy) - 0, dobry 1 3) Rzut kostką: wyrzucenie 1 1, itd 4) Odcinek [a, b] na osi liczbowej wybór punktu o współrzędnej x przypisujemy np. wartość x ; wartość sin (3x+17) itp. } Wstęp do probabilistyki i statystyki. wykład 4 3
Zmienna losowa dyskretna Gdy wartości zmiennej losowej X są izolowanymi punktami na osi liczbowej (obejmują skończony przedział wartości) Rzut monetą Błędy przy transmisji Wadliwe układy z linii produkcyjnej. Ilość połączeń przychodzących w ciągu 5 minut ciągła Gdy wartości zmiennej losowej stanowią wszystkie punkty odcinka (obejmują przedział liczb rzeczywistych) Natężenie prądu w przewodniku Temperatura Ciśnienie Wstęp do probabilistyki i statystyki. wykład 4 4
Ilościowy opis zmiennych losowych Rozkład zmiennej losowej lub rozkład prawdopodobieństwa (tylko dla zmiennych dyskretnych) Funkcja gęstości prawdopodobieństwa (tylko dla zmiennych ciągłych) Dystrybuanta (funkcja rozkładu dla zmiennych dyskretnych i ciągłych) Wielkości charakteryzujące (wartość oczekiwana, wariancja, kwantyle, itp.) Wstęp do probabilistyki i statystyki. wykład 4 5
Rozkład zmiennej losowej Rozkładem zmiennej losowej (rozkładem prawdopodobieństwa dla zmiennych dyskretnych) nazywamy zbiór par (x i,p i ) gdzie x i jest wartością zmiennej losowej X, a p i jest prawdopodobieństwem, że zmienna losowa X przyjmuje wartość x i. Przykład 4.1 Rozkład prawdopodobieństwa dla jednokrotnego rzutu monetą. Zdarzeniu polegającemu na wyrzuceniu orła przypisujemy x 1 =1; zdarzeniu polegającemu na wyrzuceniu reszki x =0. Zatem: 1 x1 1 p( X 1) p( x1 ) 1 x 0 p( X 0) p( x) Wstęp do probabilistyki i statystyki. wykład 4 6
p(x) Rozkład zmiennej losowej Przykład 4.1 cd Rozkład prawdopodobieństwa dla jednokrotnego rzutu monetą jest następującym zbiorem par: { (1, 1 ), (0, 1 )} 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0, 0,1 0,0 prawdopodob. zdarzenia 0,0 0,5 1,0 Zmienna losowa jest w tym przypadku skokowa (dyskretna) a jej rozkład jest też skokowy (dyskretny). X Wstęp do probabilistyki i statystyki. wykład 4 7
Funkcja gęstości prawdopodobieństwa Funkcję gęstości prawdopodobieństwa wprowadza się dla zmiennych ciągłych; ma ona związek z prawdopodobieństwem: f ( x) dx P( x X x dx) Wstęp do probabilistyki i statystyki. wykład 4 8
Funkcja gęstości prawdopodobieństwa Funkcję gęstości prawdopodobieństwa wprowadza się dla zmiennych ciągłych; ma ona związek z prawdopodobieństwem: f ( x) dx P( x X x dx) Własności funkcji gęstości prawdopodobieństwa: 1. f ( x) 0. f ( x) jest unormowana f ( x) dx 1 3. f(x) ma wymiar 1/x Wstęp do probabilistyki i statystyki. wykład 4 9
Funkcja gęstości prawdopodobieństwa Z definicji funkcji gęstości prawdopodobieństwa f(x) wynika praktyczny sposób obliczania prawdopodobieństwa, że wartość zmiennej losowej znajduje się w przedziale [a,b]: P ( a X b) f ( x) dx b a Nie ma sensu pytać, jakie jest prawdopodobieństwo, że x=a Wstęp do probabilistyki i statystyki. wykład 4 10
f(x) Funkcja gęstości prawdopodobieństwa Przykład 4. Oznaczmy przez X zmienną losową ciągłą, która opisuje natężenie prądu w cienkim przewodzie miedzianym (w jednostkach ma). Załóżmy, że zakres X wynosi [0, 0 ma] i funkcja gęstości prawdopodobieństwa jest dana jest jako f(x)=0,05 w tym przedziale. Oblicz prawdopodobieństwo, że zmierzone natężenie prądu jest mniejsze niż 10 ma. 0,10 0,08 gestosc prawdop. 0,06 0,04 10 P( 0 X 10) f ( x) dx 0,05 dx 0 10 0 0,5 0,00 0 10 0 30 Wstęp do probabilistyki i statystyki. wykład 4 11 0,0 X
Ilościowy opis zmiennych losowych Dystrybuantą (funkcja rozkładu, ang. cumulative distribution function CDF) F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa X przyjmie wartość mniejszą od x (co najwyżej daną wartość) Przykład 4.1 cd F( x) P( X x) Dystrybuanta dla rzutu monetą: F( x 0) P( X 0) F( x 1) P( X 1) 1 1 Wstęp do probabilistyki i statystyki. wykład 4 1
Ilościowy opis zmiennych losowych Dystrybuantą (funkcja rozkładu, ang. cumulative distribution function CDF) F(x) nazywamy prawdopodobieństwo tego, że zmienna losowa X przyjmie wartość mniejszą od x (co najwyżej daną wartość) Przykład 4.1 cd F( x) P( X x) Dystrybuanta dla rzutu monetą: F( x 0) P( X 0) F( x 1) P( X 1) 1 1 Wstęp do probabilistyki i statystyki. wykład 4 13
Własności dystrybuanty 1. 0 F( x) 1. F( ) 0 3. F( ) 1 4. x y F( x) F( y) 5. F(x) nie posiada wymiaru 6. f ( x) df( x) dx Jest funkcją niemalejącą Związek gęstości prawdopodobieństwa z dystrybuantą (dla zmiennej ciągłej) Wstęp do probabilistyki i statystyki. wykład 4 14
Przykład 4.3 Dystrybuanta dla zmiennej dyskretnej F ( x) P( X x) f ( x ) x x f (x i ) rozkład prawdopodobieństwa Na podstawie następujących wartości dystrybuanty F(x) znajdź funkcję rozkładu prawdopodobieństwa f(x) F( x) 0 1 dla 0, 0,7 x dla dla dla 0 x x x 0 Na podstawie rysunku, jedynymi punktami dla których f(x) 0 są -, 0,. f ( ) 0, 0 0, f ( 0) 0,7 0, 0, 5 f ( ) 1,0 0,7 0, 3 Wstęp do probabilistyki i statystyki. wykład 4 15 i i
Dystrybuanta dla zmiennej ciągłej t F ( t) P( X t) f ( u) du Dystrybuanta zmiennej ciągłej jest niemalejącą funkcją ciągłą a oblicza się ją jako pole pod wykresem funkcji gęstości prawdopodobieństwa. Wstęp do probabilistyki i statystyki. wykład 4 16
Numeryczne miary opisowe MIARY (parametry) OPISOWE Położenia Kwantyle (np. mediana) Moda Rozproszenia Wariancja (Odchylenie standardowe) Rozstęp Wartość oczekiwana (średnia, nadzieja matematyczna) Wstęp do probabilistyki i statystyki. wykład 4 17
F( x Charakterystyki rozkładu prawdopodobieństwa Fraktyl (kwantyl) x q jest to wartość zmiennej losowej, dla której dystrybuanta przyjmuje wartość q. q ) P( X x q x q f ( u) du Najczęściej stosowanym kwantylem jest mediana czyli x 0.5. ) q Przykład 4.4 Dla dyskretnego rozkładu eksperymentalnego o wynikach: 19, 1, 1, 1,,, 3, 5, 6, 7 mediana wynosi bo jest wartość środkowa uporządkowanego zbioru wartości (albo średnia arytmetyczna dwóch środkowych wielkości). Wstęp do probabilistyki i statystyki. wykład 4 18
Charakterystyki rozkładu prawdopodobieństwa Moda (wartość modalna) jest to taka wartość zmiennej losowej, dla której rozkład prawdopodobieństwa (lub funkcja gęstości prawdopodobieństwa) osiąga maksimum. Rozkłady jednomodalne mają jedną modę (wielomodalne więcej niż jedną) W przykładzie 4.4 dla dyskretnego rozkładu eksperymentalnego o wynikach: 19, 1, 1, 1,,, 3, 5, 6, 7 moda wynosi 1 bo jest wartość, która pojawia się najczęściej w zbiorze wyników. Wstęp do probabilistyki i statystyki. wykład 4 19
Średnia arytmetyczna: Wartość średnia x i - elementy zbioru n elementowego (niekoniecznie różne): x = 1 n n i= 1 W przykładzie 4.4 dla dyskretnego rozkładu eksperymentalnego o wynikach: 19, 1, 1, 1,,, 3, 5, 6, 7 wartość średnia wynosi,7. x i Wstęp do probabilistyki i statystyki. wykład 4 0
Średnia arytmetyczna Jeżeli wiele elementów ma w zbiorze tę samą wartość, to dzielimy zbiór na klasy zawierające identyczne elementy o liczebnościach n k : Przykład 4.5 x k n k f k 10, 1 0,0357 1,3 4 0,149 1,4 0,0714 13,4 8 0,857 16,4 4 0,149 17,5 3 0,1071 19,3 1 0,0357 1,4 0,0714,4 0,0714 5, 1 0,0357 Razem 8 x = x 1 f 1 + x f =10, 0,04+ 1,3 0,14+ + 5, 0,04 x =15,77 + + x Wstęp do probabilistyki i statystyki. wykład 4 1 x = p k 1 n n k n n x k = p k 1 gdzie: k f =, p liczba klas p n Warunek normalizacji k f k x k n f n =
Charakterystyki rozkładu prawdopodobieństwa Moment rozkładu rzędu k względem punktu x 0 m k ( x ) ( xi x0) p( x k 0 i i ) dla zmiennych dyskretnych m k k ( x 0) ( x x0) f ( x) dx dla zmiennych ciągłych Najważniejszymi momentami są te, które są liczone względem początku układu współrzędnych czyli względem x 0 =0 (m k ) oraz momenty liczone względem X 0 =m 1 tj. względem pierwszego momentu względem początku układu współrzędnych (m 1 nazywamy wartością oczekiwaną, wartością średnią lub nadzieją matematyczną) to są momenty centralne µ k. Wstęp do probabilistyki i statystyki. wykład 4
Charakterystyki rozkładu prawdopodobieństwa Wartość oczekiwana oznaczana jako: m 1, E(X), µ,, x xˆ E( X ) i x i p i dla zmiennych dyskretnych E( X ) x f ( x) dx dla zmiennych ciągłych E(X) jest współrzędną punktu, który byłby środkiem masy rozkładu prawdopodobieństwa (lub pola pod funkcją gęstości prawdopodobieństwa f(x)) gdyby p i traktować jak masy (lub odpowiednio f(x) jak fizyczną gęstość). Wstęp do probabilistyki i statystyki. wykład 4 3
Własności E(X) E(X) jest operatorem liniowym co oznacza, że: 1. E( Ci X i) CiE( X i) co prowadzi w konsekwencji do: i E(C)= C E(CX)= CE(X) E(X 1 +X )=E(X 1 )+E(X ). Dla niezależnych zmiennych X 1, X, X n E( X i) E( X i) i Warunkiem koniecznym i wystarczającym by zmienne były niezależne jest Wstęp do probabilistyki i statystyki. wykład 4 4 i f ( X, X,..., X n) f1( X1) f( X )... i ( X 1 n n f )
Własności E(X) 3. Dla funkcji zmiennej X; Y= Y(X) wartość oczekiwana E(Y) może być znaleziona przy pomocy rozkładu zmiennej X bez konieczności szukania rozkładu f(y) E ( Y) y( xi ) i p i dla zmiennych dyskretnych E( Y) y( x) f ( x) dx dla zmiennych ciągłych Można zauważyć, że dowolny moment m k (x 0 ) może być potraktowany jako wartość oczekiwana funkcji Y(X)=(X-x 0 ) k m k k ( x0) ( x x0) f ( x) dx E(( x x0) k ) Wstęp do probabilistyki i statystyki. wykład 4 5
Charakterystyki rozkładu prawdopodobieństwa Wariancja (dyspersja) oznaczana jako: σ (X), var(x), V(X), D(X). Pierwiastek z wariancji nazywamy odchyleniem standardowym σ(x) ( X ) i pi ( x E( X i )) dla zmiennych dyskretnych ( X ) f ( x)( x E( X ) dx dla zmiennych ciągłych Wariancja (lub odchylenie standardowe) jest miarą rozrzutu zmiennej losowej wokół wartości oczekiwanej. W analizie danych doświadczalnych utożsamiamy wartość oczekiwaną pomiarów wykonanych w obecności błędów przypadkowych z wartością rzeczywistą mierzonej wielkości. Miarą błędu przypadkowego jest odchylenie standardowe bo ono określa rozrzut wyników wokół wartości rzeczywistej. Wstęp do probabilistyki i statystyki. wykład 4 6
Własności σ (X) Wariancję można obliczyć stosując wartości oczekiwane: 1. ( X ) E( X ( X ) co prowadzi w konsekwencji do: σ (C)= 0 σ (CX)= C σ (X) σ (C 1 X+C )= C 1 σ (X). Dla niezależnych zmiennych X 1, X, X n ) E ( C X ) C i i i i i ( X ) Wstęp do probabilistyki i statystyki. wykład 4 7
Wariancja σ (X) Przykład 4.6 W urnie jest 100 losów, z których połowa wygrywa. Jest 30 wygranych po 5 zł, 15 wygranych po 50 zł i 5 wygranych po 00 zł. Zawodnik wyciąga jeden los. Jaka jest wartość oczekiwana jego wygranej i wariancja (zakładając jednakowe prawdopodobieństwo wyciągnięcia każdego losu). Wstęp do probabilistyki i statystyki. wykład 4 8
Przykład 4.6 Wariancja σ (X) W urnie jest 100 losów, z których połowa wygrywa. Jest 40 wygranych po 5 zł, 9 wygranych po 50 zł i 1 wygrana główna - 00 zł. Zawodnik wyciąga jeden los. Jaka jest wartość oczekiwana jego wygranej i wariancja (zakładając jednakowe prawdopodobieństwo wyciągnięcia każdego losu). Rozkład prawdopodobieństwa rozpatrywanej zmiennej losowej skokowej X przedstawia się następująco: Wartość oczekiwana tego rozkładu wynosi: E(X) = i x i p i = 5 0,4 + 50 0,09 + 00 0,01 + 0 0,5 = 8,5 zł Wariancja: x i 5 50 00 0 p i 0,4 0,09 0,01 0,5 ( X ) i pi ( x E( X )) i (X)=(5-8,5) 0,4+(50-8,5) 0,09+(00-8,5) 0,01+(0-8,5) 0,5=56,75 9
Przykład 4.7 Wariancja σ (X) Zmienne losowe X 1 i X są niezależne. Znaleźć wariancję zmiennej losowej X = 5X 1 3X, jeżeli wiadomo, że (X 1 )=0,1 i (X )=1,5. Ponieważ zmienne losowe X 1 i X są niezależne, to niezależne są też zmienne 5X 1 i (-)3X. Korzystając z dwóch własności wariancji: -wariancja sumy (różnicy) niezależnych zmiennych losowych jest równa sumie wariancji tych zmiennych -stały współczynnik można wyłączyć przed znak wariancji podnosząc go do kwadratu: (X)= (5X 1-3X ) = (5X 1 ) + (3X ) = = 5 (X 1 ) + 9 (X ) = 5 0,1+9 1,5 = 16 30
Nierówność Czebyszewa Interpretacja wariancji wynika z nierówności Czebyszewa: Twierdzenie: Prawdopodobieństwo odchylenia wartości zmiennej losowej od oczekiwanej E(X) o a-krotną wartość odchylenia standardowego jest mniejsze bądź równe 1/a Twierdzenie to jest słuszne dla wszystkich rozkładów, które mają wariancję, a zatem i wartość oczekiwaną. Liczba a jest dowolną, dodatnią liczbą rzeczywistą. Wstęp do probabilistyki i statystyki. wykład 4 31
Wariancja jako miara rozproszenia DUŻE ROZPROSZENIE MNIEJSZE ROZPROSZENIE Wstęp do probabilistyki i statystyki. wykład 4 3
Rozstęp jako miara rozproszenia ROZSTĘP = x max - x min Wstęp do probabilistyki i statystyki. wykład 4 33
Praktyczne sposoby obliczania wariancji Wariancja z próby (n-elementowej): s = n 1 xi n 1 i= 1 x średnia x Wariancja z populacji (N-elementowej): μ σ = średnia z 1 N N i= 1 x populacji i μ oczekiwana Wstęp do probabilistyki i statystyki. wykład 4 34
Praktyczne sposoby obliczania odchylenia standardowego Odchylenie standardowe próby (lub: błąd standardowy): s = 1 n 1 n i= 1 x i x Odchylenie standardowe (populacji): σ = 1 N N i= 1 x i μ Wstęp do probabilistyki i statystyki. wykład 4 35
Cecha statystyczna Właściwość populacji, która jest przedmiotem badania statystycznego. Def. Cecha = funkcja przypisująca elementom populacji elementy zbioru wartości cechy statystycznej. W ramach badania statystycznego zbierane są wartości określonej cechy statystycznej nazwane wartościami zaobserwowanymi cechy statystycznej, lub danymi statystycznymi. Dane takie mają taki sam charakter jak cecha (ilościowy, jakościowy itp.), jednakże po przetworzeniu charakter tych danych może ulec degradacji. Zróżnicowanie wartości cechy statystycznej powoduje, że można mówić o jej rozkładzie w populacji. Wstęp do probabilistyki i statystyki. wykład 4 36
Klasyfikacja cech statystycznych Cechy zmienne Zmienne cechy statystyczne to właściwości różnicujące jednostki z badanej populacji, czyli posiadające więcej niż 1 wariant. Liczba wariantów zmiennej cechy może być skończona lub nieskończona. Jeżeli liczba wariantów wynosi to cechę taką nazywamy dychotomiczną (dwudzielną, binarną). Jeżeli liczba wariantów przekracza to cechę taką nazywamy politomiczną (wielodzielną). Wstęp do probabilistyki i statystyki. wykład 4 37
Cechy zmienne Klasyfikacja cech statystycznych ilościowe (mierzalne) np. wzrost, masa, wiek ciągłe np. wzrost, masa, wiek (w rozumieniu ilości dni między datą urodzin a datą badania) porządkowe (quasi-ilościowe) np. klasyfikacja wzrostu: (niski, średni, wysoki) skokowe (dyskretne) np. liczba posiadanych dzieci, liczba gospodarstw domowych, wiek (w rozumieniu ilości skończonych lat) jakościowe (niemierzalne) np. kolor oczu, płeć, grupa krwi Wstęp do probabilistyki i statystyki. wykład 4 38
Cechy zmienne Klasyfikacja cech statystycznych Z praktycznego punktu widzenia istotniejszy jest podział zaproponowany przez Stevensa w 1946 roku, gdyż stwierdził on, że nie wszystkie operacje matematyczne są dopuszczalne na dowolnie wybranych cechach, a następnie zaproponował czterostopniową klasyfikację pozwalającą określić zbiór dopuszczalnych operacji w tym przekształceń statystycznych. Podstawowy podział wyróżnia 4 cechy: ilościowe (ang. quantitative) np. wzrost, masa, wiek proporcjonalne (ang. ratio) interwałowe (ang. interval) jakościowe (ang. qualitative) np. kolor oczu, płeć porządkowe (ang. ordinal) np. (niski, średni, wysoki) nominalne (ang. nominal) np. kolor oczu, płeć, grupa krwi Wstęp do probabilistyki i statystyki. wykład 4 39
Klasyfikacja cech statystycznych Cechy zmienne, ilościowe, proporcjonalne Cechy proporcjonalne spełniają kryteria cech interwałowych, a ponadto muszą posiadać znaczące zero(nie powinny dopuszczać istnienia wartości ujemnych). Możemy z sensem mówić o proporcjach, czyli że jedna próba jest np. dwa razy większa od drugiej (jest to cecha multiplikatywna). Przykłady masa rezystancja temperatura wyrażona w Kelwinach, bo przyjmujemy istnienie zera i możemy twierdzić, że jedno ciało jest dwukrotnie gorętsze od drugiego długość czas trwania kolor paska na rezystorze przyjmuje np. wartości z szeregu (czarny, brązowy, czerwony, pomarańczowy, żółty, zielony, niebieski, fioletowy, szary, biały), gdyż kolory te reprezentują szereg liczbowy (0, 1,, 3, 4, 5, 6, 7, 8, 9) spełniający powyższe kryteria obecność zbiór wartości {nieobecny,obecny} przyjmując nieobecny = 0 i obecny = 1 uzyskujemy cechę binarną z wyróżnionym zerem Dopuszczalne operacje przekształcenia liniowe (addytywne i skalowalne) Wstęp do probabilistyki i statystyki. wykład 4 40
Klasyfikacja cech statystycznych Cechy zmienne, ilościowe, interwałowe Cechy interwałowe spełniają kryteria cech porządkowych, a ponadto dystans (interwał) pomiędzy wartościami musi być znaczący (stały). Możemy z sensem mówić o interwałach, czyli porównywać odległości między wartościami z różnych obszarów skali (jest to cecha addytywna). Przykłady temperatura wyrażona w stopniach Celsjusza lub Fahrenheita, bo możemy twierdzić, że coś jest o 0 C cieplejsze od czegoś innego, ale nie możemy stwierdzić ilokrotnie cieplejsze jest ciało o temperaturze 40 C od ciała o temperaturze 10 C. data kalendarzowa, bo możemy mówić o stałej różnicy pomiędzy kolejnymi dniami gęstość jest to cecha interwałowa logarytmiczna, bo możemy mówić o stałej różnicy pomiędzy kolejnymi dniami płeć zbiór wartości {kobieta,mężczyzna} jest to cecha binarna, w której nie można wskazać zerowej wartości Dopuszczalne operacje przekształcenia liniowe (addytywne i skalowalne) Wstęp do probabilistyki i statystyki. wykład 4 41
Klasyfikacja cech statystycznych Cechy zmienne, jakościowe, porządkowe Cechy porządkowe tak jak cechy nominalne jednoznacznie identyfikują wartość cechy, a ponadto są uporządkowane w rosnącej kolejności. Możemy z sensem mówić o relacjach, czyli porównywać między sobą dwie wartości (jest to cecha sortowalna). Wstęp do probabilistyki i statystyki. wykład 4 4
Klasyfikacja cech statystycznych Cechy zmienne, jakościowe, porządkowe Przykłady stopień zadowolenia przyjmuje np. wartości z szeregu (nieszczęśliwy, niezadowolony, obojętny, zadowolony, szczęśliwy) jednakże nie można przyjąć, że różnica między nieszczęśliwym a niezadowolonym jest taka sama jak między obojętnym a zadowolonym wykształcenie przyjmuje np. wartości z szeregu (brak, podstawowe, gimnazjalne, zasadnicze zawodowe, średnie, wyższe zawodowe, niepełne wyższe, wyższe) stadium choroby przyjmuje np. wartości z szeregu (brak, stan początkowy, stan zaawansowany, stan terminalny) kolor w fizyce przyjmuje wartości z szeregu (fioletowy, niebieski, zielony, żółty, pomarańczowy, czerwony), odczyn Biernackiego (OB) przyjmuje wartości liczbowe, jednakże choć wartości te są porównywalne (mniej lub więcej) to nie są liniowe twardość minerałów wyrażona w skali twardości Mohsa Wstęp do probabilistyki i statystyki. wykład 4 43
Klasyfikacja cech statystycznych Cechy zmienne, jakościowe, porządkowe Przykłady stopień zadowolenia wykształcenie stadium choroby kolor w fizyce odczyn Biernackiego (OB) twardość minerałów wyrażona w skali twardości Mohsa Dopuszczalne operacje przekształcenia rosnące (niezmieniające kolejności elementów i zachowujące ich różnorodność) przekształcenia niemalejące (niezmieniające kolejności elementów) Wstęp do probabilistyki i statystyki. wykład 4 44
Klasyfikacja cech statystycznych Cechy zmienne, jakościowe, nominalne Cechy nominalne są to cechy posiadające wartości wzajemnie się wykluczające (cecha o jednoznacznie określonych możliwych wartościach). W przeciwieństwie do cech porządkowych wartości te nie dają się sensownie uporządkować (jest to cecha jedynie jednoznaczna). Uwaga: cechy nominalne (dla niepoznaki) mogą być oznaczone kodami liczbowymi, jednakże nie czyni ich to od razu cechami porządkowymi. Przykłady płeć przyjmuje wartości ze zbioru {kobieta,mężczyzna} jednakże nie można określić, która wartość jest większa stan cywilny przyjmuje np. wartości ze zbioru {wolny, zamężny, wdowiec,rozwiedziony} grupa krwi przyjmuje wartości ze zbioru {0, A, B, AB} jednakże nie można określić, która wartość jest większa (A czy B) kolor oczu przyjmuje wartości ze zbioru {brązowe,piwne, bursztynowe, zielone, niebieskie, szare,fioletowe} numer zawodnika przyjmuje wartości ze zbioru np. {1,, 3, 4, 5, 6, 7, 8, 9, 10, 11, 1} jednakże nie można twierdzić, że zawodnik o wyższym numerze jest lepszy od poprzedniego Wstęp do probabilistyki i statystyki. wykład 4 45
Klasyfikacja cech statystycznych Cechy zmienne, jakościowe, nominalne Cechy nominalne są to cechy posiadające wartości wzajemnie się wykluczające (cecha o jednoznacznie określonych możliwych wartościach). W przeciwieństwie do cech porządkowych wartości te nie dają się sensownie uporządkować (jest to cecha jedynie jednoznaczna). Uwaga: cechy nominalne (dla niepoznaki) mogą być oznaczone kodami liczbowymi, jednakże nie czyni ich to od razu cechami porządkowymi. Przykłady płeć stan cywilny grupa krwi kolor oczu numer zawodnika Dopuszczalne operacje przekształcenia różnowartościowe (jeden do jednego) przekształcenia na (wiele do jednego) stratne! Wstęp do probabilistyki i statystyki. wykład 4 46
Cechy stałe Klasyfikacja cech statystycznych Cechy stałe są to cechy statystyczne, które w danym badaniu statystycznym stanowią wspólną właściwość populacji (nie różnicują badanych jednostek). Cechy stałe stanowią tylko kryterium przynależności jednostki do określonej zbiorowości statystycznej. Cechy stałe w jednym badaniu statystycznym mogą być cechami zmiennymi w innym. Cechy stałe dzielimy na rzeczowe, przestrzenne i czasowe. Cechy rzeczowe (cechy przedmiotowe) określają co jest przedmiotem badania. Cechy przestrzenne określają gdzie (miejsce lub obszar) ulokowane były badane jednostki. Cechy czasowe określają kiedy (moment lub okres) przeprowadzane było badanie. Wstęp do probabilistyki i statystyki. wykład 4 47