Klasyfikacja metodą Bayesa
|
|
- Aleksandra Kaczmarczyk
- 9 lat temu
- Przeglądów:
Transkrypt
1 Klasyfikacja metodą Bayesa Tadeusz Pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. 2. Rozważamy hipotezę, że obiekt o właściwości X należy do klasy C. 3. Z punktu widzenia zadania klasyfikacji chcemy obliczyć prawdopodobieństwo P(C X) tego, że obiekt o właściwości X należy do klasy C. Bayesa 1 Bayesa 2 P(C X) jest tzw. prawdopodobieństwem warunkowym (a posteriori) zdarzenia C (należenie do klasy C) pod warunkiem zajścia zdarzenia X (posiadanie właściwości X). Przykład: Rozważamy populację owoców. Przypuśćmy, że rozważaną właściwością X obiektu o jest: X: o jest owocem okrągłym i czerwonym, a C jest klasą jabłek. Wówczas P(C X) wyraża nasze przekonanie, że owoc jest jabłkiem, jeśli zaobserwowaliśmy, że jest on okrągły i czerwony. Przeciwieństwem prawdopodobieństwa warunkowego jest prawdopodobieństwo bezwarunkowe. W naszym przypadku P(C) wyraża prawdopodobieństwo, że obserwowany owoc jest jabłkiem. Prawdopodobieństwo to nazywamy prawdopodobieństwem bezwarunkowym (a priori). Prawdopodobieństwo warunkowe, P(C X uwzględnia więcej informacji (wiedza X podczas gdy prawdopodobieństwo bezwarunkowe P(C) jest niezależne od X. Bayesa 3 Bayesa 4
2 Podobnie, P(X C) jest prawdopodobieństwem warunkowym zajścia zdarzenia X pod warunkiem zajścia zdarzenia C. Jest więc na przykład prawdopodobieństwem, że owoc jest okrągły i czerwony, jeśli wiadomo, że jest jabłkiem. P(X) jest prawdopodobieństwem bezwarunkowym. Oznacza więc na przykład prawdopodobieństwem tego, że obserwowany (wybrany losowo) owoc jest czerwony i okrągły. Klasyfikacja metodą Bayesa twierdzenie Bayesa Twierdzenia Bayesa pokazuje, w jaki sposób obliczyć prawdopodobieństwo warunkowe P(C X jeśli znane są prawdopodobieństwa: warunkowe P(X C) oraz bezwarunkowe P(C) i P(X). Prawdopodobieństwa: P(X C P(C) oraz P(X) mogą być bezpośrednio wyliczone z danych zgromadzonych w treningowym zbiorze danych (w bazie danych). Twierdzenie Bayesa: Bayesa 5 Bayesa 6 Twierdzenie Bayesa Dowód (z prawdopodobieństwa warunkowego): P ( C X ) = P( C X ) = P( C )P( X C ) Klasyfikacja Bayesa (naiwna) Każdy obiekt traktowany jest jako wektor X (krotka) wartości atrybutów A 1,..., A n : X = (x 1, x 2,..., x n ). Niech C 1,..., C m będą klasami, do których może należeć X, P(C X) niech oznacza prawdopodobieństwo przynależności X (ściślej: obiektów o właściwości X) do klasy C. W klasyfikacji Bayesa przypisujemy X do tej klasy, do której prawdopodobieństwo warunkowe przynależności X jest największe. X jest więc przypisany do C i, jeśli P(C i X) P(C k X dla każdego k, 1 k m, k i. Bayesa 7 Bayesa 8
3 1. W klasyfikacji Bayesa maksymalizujemy: Klasyfikacja Bayesa 2. Ponieważ P(X) jest stałe, więc wystarczy maksymalizować iloczyn P(X C i )P(C i ). 3. Ponadto przyjmujemy: P(C i ) = s i / s, gdzie s oznacza liczbę obiektów w zbiorze treningowym, a s i oznacza liczbę obiektów w klasie C i. 4. Dla X = (x 1, x 2,..., x n wartość P(X C i ) obliczamy jako iloczyn: P(X C i ) = P(x 1 C i )*P(x 2 C i )*... *P(x n C i przy czym: P(x k C i ) = s ik / s i, gdzie s ik oznacza liczbę obiektów klasy C i, dla których wartość atrybutu A k jest równa x k, a s i oznacza liczbę wszystkich obiektów klasy C i w zadanym zbiorze treningowym. 9 Przykład klasyfikacji metodą Bayesa Algorytm: Klasyfikacja obiektów metodą Bayesa. Wejście: Rozważana populacja obiektów (klientów) opisana jest za pomocą czterech atrybutów: Wiek, Dochód, Studia, OcenaKred. Interesuje nas przynależność obiektów do jednej z dwóch klas: klienci kupujący komputery (o etykiecie TAK) i klienci nie kupujący komputerów (o etykiecie NIE). Z bazy danych wybrano zbiór treningowy (rozważany przez nas przy budowie drzew decyzyjnych następny slajd). Obiekt X o nieznanej przynależności klasowej ma postać: X = (Wiek = <=30, Dochód = średni, Student = tak, OcenaKred = dobra ) Wyjście: Określić przynależność obiektu X do klasy C 1 ( tak ) lub C 2 ( nie ) za pomocą klasyfikacji Bayesa. Bayesa 10 Przykład klasyfikacji metodą Bayesa Zbiór treningowy: Klasyfikowany obiekt: X = (Wiek = <=30, Dochód = średni, Student = tak, OcenaKred = dobra ) Bayesa 11 Przykład klasyfikacji metodą Bayesa (c.d.) 1. Należy obliczyć, dla jakiej wartości i, i =1, 2, iloczyn P(X C i )*P(C i osiąga maksimum. 2. P(C i ) oznacza prawdopodobieństwo bezwarunkowe przynależności obiektu do klasy (inaczej: prawdopodobieństwo klasy) C i, i = 1, 2. Ze zbioru treningowego obliczamy: P(C 1 ) = 9/14 = P(C 2 ) = 5/14 = Prawdopodobieństwa warunkowe P(X C i ) są odpowiednio równe iloczynom prawdopodobieństw warunkowych: ) = P(Wiek= <=30 C 1 ) * P(Dochód= średni C 1 ) P(Studia= tak C 1 ) * P(OcenaKred= dobra C 1 ) = P(Wiek= <=30 C 2 ) * P(Dochód= średni C 2 ) P(Studia= tak C 2 ) * P(OcenaKred= dobra C 2 Bayesa 12
4 Przykład klasyfikacji metodą Bayesa (c.d.) Ze zbioru treningowego obliczamy: P(Wiek= <=30 C 1 ) = 2/9 = P(Dochód= średni C 1 ) = 4/9 = P(Studia= tak C 1 ) = 6/9 = P(OcenaKred= dobra C 1 ) = 6/9 = P(Wiek= <=30 C 2 ) = 3/5 = P(Dochód= średni C 2 ) = 2/5 = 0,400 P(Studia= tak C 2 ) = 1/5 = P(OcenaKred= dobra C 2 ) = 2/5 = Stąd: ) = 0.222*0.444*0.667*0.667 = = )P(C 1 ) = 0.044*0.643 = ) = 0.600*0.400*0.200*0.400 = = )P(C 2 ) = 0.019*0.357 = X został zaklasyfikowany do C 1. Twierdzenia Bayesa można użyć do interpretacji rezultatów badania przy użyciu testów wykrywających narkotyki. Załóżmy, że przy badaniu narkomana test wypada pozytywnie w 99% przypadków, zaś przy badaniu osoby nie zażywającej narkotyków wypada negatywnie w 99% przypadków. Pewna firma postanowiła przebadać swoich pracowników takim testem wiedząc, że 0,5% z nich to narkomani. Chcemy obliczyć prawdopodobieństwo, że osoba u której test wypadł pozytywnie rzeczywiście zażywa narkotyki. Oznaczmy następujące zdarzenia: D - dana osoba jest narkomanem N - dana osoba nie jest narkomanem + - u danej osoby test dał wynik pozytywny - u danej osoby test dał wynik negatywny Bayesa 14 P(D) = 0,005, gdyż 0,5% pracowników to narkomani P(N) = 1 P(D) = 0,995 P( + D) = 0,99, skuteczność testu przy badaniu narkomana P( N) = 0,99, gdyż taką skuteczność ma test przy badaniu osoby nie będacej narkomanem P( + N) = 1 P( N) = 0,01 Mając tedanechcemyobliczyć prawdopodobieństwo, że osobau której test wypadł pozytywnie, rzeczywiście jest narkomanem. Tak więc: Mimo potencjalnie wysokiej skuteczności testu, prawdopodobieństwo, że narkomanem jest badany pracownik u którego test dał wynik pozytywny, jest równe około 33%, więc jest nawet bardziej prawdopodobnym, ze taka osoba nie zażywa narkotyków. Ten przykład pokazuje, dlaczego ważne jest, aby nie polegać na wynikach tylko pojedynczego testu
5 Przykład 2 Wśród studentów jest 60% mężczyzn i 40% kobiet. Połowa studentek chodzi w spodniach, a połowa w spódniczkach. Wszyscy studenci noszą spodnie. Obserwator widzi osobę w spodniach. Jakie jest prawdopodobieństwo, że jest to studentka? P(A) = 0.4 prawdopodobieństwo, że osoba jest studentką, P(A') = 0.6 prawdopodobieństwo, że osoba jest studentem, P(B A) = 0.5 prawdopodobieństwo, że osoba będąca studentką nosi spodnie, P(C A) = 0.5 prawdopodobieństwo, że osoba będąca studentką nosi spódnicę, P(B A') = 1 prawdopodobieństwo, że osoba będąca studentem nosi spodnie. Obliczyć: P(A B) prawdopodobieństwo, że osoba w spodniach jest studentką Obliczamy: P(B) prawdopodobieństwo, że losowo wybrana osoba nosi spodnie P(B) = P(B A)P(A) + P(B A')P(A') = =
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Przestrzeń probabilistyczna
Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty zbiór Σ rodzina podzbiorów tego zbioru P funkcja określona na Σ, zwana prawdopodobieństwem. Przestrzeń probabilistyczna (Ω, Σ, P) Ω pewien niepusty
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. 3.2. Niezależność zdarzeń Katarzyna Rybarczyk-Krzywdzińska Niezależność dwóch zdarzeń Intuicja Zdarzenia losowe
P (A B) P (B) = 1/4 1/2 = 1 2. Zakładamy, że wszystkie układy dwójki dzieci: cc, cd, dc, dd są jednakowo prawdopodobne.
Wykład Prawdopodobieństwo warunkowe Dwukrotny rzut symetryczną monetą Ω {OO, OR, RO, RR}. Zdarzenia: Awypadną dwa orły, Bw pierwszym rzucie orzeł. P (A) 1 4, 1. Jeżeli już wykonaliśmy pierwszy rzut i wiemy,
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Zadania o numerze 4 z zestawów licencjat 2014.
Zadania o numerze 4 z zestawów licencjat 2014. W nawiasie przy zadaniu jego występowanie w numerze zestawu Spis treści (Z1, Z22, Z43) Definicja granicy ciągu. Obliczyć granicę:... 3 Definicja granicy ciągu...
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Klasyfikacja bayesowska
Wykład14,26V2010,str.1 Przykład: (Bishop) M Jabłka i pomarańcze: Wyciągnięto pomarańczę; jakie jest prawdopodobieństwo, że naczynie było niebieskie? Wykład14,26V2010,str.2 TWIERDZENIE: (Bayes) M Wykład14,26V2010,str.2
+ r arcsin. M. Przybycień Rachunek prawdopodobieństwa i statystyka π r x
Prawdopodobieństwo geometryczne Przykład: Przestrzeń zdarzeń elementarnych określona jest przez zestaw punktów (x, y) na płaszczyźnie i wypełnia wnętrze kwadratu [0 x 1; 0 y 1]. Znajdź p-stwo, że dowolny
Podstawy Teorii Prawdopodobieństwa
Statystyka Opisowa z Demografią oraz Biostatystyka Podstawy Teorii Prawdopodobieństwa Aleksander Denisiuk denisjuk@euh-e.edu.pl Elblaska Uczelnia Humanistyczno-Ekonomiczna ul. Lotnicza 2 82-300 Elblag
Sztuczna inteligencja : Algorytm KNN
Instytut Informatyki Uniwersytetu Śląskiego 23 kwietnia 2012 1 Algorytm 1 NN 2 Algorytm knn 3 Zadania Klasyfikacja obiektów w oparciu o najbliższe obiekty: Algorytm 1-NN - najbliższego sąsiada. Parametr
Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne
Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład
Prawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Zdarzenia losowe i prawdopodobieństwo
Rozdział 1 Zdarzenia losowe i prawdopodobieństwo 1.1 Klasyfikacja zdarzeń Zdarzenie elementarne pojęcie aprioryczne, które nie może być zdefiniowane. Odpowiednik pojęcia punkt w geometrii. Zdarzenie elementarne
STATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW
ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW POPULACJI Szkic wykładu Wprowadzenie 1 Wprowadzenie 2 3 4 Przypomnienie dotychczasowych rozważań Przedziałem ufności nazywamy przedział losowy, o którym przypuszczamy
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka
Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym
Edward Stachowski Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym W podstawie programowej obowiązującej na egzaminie maturalnym od 05r pojawiły się nowe treści programowe Wśród
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Wykład 3 Hipotezy statystyczne
Wykład 3 Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu obserwowanej zmiennej losowej (cechy populacji generalnej) Hipoteza zerowa (H 0 ) jest hipoteza
Statystyka Astronomiczna
Statystyka Astronomiczna czyli zastosowania statystyki w astronomii historycznie astronomowie mieli wkład w rozwój dyscypliny Rachunek prawdopodobieństwa - gałąź matematyki Statystyka - metoda oceny właściwości
Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.
GLM (Generalized Linear Models) Data Mining Wykład 6 Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa Naiwny klasyfikator Bayesa jest klasyfikatorem statystycznym -
PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH
Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest
Rzucamy dwa razy sprawiedliwą, sześcienną kostką do gry. Oblicz prawdopodobieństwo otrzymania:
Statystyka Ubezpieczeniowa Część 1. Rachunek prawdopodobieństwa: - prawdopodobieństwo klasyczne - zdarzenia niezależne - prawdopodobieństwo warunkowe - prawdopodobieństwo całkowite - wzór Bayesa Schemat
Twierdzenie Bayesa. Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623
Twierdzenie Bayesa Indukowane Reguły Decyzyjne Jakub Kuliński Nr albumu: 53623 Niniejszy skrypt ma na celu usystematyzowanie i uporządkowanie podstawowej wiedzy na temat twierdzenia Bayesa i jego zastosowaniu
Systemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Fuzja sygnałów i filtry bayesowskie
Fuzja sygnałów i filtry bayesowskie Roboty Manipulacyjne i Mobilne dr inż. Janusz Jakubiak Katedra Cybernetyki i Robotyki Wydział Elektroniki, Politechnika Wrocławska Wrocław, 10.03.2015 Dlaczego potrzebna
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji ML Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011
Sieci Bayesa mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2011 Sieć Bayesowska służy do przedstawiania zależności pomiędzy zdarzeniami bazując na rachunku prawdopodobieństwa.
Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 2 autorzy: A. Gonczarek, J.M. Tomczak Metody estymacji Zad. 1 Pojawianie się spamu opisane jest zmienną losową x o rozkładzie dwupunktowym
), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0
Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2
STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon η eta Θ θ theta
Rachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe,
Rachunku prawdopodobieństwa: rys historyczny, aksjomatyka, prawdopodobieństwo warunkowe, niezależność zdarzeń dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu Semestr letni
Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu Wrocław, 01.03.2017r Przykład 2.1 Właściciel firmy produkującej telefony komórkowe twierdzi, że wśród jego produktów
Wykład 11: Podstawowe pojęcia rachunku prawdopodobieństwa
Wykład : Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grządziel 3 maja 203 Doświadczenie losowe Doświadczenie nazywamy losowym, jeśli: może być powtarzane (w zasadzie) w tych samych warunkach;
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 1 1 / 24 Warunki zaliczenia 1 Do egzaminu dopuszczeni wszyscy, którzy uczęszczali na
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa
Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa 25 marca 209 Zadanie. W urnie jest b kul białych i c kul czarnych. Losujemy n kul bez zwracania. Jakie jest prawdopodobieństwo, że pierwsza kula
Statystyka i eksploracja danych
Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,
Rozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Podstawy metod probabilistycznych. dr Adam Kiersztyn
Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych
Wnioskowanie statystyczne i weryfikacja hipotez statystycznych Wnioskowanie statystyczne Wnioskowanie statystyczne obejmuje następujące czynności: Sformułowanie hipotezy zerowej i hipotezy alternatywnej.
KURS PRAWDOPODOBIEŃSTWO
KURS PRAWDOPODOBIEŃSTWO Lekcja 4 Prawdopodobieństwo całkowite i twierdzenie Bayesa. Drzewko stochastyczne. Schemat Bernoulliego. ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowiedź
Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.
Inteligencja obliczeniowa stud. niestac. Laboratorium 4: Zadanie klasyfikacji poznanie trzech algorytmów klasyfikujących: knn, NaiveBayes, drzewo decyzyjne. Przy pomnijmy sobie bazę danych z irysami. Na
Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite
Wstęp do probabilistyki i statystyki Wykład 2. Zdarzenia niezależne i prawdopodobieństwo całkowite dr hab.inż. Katarzyna Zakrzewska, prof.agh, Katedra lektroniki, WIT AGH Wstęp do probabilistyki i statystyki.
Podstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności. Dr Anna ADRIAN Paw B5, pok407
Rachunek prawdopodobieństwa i statystyka - W 9 Testy statystyczne testy zgodności Dr Anna ADRIAN Paw B5, pok407 adan@agh.edu.pl Weryfikacja hipotez dotyczących postaci nieznanego rozkładu -Testy zgodności.
1 Klasyfikator bayesowski
Klasyfikator bayesowski Załóżmy, że dane są prawdopodobieństwa przynależności do klasp( ),P( 2 ),...,P( L ) przykładów z pewnego zadania klasyfikacji, jak również gęstości rozkładów prawdopodobieństw wystąpienia
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo przynależności obiektu do klasy. Opiera się na twierdzeniu Bayesa. Twierdzenia
11. Gry Macierzowe - Strategie Czyste i Mieszane
11. Gry Macierzowe - Strategie Czyste i Mieszane W grze z doskonałą informacją, gracz nie powinien wybrać akcję w sposób losowy (o ile wypłaty z różnych decyzji nie są sobie równe). Z drugiej strony, gdy
Statystyka i eksploracja danych
Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura
Wykład 10 Testy jednorodności rozkładów
Wykład 10 Testy jednorodności rozkładów Wrocław, 16 maja 2018 Test Znaków test jednorodności rozkładów nieparametryczny odpowiednik testu t-studenta dla prób zależnych brak normalności rozkładów Test Znaków
WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
p k (1 p) n k. k c. dokładnie 10 razy została wylosowana kula amarantowa, ale nie za pierwszym ani drugim razem;
05DRAP - Niezależność zdarzeń, schemat Bernoulliego Definicja.. Zdarzenia A i B nazywamy niezależnymi, jeżeli zachodzi równość P(A B) = P(A) P(B). Definicja. 2. Zdarzenia A,..., A n nazywamy niezależnymi
Wprowadzenie. Data Science Uczenie się pod nadzorem
Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych
Rachunek prawdopodobieństwa dla informatyków
Rachunek prawdopodobieństwa dla informatyków Adam Roman Instytut Informatyki UJ Wykład 1 rys historyczny zdarzenia i ich prawdopodobieństwa aksjomaty i reguły prawdopodobieństwa prawdopodobieństwo warunkowe
Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład
Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT
04DRAP - Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite,
04DRAP - Prawdopodobieństwo warunkowe, prawdopodobieństwo całkowite, wzór Bayesa Definicja. 1. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warunkiem zajścia zdarzenia B, gdzie P(B > 0, nazywamy
R_PRACA KLASOWA 1 Statystyka i prawdopodobieństwo.
R_PRACA KLASOWA 1 Statystyka i prawdopodobieństwo. Zadanie 1. Wyznacz średnią arytmetyczną, dominantę i medianę zestawu danych: 1, 5, 3, 2, 2, 4, 4, 6, 7, 1, 1, 4, 5, 5, 3. Zadanie 2. W zestawie danych
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne
Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne 5.3 Rozkłady warunkowe i warunkowa wartość oczekiwana Katarzyna Rybarczyk-Krzywdzińska semestr zimowy 2015/2016 Prawdopodobieństwo wyraża postawę
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa
Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa M. Czoków, J. Piersa 2012-01-10 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego 3 1 Łańcucha Markowa 2 Istnienie Szukanie stanu stacjonarnego
Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa
Co to jest klasyfikacja? Klasyfikacja a grupowanie Naiwny klasyfikator Bayesa Odkrywanie asocjacji Wzorce sekwencji Analiza koszykowa Podobieństwo szeregów temporalnych Klasyfikacja Wykrywanie odchyleń
Metody probabilistyczne
Metody probabilistyczne Prawdopodobieństwo warunkowe Jędrzej Potoniec Część I Podstawy interpretacji wyników badań medycznych Badanie raka Grupa kobiet w wieku 40 lat bierze udział w przesiewowej mammografi,
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Centralne twierdzenie graniczne
Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski Wykład 4 Ważne uzupełnienie Dwuwymiarowy rozkład normalny N (µ X, µ Y, σ X, σ Y, ρ): f XY (x, y) = 1 2πσ X σ Y 1 ρ 2 { [ (x ) 1
III. ZMIENNE LOSOWE JEDNOWYMIAROWE
III. ZMIENNE LOSOWE JEDNOWYMIAROWE.. Zmienna losowa i pojęcie rozkładu prawdopodobieństwa W dotychczas rozpatrywanych przykładach każdemu zdarzeniu była przyporządkowana odpowiednia wartość liczbowa. Ta
Algorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Uwaga. Decyzje brzmią różnie! Testy parametryczne dotyczące nieznanej wartości
TESTOWANIE HIPOTEZ Przez hipotezę statystyczną rozumiemy, najogólniej mówiąc, pewną wypowiedź na temat rozkładu, z którego pochodzi próbka. Hipotezy dzielimy na parametryczne i nieparametryczne. Parametrycznymi
Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013
Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:
Wykład 8 Dane kategoryczne
Wykład 8 Dane kategoryczne Wrocław, 19.04.2017r Zmienne kategoryczne 1 Przykłady zmiennych kategorycznych 2 Zmienne nominalne, zmienne ordynalne (porządkowe) 3 Zmienne dychotomiczne kodowanie zmiennych
Po co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji
ODSTWY STTYSTYKI 1. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5. Testy parametryczne 6.
Statystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 dr inż. Anna Skowrońska-Szmer zima 2017/2018 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją
Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014
Estymacja przedziałowa - przedziały ufności dla średnich Wrocław, 5 grudnia 2014 Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja Przedziałem ufności dla paramertu
Algorytmy stochastyczne Wykład 12, Uczenie parametryczne w sieciach bayesowskich
Algorytmy stochastyczne Wykład 2, Uczenie parametryczne w sieciach bayesowskich Jarosław Piersa 204-05-22 Zagadnienie uczenia sieci bayesowskich Problem mamy strukturę sieci bayesowskiej węzły, stany i
Wybrane rozkłady zmiennych losowych. Statystyka
Wybrane rozkłady zmiennych losowych Statystyka Rozkład dwupunktowy Zmienna losowa przyjmuje tylko dwie wartości: wartość 1 z prawdopodobieństwem p i wartość 0 z prawdopodobieństwem 1- p x i p i 0 1-p 1
Uczenie sieci neuronowych i bayesowskich
Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10
Wydział Matematyki. Testy zgodności. Wykład 03
Wydział Matematyki Testy zgodności Wykład 03 Testy zgodności W testach zgodności badamy postać rozkładu teoretycznego zmiennej losowej skokowej lub ciągłej. Weryfikują one stawiane przez badaczy hipotezy
WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska
Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem
Sztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1
Przestrzenie wektorowe
Rozdział 4 Przestrzenie wektorowe Rozważania dotyczące przestrzeni wektorowych rozpoczniemy od kilku prostych przykładów. Przykład 4.1. W przestrzeni R 3 = {(x, y, z) : x, y, z R} wprowadzamy dwa działania:
Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa
Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa 2.0. Wstęp Katarzyna Rybarczyk-Krzywdzińska Wstęp Dlaczego prawdopodobieństwo klasyczne nie wystarcza? Jak opisać grę w ruletkę,
Zagadnienie klasyfikacji (dyskryminacji)
Zagadnienie klasyfikacji (dyskryminacji) Przykład Bank chce klasyfikować klientów starających się o pożyczkę do jednej z dwóch grup: niskiego ryzyka (spłacających pożyczki terminowo) lub wysokiego ryzyka
Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:
Zadania ze statystyki cz. 7. Zad.1 Z populacji wyłoniono próbę wielkości 64 jednostek. Średnia arytmetyczna wartość cechy wyniosła 110, zaś odchylenie standardowe 16. Należy wyznaczyć przedział ufności
Technologie baz danych
Plan wykładu Technologie baz danych Wykład 2: Relacyjny model danych - zależności funkcyjne. SQL - podstawy Definicja zależności funkcyjnych Reguły dotyczące zależności funkcyjnych Domknięcie zbioru atrybutów