Wnioskowanie bayesowskie

Podobne dokumenty
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Klasyfikacja metodą Bayesa

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Weryfikacja hipotez statystycznych

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

1.1 Wstęp Literatura... 1

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Agnieszka Nowak Brzezińska Wykład III

Metody probabilistyczne

Wnioskowanie statystyczne. Statystyka w 5

Weryfikacja hipotez statystycznych

Biostatystyka, # 3 /Weterynaria I/

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 7 i 8 - Efektywność estymatorów, przedziały ufności

ESTYMACJA PRZEDZIAŁOWA WYBRANYCH PARAMETRÓW

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Agnieszka Nowak Brzezińska Wykład III

Testowanie hipotez statystycznych.

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

LABORATORIUM Populacja Generalna (PG) 2. Próba (P n ) 3. Kryterium 3σ 4. Błąd Średniej Arytmetycznej 5. Estymatory 6. Teoria Estymacji (cz.

Aproksymacja funkcji a regresja symboliczna

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Estymacja parametrów rozkładu cechy

Rozkłady statystyk z próby

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Statystyka matematyczna dla leśników

Wykład 3 Hipotezy statystyczne

LABORATORIUM 6 ESTYMACJA cz. 2

Literatura. Leitner R., Zacharski J., Zarys matematyki wyŝszej dla studentów, cz. III.

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

7. Estymacja parametrów w modelu normalnym( ) Pojęcie losowej próby prostej

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Opis przedmiotu. Karta przedmiotu - Probabilistyka I Katalog ECTS Politechniki Warszawskiej

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

Opis przedmiotu: Probabilistyka I

Prawa wielkich liczb, centralne twierdzenia graniczne

dr Jerzy Pusz, st. wykładowca, Wydział Matematyki i Nauk Informacyjnych Politechniki Warszawskiej B. Ogólna charakterystyka przedmiotu

WNIOSKOWANIE STATYSTYCZNE

Estymacja parametro w 1

Estymacja punktowa i przedziałowa

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

Estymacja parametrów w modelu normalnym

Agata Boratyńska Statystyka aktuarialna... 1

6.4 Podstawowe metody statystyczne

Spacery losowe generowanie realizacji procesu losowego

STATYSTYKA MATEMATYCZNA WYKŁAD 4. Testowanie hipotez Estymacja parametrów

Grupowanie materiału statystycznego

Podstawowe modele probabilistyczne

Wykład 2 Zmienne losowe i ich rozkłady

Pobieranie prób i rozkład z próby

166 Wstęp do statystyki matematycznej

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

STATYSTYKA INDUKCYJNA. O sondażach i nie tylko

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Kolokwium ze statystyki matematycznej

Sposoby prezentacji problemów w statystyce

Adam Kirpsza Zastosowanie regresji logistycznej w studiach nad Unią Europejska. Anna Stankiewicz Izabela Słomska

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

ZMIENNE LOSOWE. Zmienna losowa (ZL) X( ) jest funkcją przekształcającą przestrzeń zdarzeń elementarnych w zbiór liczb rzeczywistych R 1 tzn. X: R 1.

SIGMA KWADRAT. Weryfikacja hipotez statystycznych. Statystyka i demografia CZWARTY LUBELSKI KONKURS STATYSTYCZNO-DEMOGRAFICZNY

MATEMATYKA Z ELEMENTAMI STATYSTYKI LABORATORIUM KOMPUTEROWE DLA II ROKU KIERUNKU ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZESTAWY ZADAŃ

STATYSTYKA

TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Tablica Wzorów Rachunek Prawdopodobieństwa i Statystyki

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

WYKŁAD 5 TEORIA ESTYMACJI II

Elementy statystyki opisowej, podstawowe pojęcia statystyki matematycznej

Statystyka matematyczna. Wykład IV. Weryfikacja hipotez statystycznych

W4 Eksperyment niezawodnościowy

STATYSTYKA MATEMATYCZNA

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI ROZKŁAD STATYSTYK Z PRÓBY

Metody systemowe i decyzyjne w informatyce

Statystyka opisowa. Robert Pietrzykowski.

III. ZMIENNE LOSOWE JEDNOWYMIAROWE

Na podstawie dokonanych obserwacji:

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Rozkłady statystyk z próby. Statystyka

Statystyka w przykładach

Estymacja przedziałowa. Przedział ufności

Rachunek Prawdopodobieństwa i Statystyka

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Statystyka i eksploracja danych

Zmienna losowa. Rozkład skokowy

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

Transkrypt:

Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów, weryfikować hipotezy dotyczące rozkładów badanych cech, badać różne zależności pomiędzy badanymi cechami i wyznaczać różne związki między nimi. Na podstawie próby losowej wnioskujemy na temat całej badanej populacji. Oprócz podejścia klasycznego istnieje tzw. podejście bayesowskie, które pozwala analitykowi korzystać nie tylko z wyników zaobserwowanych w próbie, ale także z informacji a priori dotyczących rozważanego problemu. W podejściu klasycznym zakładamy, że parametry rozkładu badanej cechy w populacji, takie jak średnia, wariancja, frakcja elementów określonego rodzaju w populacji są określonymi, choć nieznanymi wielkościami. Natomiast w podejściu bayesowskim zakładamy, że interesujące nas parametry są zmiennymi losowymi. Możemy zatem na podstawie wiedzy eksperckiej (informacji a priori) przewidywać ich rozkłady i na podstawie danych z próby modyfikować te przypuszczenia. W podejściu bayesowskim matematyczny związek prawdopodobieństw wynikających z informacji a priori i prawdopodobieństw wynikających z obserwacji próby opiera się na twierdzeniu Bayesa i stąd jego nazwa. Schematyczne porównanie podejścia klasycznego z podejściem bayesowskim przedstawia poniższy rysunek: W ogólności podejście bayesowskie nie musi jednak doprowadzić do wniosków dokładniejszych niż podejście klasyczne. Jeżeli informacja a priori, którą dysponujemy jest dokładna, wówczas jej wykorzystanie łącznie z informacją pochodzącą z próby prowadzi do wniosków dokładniejszych od wniosków uzyskanych w podejściu klasycznym. Jeżeli jednak informacja a priori jest niedokładna, korzystanie z niej i z informacji z próby może prowadzić do wniosków mniej dokładnych od tych, do których doszlibyśmy pomijając informację a priori.

Jeżeli informacja a priori jest bezpośrednim rezultatem wcześniejszych badań statystycznych i nie opiera się na czyjejś przypadkowej wiedzy o badanym problemie, to analiza bayesowska jest w pełni obiektywna. Często jednak informacja a priori odzwierciedla tylko osobiste poglądy osoby przeprowadzającej analizę lub innej osoby dysponującej tylko pewną przypadkową wiedzą o badanym problemie. Wówczas informacja a priori ma charakter subiektywny i dlatego sama idea wykorzystania informacji a priori w analizie statystycznej jest często przez niektórych atakowana. Przypomnimy teraz znane twierdzenie o prawdopodobieństwie całkowitym i twierdzenie Bayesa. Niech (Ω, F, P) będzie dowolną przestrzenią probabilistyczną. Twierdzenie o prawdopodobieństwo całkowitym Jeżeli B 1, B 2,, B n F są zdarzeniami losowymi wykluczającymi się, dla których B 1 B 2 B n = Ω oraz P(B i ) > 0 dla i = 1,2,, n, to dla każdego zdarzenia losowego A F zachodzi następujący wzór: n P(A) = P(A B i ) P(B i ) = P(A B 1 ) P(B 1 )+... +P(A B n ) P(B n ) i=1 Prawdopodobieństwa P(B i ) nazywamy prawdopodobieństwami a priori (danymi z góry, przed doświadczeniem). Wzór Bayesa (Twierdzenie Bayesa) Niech będą spełnione założenia twierdzenia o prawdopodobieństwie całkowitym. Wówczas dla dowolnego zdarzenia losowego A Ω takiego, że P(A) > 0, zachodzi następujący wzór: P(B i A) = P(A B i) P(B i ), i = 1, 2,, n. P(A) Prawdopodobieństwa P(B i A) nazywamy prawdopodobieństwami a posteriori (danymi po zbadaniu, po doświadczeniu). Zdarzenia B 1, B 2,, B n nazywamy przyczynami, a zdarzenie A skutkiem. Z twierdzenia Bayesa wynika, że można obliczać prawdopodobieństwa a posteriori, gdy są znane ich prawdopodobieństwa a priori oraz warunkowe prawdopodobieństwa skutku przy danej przyczynie. Twierdzenie Bayesa pozwala połączyć informację a priori z wynikami badań próbnych, czego wynikiem jest informacja a posteriori (po pobraniu próby).

Uogólnimy teraz twierdzenie Bayesa na zmienne losowe dyskretne (skokowe). W tym celu wykorzystamy warunkowe prawdopodobieństwa przyporządkowane poszczególnym elementom zbioru wszystkich możliwych wartości dyskretnej zmiennej losowej, które tworzą funkcję wiarygodności. Funkcja wiarygodności przyporządkowuje warunkowe prawdopodobieństwa P(x θ) pojawienia się wyniku obserwacji x możliwym wartościom nieznanego parametru θ. Korzystając z funkcji wiarygodności i apriorycznych prawdopodobieństw P(θ) przyjęcia przez parametr θ określonych wartości, otrzymujemy następującą postać twierdzenia Bayesa: Twierdzenie Bayesa dla dyskretnej zmiennej losowej Zachodzi wzór P(x θ) P(θ) P(θ x) =, i P(x θ i ) P(θ i ) gdzie θ jest nieznanym parametrem populacji (przyjmującym wartości θ i ), który ma być oszacowany na podstawie wyników obserwacji. Oczywiście sumowanie w mianowniku rozciąga się na wszystkie możliwe wartości interesującego nas parametru θ i a x reprezentuje dane (wyniki obserwacji). Ponieważ w podejściu bayesowskim zakładamy, że interesujący nas parametr jest zmienną losową, to możemy sprecyzować posiadaną informację a priori o tym parametrze poprzez przypisanie mu apriorycznego rozkładu prawdopodobieństwa. Następnie, po otrzymaniu wyników obserwacji (danych), możemy ustalić funkcję wiarygodności, czyli funkcję określającą prawdopodobieństwo otrzymania tych danych przy różnych wartościach parametru, generowaną przez założony aprioryczny rozkład prawdopodobieństwa. Z kolei ta informacja jest przez twierdzenie Bayesa przekształcona w aposterioryczne prawdopodobieństwo interesującego nas parametru. To aposterioryczne prawdopodobieństwo uwzględnia zarówno wyniki obserwacji (dane), jak i informację a priori. Aposterioryczny rozkład prawdopodobieństwa może być następnie wykorzystany do wnioskowania statystycznego. Z wnioskowaniem może się łączyć wyznaczanie przedziałów ufności dla parametrów, które w przypadku analizy bayesowskiej często bywają nazywane zbiorami wiarygodnymi (ang. credibile sets) o założonym z góry prawdopodobieństwie aposteriorycznym.

Pokażemy teraz na przykładzie wykorzystanie twierdzenia Bayesa w przypadku, gdy interesującym nas parametrem jest frakcja elementów określonego rodzaju w badanej populacji. Załóżmy, że analityk rynku chce określić udział pewnej firmy w rynku, czyli chce oszacować frakcję ludności mieszkającej na danym terenie nabywającej produkt tej firmy,. Niech S będzie parametrem, który ma zostać oszacowany, czyli oznacza udział firmy w rynku w całej populacji na danym obszarze. Na podstawie poprzednich badań nad podobnymi zagadnieniami oraz informacji o branży analityk sformułował aprioryczne prawdopodobieństwa różnych udziałów firmy w rynku, podane w poniższej tabeli: S P(S) 0,1 (10%) 0,05 0,2 (20%) 0,15 0,3 (30%) 0,20 0,4 (40%) 0,30 0,5 (50%) 0,20 0,6 (60%) 0,10-1,00 Zatem tabela ta zawiera rozkład apriorycznych prawdopodobieństw zmiennej losowej S. Przyporządkowuje ona różnym możliwym wartościom parametru S stopnie przekonania analityka (wyrażone jako prawdopodobieństwa), że parametr przybierze właśnie tę wartość. Analityk pobiera teraz próbę złożoną z 20 osób i stwierdza, że 4 spośród nich nabywa produkt interesującej go firmy. Analityk chce teraz połączyć za pomocą twierdzenia Bayesa informację o apriorycznym rozkładzie prawdopodobieństwa udziału firmy w rynku z wynikami badań próbnych i dojść do aposteriorycznych prawdopodobieństw udziału w rynku. Zauważmy, że przy podejściu klasycznym, wszystko, co można byłoby zrobić, sprowadzałoby się do wykorzystania informacji o udziale firmy w rynku zaobserwowanym w próbie S = x n = 4 = 0,2 = 20% 20 do oszacowania tego udziału w całej populacji i ewentualnie do wyznaczenia przedziału ufności dla tego parametru lub sprawdzenia odpowiedniej hipotezy. Korzystając z twierdzenia Bayesa dla dyskretnych zmiennych losowych analityk aktualizuje swoją informację a priori, łącząc ją z wynikami obserwacji pochodzącymi z próby.

Analityk oblicza prawdopodobieństwa warunkowe P(x S), które tworzą funkcję wiarygodności. Obliczając je, analityk odpowiada na następujące pytania: Na ile prawdopodobne byłoby uzyskanie takiego wyniku w próbie, jaki uzyskaliśmy (4 sukcesy w ciągu 20 doświadczeń), gdyby prawdopodobieństwo sukcesu w jednym doświadczeniu, czyli udział w rynku w całej badanej populacji, było odpowiednio równe 0,1, 0,2, 0,3, 0,4, 0,5 i 0,6? Do obliczenia tych prawdopodobieństw wykorzystujemy oczywiście rozkład dwumianowy (n = 20, k=4, p = 0,1 (0,2; 0,3; 0,4; 0,5; 0,6 odpowiednio)). Analityk może już obliczyć szukane prawdopodobieństwa a posteriori. Wyniki tych obliczeń zawiera poniższa tabela: S P(S) P(x S) P(S)P(x S) P(S x) 0,1 0,2 0,3 0,4 0,5 0,6 0,05 0,15 0,20 0,30 0,20 0,10 0,0898 0,2182 0,1304 0,0350 0,0046 0,0003 0,00449 0,03273 0,02608 0,01050 0,00092 0,00003 0,06005 0,43785 0,34895 0,14043 0,01236 0,00036-1,00-0,07475 1,00000 Porównując wartości w kolumnie drugiej z wartościami w kolumnie piątej tej tabeli, widzimy jak zmieniły się pierwotne prawdopodobieństwa różnych możliwych udziałów w rynku po uwzględnieniu, za pomocą wzoru Bayesa, informacji pochodzącej z próby. Wpływ apriorycznych przekonań analityka o udziale firmy w rynku na prawdopodobieństwa aposterioryczne przedstawia także poniższy rysunek: 0,5 0,45 0,4 0,35 Udział w rynku 0,3 0,25 0,2 P(S) P(S x) 0,15 0,1 0,05 0 0,1 0,2 0,3 0,4 0,5 0,6

Widzimy, że prawdopodobieństwa aposterioryczne koncentrują się wokół trzech wartości udziału: 0,2, 0,3, i 0,4. Suma prawdopodobieństw dla tych trzech wartości udziałów jest równa 0,92723. Te trzy sąsiednie wartości, którym odpowiadają najwyższe aposterioryczne prawdopodobieństwa, tworzą zbiór wiarygodnych wartości szacowanego parametru S, o aposteriorycznym prawdopodobieństwie bliskim standardowo przyjmowanemu poziomowi ufności 0,95. Zatem możemy oczekiwać z pewnością około 95%, że udział firmy w rynku znajdzie się między 0,2 i 0,4. Przy podejściu bayesowskim możemy jednak temu wnioskowi przypisać określone prawdopodobieństwo aposterioryczne, którego obliczenie uwzględnia zarówno informację a priori, jak i dane z pobranej próby. Jedną z większych zalet podejścia bayesowskiego jest możliwość przeprowadzenia analizy w sposób sekwencyjny. Informacje uzyskane w ciągu pewnego badania próbnego można wykorzystać jako informacje a priori w następnym badaniu gdy uzyskamy nową informację. Tą nową informacją mogą być dane uzyskane w wyniku kolejnych badań próbnych, które zostaną powiązane z informacją a priori za pomocą twierdzenia Bayesa. Otrzymany stąd rozkład prawdopodobieństw aposteriorycznych znów będzie mógł być wykorzystany jako rozkład prawdopodobieństw apriorycznych, gdy uzyskane zostaną nowe dane, itd. Zobaczmy sposób działania takiej analizy sekwencyjnej kontynuując nasz przykład. Załóżmy, że analitykowi rynku po zakończeniu badania pierwszej próby udało się zbadać 16 dalszych osób, wśród których znalazło się 3 nabywców interesującego go produktu. Tą nową informację (pochodzącą z drugiej próby) analityk chce połączyć z wszystkim co wie do tej pory o udziale firmy w rynku. Zatem ostatni rozkład aposteriorycznych prawdopodobieństw analityk potraktuje jako aktualny rozkład prawdopodobieństw apriorycznych, w stosunku do danych uzyskanych dzięki nowej próbie. W poniższej tabeli widać, jak ta informacja została przekształcona w nowy rozkład apriorycznych prawdopodobieństw, po uwzględnieniu wyniku nowej próby. S P(S) P(x S) P(S)P(x S) P(S x) 0,1 0,2 0,3 0,4 0,06005 0,43785 0,34895 0,14043 0,1423 0,2463 0,1465 0,0468 0,0085480 0,1078384 0,0511193 0,0065734 0,049074 0,619103 0,293477 0,037738

0,5 0,6 0,01236 0,00036 0,0085 0,0008 0,0001056 0,0000003 0,000606 0,000002-1,00000-0,1741850 1,0000000 Zauważmy, że po pobraniu drugiej próby najwyższe aposterioryczne prawdopodobieństwo, wynoszące 0,619103, zostało przypisane udziałowi firmy w rynku S = 0,2. Po każdym dodatkowym pobraniu próby prawdopodobieństwa aposterioryczne będą się coraz bardziej koncentrowały wokół wartości udziałów zaobserwowanych w próbie (4/20=0,2; 3/16=0,1875; 7/36=0,1944), a wpływ apriorycznego rozkładu będzie coraz mniej znaczący. Analiza bayesowska pozwala danym mówić za siebie i korygować nasze aprioryczne mniemania, jeśli odbiegają one od rzeczywistości. W przypadku, gdy dostęp do danych jest ograniczony, to analiza bayesowska kompensuje doraźny brak danych korzystaniem z informacji wcześniejszej (uzyskanej dzięki poprzednim próbom czy też w inny sposób). Możemy jeszcze zadać sobie pytanie: co stałoby się, gdyby analityk zdecydował się na połączenie wyników obu prób przed połączeniem ich z posiadaną (wyjściową) informacją a priori? Okazuje się, że po posłużeniu się połączoną próbą (o liczebności 20+16=36, w której liczba nabywców produktu wyniosła 4+3=7) i uwzględnieniu informacji a priori rozkład prawdopodobieństw aposteriorycznych byłby taki sam jak ostatnio. Wyniki te są przedstawione w poniższej tabeli. S P(S) P(x S) P(S)P(x S) P(S x) 0,1 0,2 0,3 0,4 0,5 0,6 0,05 0,15 0,20 0,30 0,20 0,10 0,039319 0,165343 0,058784 0,005039 0,000121 0,000001 0,0019659 0,0248014 0,0117568 0,0015118 0,0000243 0,0000001 0,049074 0,619103 0,293477 0,037738 0,000606 0,000002-1,00-0,0400603 1,000000 Fakt ten pokazuje, że podejście bayesowskie trafnie uwzględnia kolejne porcje informacji. Bez względu na to, jak dana informacja została włączona do modelu, rozkład aposteriorycznych prawdopodobieństw uwzględni całą informację dostępną w danym momencie.

Zauważmy, że w podejściu klasycznym otrzymalibyśmy (wykorzystując całą informację z próby) następujące oszacowanie naszego paremetru S: S = x n = 7 = 0,1944 = 19,44%. 36 Twierdzenie Bayesa możemy także rozszerzyć na przypadek ciągłych rozkładów prawdopodobieństwa. Wówczas wartości S mogłyby należeć do całego przedziału (0, 1). Podejście bayesowskie wykorzystywane jest także w wyznaczaniu naiwnego klasyfikatora bayesowskiego w zagadnieniach klasyfikacji oraz wykorzystywane jest w popularnych sieciach bayesowskich.