Elementy Sztucznej Inteligencji

Wielkość: px
Rozpocząć pokaz od strony:

Download "Elementy Sztucznej Inteligencji"

Transkrypt

1 Elementy Sztucznej Inteligencji Wnioskowanie statystyczne i oparte na współczynnikach wiarygodnoci Elementy Sztucznej Inteligencji - wykład 8 Plan wykładu Niepewno Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami wiarygodnoci Wprowadzenie, definicje. Przykład Porównanie technik Elementy Sztucznej Inteligencji - wykład 8 2

2 Typy niepewnoci Niepewno wiedzy podstawowej: np.. pewne przyczyny chorób s nieznane i nie s prezentowane w podstawach wiedzy medycznej. Niepewno działa: np.. działania mona przedstawi jako relatywnie krótk list warunków pocztkowych. W rzeczywistoci liczba faktów do uwzgldnienia jest przytłaczajco dua. Niepewno postrzegania: np.. czujniki agenta nie zwracaj dokładnej informacji o wiecie i agent nigdy nie wie wszystkiego o swoim połoeniu szum. Elementy Sztucznej Inteligencji - wykład 8 3 Przykład Przykład niepewnoci działania: By rano odjecha samochodem: Samochód nie mógł by w nocy ukradziony. Opony nie mog by dziurawe. Musi by benzyna w baku. Akumulator musi by sprawny. Zapłon musi działa. Kluczyk do stacyjki nie mogły zosta zgubione. Ciarówka nie moe zablokowa wyjazdu. Nie mona nagle straci wzroku. itd... Elementy Sztucznej Inteligencji - wykład 8 4

3 Metody radzenia sobie z wiedz niepewn Wnioskowanie niemonotoniczne np.. Zakładam, e samochód nie ma dziury w oponie problem: jakie załoenia s poprawne, jak radzi sobie ze sprzecznociami powstałymi w wyniki wprowadzenia nowego załoenia. Zastosowanie współczynników wiarygodnoci np. reguły: zraszacz mokra trawa cf = 0.99 problemy: problemy ze składaniem i ledzeniem zalenoci. Prawdopodobiestwo wykorzystuje stopie przekonania degree of belief działa dla systemów z dostpnymi dowodami Logika rozmyta opisuje stopie prawdziwoci a nie niepewnoci Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo Prawdopodobiestwo jest subiektywne: prawdopodobiestwa okrelaj proporcje wynikajce z indywidualnej oceny agenta. np.. Pdojad na dworzec 5min nie stwierdzono wypadku = 0,06 Nie formułuje twierdze o wiecie prawdopodobnych tendencji, jednak moe si uczy z własnych dowiadcze o podobnych sytuacjach. Przedstawione prawdopodobiestwa nie okrelaj stopnia prawdziwoci reguły która moe by albo prawdziwa, albo fałszywa, ale stopie wiary oczekiwana czsto w jej wystpienie. Prawdopodobiestwa hipotez wniosków zmieniaj si wraz nowymi dowodami np.. Pdojad na dworzec 5min nie stwierdzono wypadku, 7:00 = 0,6 Elementy Sztucznej Inteligencji - wykład 8 6

4 Podejmowanie decyzji w niepewnoci Zakładamy, e jestemy przekonani o PA 25 gets me there on time = 0.04 PA 90 gets me there on time = 0.70 PA 20 gets me there on time = 0.95 PA 440 gets me there on time = Jak akcj podj? Naley rozway czy chcemy si spóni i jak długo chcemy czeka. Teoria uytecznoci jest stosowana do okrelenia preferowanych wniosków Teoria decyzji = teoria uytecznoci + teoria prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 7 Podstawy teorii prawdopodobiestwa Prawdopodobiestwo wystpienia zdarzenia jest odsetkiem jego wystpie. Miara prawdopodobiestwa okrelana jest wartociami z zakresu 0 zdarzenie niemoliwe do zdarzenie pewne. Dla kadego zdarzenia mona poda dwie miary: prawdopodobiestwo powodzenia: Ppowodzenie = = liczba powodze/liczba moliwych wyników prób prawdopodobiestwo poraki: Pporaka = = liczba poraek/ liczba moliwych wyników prób Ppowodzenie + Pporaka = Zdarzenie A jest dowolnym podzbiorem Ω przestrze prób PA = Σ ω A Pω Przut koci < 4 = P + P2 + P3 = /6 + /6 + /6 = ½ Elementy Sztucznej Inteligencji - wykład 8 8

5 Zmienne losowe Zmienna losowa jest funkcj z próbki w pewien zakres np.. liczb rzeczywistych czy binarnych,. np.. Odd=true. P okrela rozkład prawdopodobiestwa dla kadej zmiennej losowej X: PX =x i = Σ ω:xω= xi Pω np., POdd=true = P + P3 + P5 = /6 + /6 + /6 = /2 Elementy Sztucznej Inteligencji - wykład 8 9 Składnia Boolowska zmienne losowe np, cavity Czy mam ubytek? cavity = true jest zdarzeniem, zapisana równie cavity Dyskretne zmienne losowe np., Weather moe by jedn a {sunny; rain; cloudy; snow} Weather =rain jest zdarzeniem Wartoci musz by wyczerpujce i wzajemnie wykluczajce si. Cigła zmienna losowa ograniczona i nieograniczona np, Temp=2,6; moliwe inne przedstawienie np., Temp < 22,00. Elementy Sztucznej Inteligencji - wykład 8 0

6 Zdarzenia niezalene i zalene Zdarzenie niezalene - zdarzenie wzajemnie wykluczajce si, tj. nie mog wystpi równolegle np.. wyrzucenie i 6 w jednym rzucie kostk s niezalene Zdarzenia zalene: wydarzenia wystpujce równolegle, takie zdarzenia wpływaj wzajemnie na prawdopodobiestwa wystpienia, np.. jeeli wiemy, e przy rzucie kostk na pewno nie wystpi to uzyskanie 6 przy pojedynczym rzucie: s p = s + f = = Elementy Sztucznej Inteligencji - wykład 8 Składnia Zdarzenie elementarne: Pełna specyfikacja stanu wiata niepewnego np, jeeli wiat zawiera tylko boolowskie zmienne losowe cavity i toothache, to istniej 4 odrbne zdarzenia elementarne: cavity = false toothache = false cavity = false toothache = true cavity = true toothache = false cavity = true toothache = true Zdarzenia elementarne s wzajemnie wykluczajce si i wyczerpujce. Elementy Sztucznej Inteligencji - wykład 8 2

7 Aksjomaty prawdopodobiestwa Dla dowolnych zdarze A, B 0 PA Ptrue = i Pfalse = 0 PA B = PA + PB - PA B Elementy Sztucznej Inteligencji - wykład 8 3 Prawdopodobiestwo a priori Prawdopodobiestwo a priori zdarze np, Pcavity = true = 0.2 and PWeather = sunny = 0.72 odnosi si do miary przekonania a priori bez pojawienia si nowych zdarze dowodów. adne obserwacje mogce mie wpływ na p nie zostały uwzgldnione. Rozkład prawdopodobiestwa daje wartoci dla wszystkich moliwych zdarze: PWeather = <0.72,0.,0.08,0.> znormalizowane, tj., P sumuje si do Łczny rozkład prawdopodobiestwa dla zbioru zmiennych losowych okrela prawdopodobiestwa kadego zdarzenia elementarnego. PWeather,Cavity = macierz 4 2: Weather = sunny rainy cloudy snow Cavity = true Cavity = false Na kade zapytanie z dziedziny mona uzyska odpowied na podstawie łcznego rozkładu prawdopodobiestwa dlatego, e kade zdarzenie jest sum zdarze elementarnych np. PCavity = = 0.2 Elementy Sztucznej Inteligencji - wykład 8 4

8 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe lub a posteriori np., PCavity Toothache = 0.8 tj., Wszystko o czym wiem to toothache Notacja rozkładu warunkowego: PCavity Toothache dwuelementowy wektor dwuelementowych wektorów Jeeli wiemy wicej, np., dane jest cavity, to mamy Pcavity toothache,cavity = Nowy dowód moe by nieznaczcy, zezwala na uproszczenia, np, Pcavity toothache, sunny = Pcavity toothache = 0.8 Takie wnioskowanie poparte jest przez teori prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe wzór.: odpowiednio.2: a b a b =, b > 0 b b a b a =, a > 0 a Elementy Sztucznej Inteligencji - wykład 8 6

9 Prawdopodobiestwo łczne Ze wzoru.2 prawdopodobiestwo łczne.3: p b a = b a a Główna wersja zachowana dla całego rozkładu,np., PWeather,Cavity = PWeather Cavity PCavity Prawdopodobiestwo łczne jest przechodnie.4: b a = a b Elementy Sztucznej Inteligencji - wykład 8 7 Wyprowadzenie reguły Bayes a Dany jest wzór na prawdopodobiestwo warunkowe: a b a b =, b > 0 b Podstawiajc ze wzoru.3 prawdopodobiestwo łczne i korzystajc z własnoci.4 uzyskujemy.5: p a b = b a a b Elementy Sztucznej Inteligencji - wykład 8 8

10 Rozpatrywanie wielu zdarze a zaley od zdarze b,...b n niezalenych, std.6: n i= a b = i= a b b Jeeli n jest pełn list zdarze warunkowych, to.7: n i= a b std, z.6 i z.7 wynika.8: a = n i= i i = n a a b i b i i i Elementy Sztucznej Inteligencji - wykład 8 9 Reguła Bayesa dla dwóch zdarze Jeeli badamy wystpienie zdarzenia b zalenego od zmiennej losowej boolowskiej a, która moe mie dwie wartoci to wzór.8 przybiera form.9: p b = b a a + b a a, Korzystajc z.9 reguła Bayesa ma posta.0: b a a a b =, b a a + b a a Elementy Sztucznej Inteligencji - wykład 8 20

11 Wnioskowanie z zastosowaniem reguły Bayesa Reguły reprezentowane s w formie: IF Dowód jest TRUE TEN ipoteza jest TRUE z prawdopodobiestwem p D to dowód na wystpienie zdarzenia, zatem reguła Bayes a z.0: D D =, D + D gdzie: - dane prawdopodobiestwo, e hipoteza jest TRUE, D - hipoteza jest TRUE pod wpływem dowodu D, prawdopodobiestwo, gdy hipoteza jest FALSE, D - prawdopodobiestwo znalezienia dowodu D, gdy hipoteza jest FALSE. Elementy Sztucznej Inteligencji - wykład 8 2 Jakie dane trzeba zna? musi by dane zanim jakikolwiek dowód D zostanie przedstawiony. Ponadto dane musi by: prawdopodobiestwo, e hipoteza jest TRUE to zaobserwowano dowód D, czyli: D ; oraz prawdopodobiestwo wystpienia D, gdy hipoteza była FALSE: D. Dane dostarczane s przez ekspertów, lub wynikaj ze zgromadzonych danych i oblicze statystycznych. Elementy Sztucznej Inteligencji - wykład 8 22

12 Elementy Sztucznej Inteligencji - wykład 8 23 Wiele hipotez dla jednego dowodu Wiele hipotez dla jednego dowodu ipotezy,..., m musz by wzajemnie wykluczajce si, wówczas.:, = = m k k k i i i p D p p D p D p Elementy Sztucznej Inteligencji - wykład 8 24 Wiele hipotez i wiele dowodów Wiele hipotez i wiele dowodów ipotezy,..., m jak i dowody D,..,D n musz by wzajemnie wykluczajce si niezalene. Wówczas.2: Upraszczajc, ze wzgldu na niemoliw do uzyskania informacj o prawdopodobiestwie kombinacji wszystkich dowodów dla danej hipotezy uzyskuje si zaleno.3:, = = m k k k n i i n n i p D D D p p D D D p D D D p, = = m k k k n k k i i n i i n i p D p D p D p p D p D p D p D D D p

13 Prosty przykład oceny degree of belief Dane s przez eksperta nastpujce wartoci prawdopodobiestw np.. =grypa, 2= alergia, 3=przezibienie D = katar, D2 = gorczka, D3 = ból głowy ipote zy pra wdopodobie s two i= i=2 i=3 i 0,4 0,35 0,25 D i 0,3 0,8 0,5 D2 i 0,9 0 0,7 D3 i 0,6 0,7 0,9 Elementy Sztucznej Inteligencji - wykład 8 25 Został zaobserwowany dowód D3 Jak długo nie ma adnych dodatkowych informacji wiemy, e moe pojawi si z prawdopodobiestwem 0.4, 2 z 0.35, a 3 z Pojawia si jednak dowód D3, co dzieje si z przekonaniami o hipotezach, 2 i 3? Korzystajc z zalenoci wiele hipotez dowód. obliczamy: Elementy Sztucznej Inteligencji - wykład 8 26

14 Jak zmienia si, 2 i ,6 0,4 D3 = = 0,34 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,7 0,35 D3 = = 0,35 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,9 0,25 D3 = = 0,32 0,6 0,4 + 0,7 0,35 + 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 27 Wnioski Poprzez przedstawienie dowodu D3 przekonanie o hipotezie zmalało 0.4 do 0.34, przekonanie o 2 prawie zrównało si z 0.35, ale si nie zmieniło przekonanie o 3 wzrosło 0.25 do Elementy Sztucznej Inteligencji - wykład 8 28

15 Został zaobserwowany dowód D Po zaobserwowaniu dowodu D3 zaobserwowano kolejny dowód D. Naley zatem uwzgldni sytuacj, gdy operujemy na wielu hipotezach i wielu dowodach. Do wyznaczania nowego przekonania o hipotezach skorzystamy ze wzoru. 3. Elementy Sztucznej Inteligencji - wykład 8 29 Jak zmienia si, 2 i 3 0,3 0,6 0,4 DD 3 = = 0, 9 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 2 0,8 0,7 0,35 DD 3 = = 0,52 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 0,5 0,9 0,25 3 DD 3 = = 0,30 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 30

16 Wnioski Poprzez przedstawienie dowodu D i D3 przekonanie o hipotezie powanie zmalało 0.34 do 0.9, dla 2 prawdopodobiestwo wzrosło 0.35 do 0.52, a 3 obniyło si 0.32 do Elementy Sztucznej Inteligencji - wykład 8 3 Został zaobserwowany dowód D2 Analogicznie do sytuacji poprzednich przedstawiono kolejny dowód D2. Bdzie on miał wpływ na zmian przekonania o wystpieniu hipotez, 2 i ,3 0,9 0,6 0,4 DD 2D3 = = 0,45 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,8 0 0,7 0,35 D D2D3 = = 0 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,5 0,7 0,9 0,25 D D2D3 = = 0,55 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 32

17 Wnioski Poprzez przedstawienie dowodu D2 sytuacja diametralnie si zmienia: przekonanie o hipotezie wzrasta 0.9 do 0.45, hipoteza 2 jest nieprawdopodobna 0, a 3 znacznie wzrosło 0.30 do Zatem dla dowodów D, D2, D3 najbardziej prawdopodobna jest hipoteza 3. Elementy Sztucznej Inteligencji - wykład 8 33 L i O W niektórych zastosowaniach przekształca si wzór Bayes a. stosujc dwa współczynniki: L likelihood ratio wskanik wiarygodnoci, O odds ratio iloraz szans. Dzielc wzór. przez odpowiedni form dla hipotezy komplementarnej uzyskujemy.4: D = D D D Elementy Sztucznej Inteligencji - wykład 8 34

18 Przekonanie o hipotezie w nowym ujciu Iloraz szans to.5: O = = a wskanik wiarygodnoci.6: L D = D D Zatem.7: O D = D D A z.4 podstawiajc.5,.6 i.7 wynika.8: O D = L D O Elementy Sztucznej Inteligencji - wykład 8 35 Przykład W rodku nocy budzi nas alarm informujcy o włamaniu. Jaki jest stopie przekonania o włamaniu? Istnieje 95% szansy, e włamanie włczy alarm: alarm włamanie=0.95. W oparciu o wczeniejsze fałszywe alarmy obliczono, e jest niewielka szansa %, e alarm włczył si bez przyczyny: alarm nie włamanie=0,0. W oparciu o dane o przestpczoci jest szansa na 000, e danej nocy do danego domu nastpi włamanie: włamanie = 0-4 Elementy Sztucznej Inteligencji - wykład 8 36

19 Czy jest włamanie? Korzystajc z wzoru.8 uzyskujemy: O wlamanie alarm = L alarm wlamanie O wlamanie = = Z zalenoci.9 wyprowadzonej z.5: uzyskujemy: O A A = + O A wlamanie alarm = = Elementy Sztucznej Inteligencji - wykład 8 37 Wnioski Retrospektywne wsparcie dla hipotezy o włamaniu dawane przez dowód w postaci włczonego alarmu zostało wzmocnione ponad stukrotnie do Elementy Sztucznej Inteligencji - wykład 8 38

20 Prognozowanie pogody Zadanie: okreli czy bdzie, lub czy nie bdzie padał deszcz nastpnego dnia. Z biura prognozowania zebrane s dane: minimalna temperatura w cigu dnia, maksymalna temperatura w cigu dnia, opady w mm, liczba godzin słonecznych, aktualny stan: pada lub nie pada. System prognozowania poda z jakim prawdopodobiestwem bdzie padało lub nie bdzie padało dnia nastpnego. Elementy Sztucznej Inteligencji - wykład 8 39 Reguły główne Główne reguły z prawdopodobiestwem i wskanikami:. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 40

21 Podział L na LS i LN Wprowadzamy podział wskanika wiarygodnoci L na LS i LN, gdzie.9 i.20: D D LS D = LN D = D D Współczynnik LS jest miar ufnoci w hipotez, jeeli przedstawiony został dowód D. LS = dzi pada jutro pada / dzi pada jutro nie pada Współczynnik LN jest miar pomniejszenia przekonania o hipotezie, gdy brak dowodu D LN = dzi nie pada jutro pada / dzi nie pada jutro nie pada LN nie moe by wyprowadzony z LS i wartoci te podawane s przez ekspertów lub z danych. Elementy Sztucznej Inteligencji - wykład 8 4 Okrelanie wartoci LN i LS Aby je okreli nie trzeba opiera si na prawdopodobiestwie warunkowym. Wartoci podawane s niezalenie: due LS >> silnie potwierdza hipotez, a niskie LN 0< LN < oznacza, e reguła silnie osłabia hipotez, gdy nie ma dowodu D. Z LN i LS łatwo wyprowadzi prawdopodobiestwa warunkowe i zastosowa reguł Bayes a. W przykładzie: LS=2,5 oznacza, e jeeli dzi pada, to z duym prawdopodobiestwem bdzie pada jutro, LN=0,6 oznacza, e istnieje szansa, e pomimo, e dzi nie pada to jutro bdzie pada. Elementy Sztucznej Inteligencji - wykład 8 42

22 Iloraz szans dla LN i LS Rewidujc wzór.8 z zastosowaniem.9 i.20 uzyskujemy: O D = LS O, O D = LN O Poszukiwane prawdopodobiestwa oblicza si zatem: O D D =, + O D O D D = + O D Elementy Sztucznej Inteligencji - wykład 8 43 Przykład: odpalenie reguły Dowód D: Dzi pada. Reguła jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy wystpienia deszczu: 0,5 O jutro pada = = 0,5 Dowód D zwiksza szans na opad przez wskanik wiarygodnoci LS=2,5 O jutro pada dzi pada = 2,5 = 2,5 2,5 jutro pada dzi pada = = 0,7 + 2,5 Wniosek: Prawdopodobiestwo jutrzejszego opadu wzrasta z 0,5 do 0,7 poprzez przedstawienie dowodu D. Elementy Sztucznej Inteligencji - wykład 8 44

23 Przykład: odpalenie reguły 2 Dowód D: Dzi pada. Reguła 2 jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy, e jutro nie bdzie pada: 0,5 O jutro nie pada = = 0,5 Dowód D wpływa hipotez, e jutro nie bdzie padało ze współczynnikiem LN=0,4 O jutro nie pada dzi pada = 0,4 = 0,4 0,4 jutro nie pada dzi pada = = 0,29 + 0,4 Wniosek: prawdopodobiestwo, e jutro nie bdzie pada, gdy dzi pada jest 0,29, czyli zmniejszyło si z powody zaistnienia D. Elementy Sztucznej Inteligencji - wykład 8 45 Przykład: D = Dzi nie pada. W analogiczny sposób oblicza si prawdopodobiestwa, e jutro nie bdzie pada, lub bdzie deszczowo, gdy dowód D mówi, e dzi nie pada. Wyniki dla obu reguł to: 62% szans, e nie bdzie pada, gdy dzi nie pada. 38% szans, e bdzie padało, gdy dzi nie padało. Elementy Sztucznej Inteligencji - wykład 8 46

24 Dodajemy kolejne reguły Powikszamy nasz baz wiedzy na temat prognozowania pogody o inne parametry. Wskaniki s uzyskiwane poprzez analiz danych zbieranych z lat poprzednich. Pewne zalenoci s widoczne i mona je uj w reguły, które uszczegółowi analiz i sprawi, e wnioskowanie bdzie bardziej wiarygodne. Elementy Sztucznej Inteligencji - wykład 8 47 Zestaw reguł. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} 3. IF dzi pada AND wilgotno jest niska [LS=0 LN=] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 48

25 Zestaw reguł cd. 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska [LS=,5 LN=] TEN jutro nie pada {p=0,5} 5. IF dzi nie pada AND temperatura jest wysoka [LS=2 LN=0,9] TEN jutro pada {p=0,5} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne [LS=5 LN=] TEN jutro pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 49 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia przedstawione na slajdach 4-42: na podstawie reguły : jutro pada dzi pada=0,7 na podstawie reguły 2: jutro nie pada dzi pada=0,29 Wniosek: jutro: pada [0,7], nie pada [0,29] Elementy Sztucznej Inteligencji - wykład 8 50

26 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Obliczenia: na podstawie reguły 3 prawdopodobiestwo opadu pobrane z poprzedniego kroku 0,29: 0,29 O jutro nie pada = = 0,4 0,29 O jutro nie pada dzis pada niska wilgotnosc = 0 0,4 = 4, 4, jutro nie pada dzis pada niska wilgotnosc = = 0,8 + 4, Wniosek: jutro: pada [0,7], nie pada [0,8] Elementy Sztucznej Inteligencji - wykład 8 5 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Obliczenia: na podstawie reguły 4 LS: O jutro jutro nie pada dzis pada nie pada dzis pada 0,8 O jutro nie pada = = 4,26 0,8 niska wilgotnosc niska temp =,5 4,26 = 6,4 6,4 niska wilgotnosc niskatemp = = 0,86 + 6,4 na podstawie reguły 5 LN: 0,7 O jutro pada = = 2,45 0,7 O jutro pada dzis pada niskatemp = 0,9 2,45 = 2,2 jutro pada dzis pada 2,2 niskatemp = = 0,69 + 2,2 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 52

27 Działanie systemu wnioskowania dialog cd. Jakie jest niebo? Odp: NIEZACMURZONE Obliczenia: na podstawie reguły 6 LN: jutro 0,69 O jutro pada = = 2,23 0,69 O jutro pada dzis pada niska wilgotnosc niska temp niebo pochmurne = 2,23 = 2,23 pada dzis pada 2,23 niska wilgotnosc niska temp niebo pochmurne = = 0,69 + 2,23 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 53 Zastosowanie Mozilla Mozilla Autor Paul Graham filtr do spamu. Filtr oparty jest na wnioskowaniu Bayes a. Uytkownik wskazuje wiadomoci typu spam i normalne dwie klasy i na ich podstawie tworzone s wagi dla słów oparte na prawdopodobiestwie. Skuteczno jest niezwykle wysoka: program przepucił 5 na 000 wiadomoci typu spam, nie odrzucił adnej z dobrych wiadomoci. Elementy Sztucznej Inteligencji - wykład 8 54

28 Jak to działa? Podział wiadomoci na dwie klasy:. dobre 2. spam. Skanowanie całego tekstu cała wiadomo z nagłówkami, osadzony html i javascript i wyłuskiwanie tokenów, odrzucane: separatory, wartoci całkowicie liczbowe, komentarze z html a. Zliczenie wystpie kadego tokena i obliczenie prawdopodobiestwa jego wystpienia: liczba dobrych tokenów jest podwajana, by nie wpadały przez przypadek jako spam, rozwaane s słowa, które pojawiły si wicej ni 5 razy, prawdopodobiestwo a priori pojawienia si słowa w jednym bloku, ale nie w drugim jest 0,0 i 0,99. Elementy Sztucznej Inteligencji - wykład 8 55 Jak to działa? Jeeli pojawi si nowa wiadomo, to jest skanowana. Pobieranych jest 5 najbardziej interesujcych tokenów, przy czym interesujcy znaczy daleki od neutralnej wartoci spam czy nie spam, czyli 0.5. Oblicza si łczne prawdopodobiestwo 5 tokenów i otrzymuje odpowied. Słowa, które nigdy si nie pojawiły maj przypisane prawdopodobiestwo 0.4 czyli zakładamy, e jest niewinne i nie pochodzi ze spamu. Mail traktowany jest jako spam, gdy prawdopodobiestwo, e jest podejrzane jest wiksze od 0.9 Elementy Sztucznej Inteligencji - wykład 8 56

29 Zalety Nie trzeba czyta duej liczby spamu, by okreli filtry. Metoda bierze pod uwag wszystkie dowody za i przeciw. Dla kadego uytkownika mona policzy prawdopodobiestwo wystpowania tokenów dla jego indywidualnych i wybranych wiadomoci. Nie musi by łczony z biał list list adresów, z których akceptujemy wiadomoci. Ewoluuje wraz ze spamem. Zmiany w mailach powoduj zmiany w statystykach. Elementy Sztucznej Inteligencji - wykład 8 57 Przykład madam 0.99 promotion 0.99 republic 0.99 shortest mandatory standardization sorry supported people's enter quality organization investment very valuable Słówka "madam" czy "promotion" przyczyniaj si do oceny na korzy spamu a słówko shortest wrcz przeciwnie. Jednak przewaga jest słów z prawdopodobiestwem wskazujcym na spam. Reguła Bayes a dała temu mailowi miar , czyli spam Elementy Sztucznej Inteligencji - wykład 8 58

30 Metody oparte na współczynniku wiarygodnoci Alternatywa dla wnioskowania Bayes a. MYCIN system, w którym wprowadzono współczynniki wiarygodnoci jest to medyczny system ekspertowy okrelajcy sił przekonania o wiarygodnoci hipotezy nie oparty na logicznych i matematycznych zalenociach midzy danymi. Jego przeznaczeniem było stawianie diagnozy i wyznaczanie terapii przy chorobach krwi. Zastosowanie, gdy brak spójnych danych statystycznych. Naladuj procesy mylowe przy wnioskowaniu prowadzonym przez eksperta - człowieka. Elementy Sztucznej Inteligencji - wykład 8 59 Współczynnik wiarygodnoci Współczynnik wiarygodnoci cf jest miar przekona eksperta. Ma warto z przedziału fałsz do prawda. Wartoci >0 s miar przekonania o hipotezie. Wartoci <0 s miar braku przekonania o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 60

31 Reguły w systemie dowodzenia Reguły maj posta: IF D <dowód> TEN <hipoteza> {cf} cf jest miar ufnoci w hipotez, gdy dany jest dowód D. Elementy Sztucznej Inteligencji - wykład 8 6 MB measure of belief Wykorzystuje si dwie funkcje oceny maj wartoci od 0 do : miara przekonania o hipotezie oparta o prawdopodobiestwo: MB,D: MB, D = D if = otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego wtpliwoci w wypadku braku dowodu. Jeeli dowód jest słaby, to D jest bliskie 0 i jego wtpliwoci nie ulegn zmianie. Elementy Sztucznej Inteligencji - wykład 8 62

32 MD measure of disbelief miara braku przekonania w hipotez w oparciu o prawdopodobiestwo: MD,D: MD, D = D if = 0 otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego przekonanie o hipotezie. prawdopodobiestwo a priori, e jest TRUE, Elementy Sztucznej Inteligencji - wykład 8 63 Całkowity współczynnik W oparciu o MB i MD wyznaczamy cf: cf MB, D MD, D = min[ MB, D, MD, D] std cf ma wartoci z zakresu do, które oznacza całkowite przekonanie o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 64

33 Jak działa MYCIN? Najczciej reguły s złoone, tzn. e zaobserwowanie pewnej wartoci moe pociga róne wyniki: IF A jest X TEN B jest Y {cf 0,7} B jest Z {cf 0,2} Oznacza, to e w 0% wypadków nie wiemy jaka jest odpowied jest to warto odpowied, której dotychczas nie zaobserwowano. Elementy Sztucznej Inteligencji - wykład 8 65 Obliczanie cf pojedynczy dowód cf,d dla reguły z jednym dowodem oblicza si jako mnoenie cfd dowodu i cf reguły: cf, D = cf D cf Przykład: IF niebo czyste TEN prognozujemy słoce {cf 0.8} cfd dla czyste niebo to 0.5 zatem cf,d=0.5*0.8=0.4 co czytamy, e moe by słonecznie. Elementy Sztucznej Inteligencji - wykład 8 66

34 Obliczanie cf przy koniunkcji wielu dowodów Zasady: IF <dowód D> AND <dowód D2>... AND <dowód Dn> TEN <hipoteza> {cf} to: cf 2, D D2 Dn = min[ cf D, cf D,, cf Dn ] cf Przykład: IF niebo czyste AND prognozujemy słoce TEN no okulary {cf 0.8}, gdzie: cfd=0,9 i cfd2=0.7 cf 2, D D = min[0.9,0.7] 0.8 = 0.56 Elementy Sztucznej Inteligencji - wykład 8 67 Obliczanie cf przy dysjunkcji wielu dowodów Zasady: IF <dowód D> OR <dowód D2>... OR <dowód Dn> TEN <hipoteza> {cf} to: cf, D D2 D Przykład: IF niebo zachmurzone OR prognozujemy deszcz TEN we parasol {cf 0.9}, gdzie: cfd=0,6 cfd2=0.8 2 n = max[ cf D, cf D,, cf Dn ] cf cf, D D2 = max[0.6,0.8] 0.9 = 0.72 Elementy Sztucznej Inteligencji - wykład 8 68

35 Obliczanie cf,, gdy wiele zdarze wpływa na t sam hipotez Zasady: IF A jest X TEN B jest Y {cf} IF C jest Z TEN B jest Y {cf2} to: cf cf, cf 2 cf + cf2 cf cf + cf2 = min[ cf, cf2 ] cf + cf2 + cf Przykład: cfd= cfd2=.0 cf,d=*0.8=0.8 cfcf, cf 2 = cf +cf 2 *[-cf ] = 0.92 if cf if cf if cf > 0 and cf > 0or cf < 0 and cf cf 2,D2=*0.6= > 0 > 0 2 < 0 Elementy Sztucznej Inteligencji - wykład 8 69 Analiza wzoru Jeeli wiele zdarze wpływa na t sam hipotez, to: jeeli oba zdarzenia wzmacniaj przekonanie o hipotezie przekonanie wzrasta przy złoeniu obu warunków, jeeli jedno zdarzenie wzmacnia, a drugie osłabia przekonanie o hipotezie to całkowity współczynnik wiarygodnoci zmniejszy si, jeeli oba zdarzenia osłabiaj hipotez to ich złoenie da jeszcze bardziej osłabiajcy współczynnik wiarygodnoci. Elementy Sztucznej Inteligencji - wykład 8 70

36 Przykład dla prognozowania pogody- reguły. IF dzi pada TEN jutro pada {cf=0,5} 2. IF dzi nie pada TEN jutro nie pada {cf=0,5} 3. IF dzi pada AND wilgotno jest niska TEN jutro nie pada {cf=0,6} Elementy Sztucznej Inteligencji - wykład 8 7 Przykład dla prognozowania pogody- reguły 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska TEN jutro nie pada {cf=0,7} 5. IF dzi nie pada AND temperatura jest wysoka TEN jutro pada {cf=0,65} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne TEN jutro pada {cf=0,55} Elementy Sztucznej Inteligencji - wykład 8 72

37 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia: na podstawie reguły : cfjutro pada,dzi pada=*0,5=0,5 Wnioski: jutro: pada [0,5] Elementy Sztucznej Inteligencji - wykład 8 73 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Jaka jest stopie wilgotnoci podaj współczynnik od 0 do? Odp: 0.8 Odpowiedzi: na podstawie reguły 3: cf jutro = min[ cf dzis nie pada, dzis pada, cf niska = min[,0.8] 0.6 = 0.48 pada niska Wniosek: jutro: pada [0,5], nie pada [0,48] wilgotnosc = wilgotnosc] cf = Elementy Sztucznej Inteligencji - wykład 8 74

38 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Jaka jest stopie wiarygodnoci stwierdzenia, e temperatura jest niska? Odp: 0.9 Obliczenia: na podstawie reguły 4: cf jutro nie pada, dzis pada niska wilgotnosc niska temp = = min[ cf dzi = min[,0.8,0.9] 0.7 = 0.56 pada, cf niska wilgotnosc, cf niska temp] cf = Wniosek: jutro: pada [0,50], nie pada [0,56] Elementy Sztucznej Inteligencji - wykład 8 75 Działanie systemu wnioskowania dialog cd. Złoenie reguł 3 i 4 w ocenie hipotezy nie pada: cf cfregula3, cfregula4 = cfregula3 + cfregula4 cfregula3 = = 0.77 Wniosek: jutro: pada [0,50], nie pada [0,77] Elementy Sztucznej Inteligencji - wykład 8 76

39 Porównanie wnioskowanie Bayes a i współczynnik wiarygodnoci Zastosowanie: planowanie, prognozowanie, tam gdzie dostpne s dane statystyczne. Przykład działajcego systemu: PROSPECTOR geologia. Matematycznie poprawny teoria prawdopodobiestwa. Zastosowanie: planowanie, prognozowanie, tam gdzie brak danych statystycznych. Przykład działajcego systemu: MYCIN medycyna. Brak matematycznej poprawnoci. Dane pochodz z ocen ekspertów z dziedziny. Elementy Sztucznej Inteligencji - wykład 8 77 Cechy wspólne Propagowanie przekona wzrasta wykładniczo, dlatego nie nadaje si dla bardzo duych baz wiedzy. Problemem jest znalezienie właciwej metody okrelania prawdopodobiestw i współczynników, poniewa ludzie s tendencyjni w ocenach. Elementy Sztucznej Inteligencji - wykład 8 78

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności Systemy ekspertowe Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Bardziej szczegółowo

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami

Bardziej szczegółowo

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Zarządzanie wiedzą Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady

Bardziej szczegółowo

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Współczynniki pewności (ang. Certainty

Bardziej szczegółowo

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk

Niepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk Zarządzanie wiedzą Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka Joanna Kołodziejczyk 13 maj 2011 Plan wykładu 1 Niepewność 2 Belief Networks 3 SE Pochodzenie niepewności

Bardziej szczegółowo

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety

Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety mgr Adam Marszałek Zakład Inteligencji Obliczeniowej Instytut Informatyki PK Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety Wstępnie na

Bardziej szczegółowo

Systemy ekspertowe. Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności. Model współczynników pewności.

Systemy ekspertowe. Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności. Model współczynników pewności. Część siódma Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności Autor Roman Simiński Model współczynników pewności Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie

Bardziej szczegółowo

Systemy ekspertowe. Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności. Joanna Kołodziejczyk

Systemy ekspertowe. Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności. Joanna Kołodziejczyk Systemy ekspertowe Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Systemy ekspertowe 2016 1 / 51 Niepewność Plan wykładu 1 Niepewność

Bardziej szczegółowo

Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych.

Bazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Plan wykładu azy danych Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Dokoczenie SQL Zalenoci wielowartociowe zwarta posta normalna Dekompozycja do 4NF Przykład sprowadzanie do

Bardziej szczegółowo

Systemy ekspertowe - wiedza niepewna

Systemy ekspertowe - wiedza niepewna Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,

Bardziej szczegółowo

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013 Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:

Bardziej szczegółowo

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie

Algorytmy stochastyczne, wykład 08 Sieci bayesowskie Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Planowanie adresacji IP dla przedsibiorstwa.

Planowanie adresacji IP dla przedsibiorstwa. Planowanie adresacji IP dla przedsibiorstwa. Wstp Przy podejciu do planowania adresacji IP moemy spotka si z 2 głównymi przypadkami: planowanie za pomoc adresów sieci prywatnej przypadek, w którym jeeli

Bardziej szczegółowo

Modelowanie Niepewności

Modelowanie Niepewności Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca

Bardziej szczegółowo

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,

Bardziej szczegółowo

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów

Bardziej szczegółowo

E2 - PROBABILISTYKA - Zadania do oddania

E2 - PROBABILISTYKA - Zadania do oddania E - PROBABILISTYKA - Zadania do oddania Parametr k = liczba trzycyfrowa dwie ostatnie cyfry to dwie ostatnie cyfry numeru indeksu pierwsza cyfra to pierwsza cyfra liczby liter pierwszego imienia. Poszczególne

Bardziej szczegółowo

Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B

Bazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B Plan wykładu Bazy danych Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania Definicja zalenoci funkcyjnych Klucze relacji Reguły dotyczce zalenoci funkcyjnych Domknicie zbioru atrybutów

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa

STATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem

Bardziej szczegółowo

166 Wstęp do statystyki matematycznej

166 Wstęp do statystyki matematycznej 166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej

Bardziej szczegółowo

PROBABILISTYKA I STATYSTYKA - Zadania do oddania

PROBABILISTYKA I STATYSTYKA - Zadania do oddania PROBABILISTYKA I STATYSTYKA - Zadania do oddania Parametr k = liczba trzycyfrowa, dwie ostatnie cyfry to dwie ostatnie cyfry numeru indeksu, pierwsza cyfra to pierwsza cyfra liczby liter pierwszego imienia.

Bardziej szczegółowo

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Było: Estymacja parametrów rozkładu teoretycznego punktowa przedziałowa Przykład. Cecha X masa owocu pewnej odmiany. ZałoŜenie: cecha X ma w populacji rozkład

Bardziej szczegółowo

Rachunek prawdopodobieństwa

Rachunek prawdopodobieństwa Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry

Bardziej szczegółowo

Podstawowe modele probabilistyczne

Podstawowe modele probabilistyczne Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA

STATYSTYKA MATEMATYCZNA STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.

Bardziej szczegółowo

In»ynierskie zastosowania statystyki wiczenia

In»ynierskie zastosowania statystyki wiczenia Uwagi: 27012014 poprawiono kilka literówek, zwi zanych z przedziaªami ufno±ci dla wariancji i odchylenia standardowego In»ynierskie zastosowania statystyki wiczenia Przedziaªy wiarygodno±ci, testowanie

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie

Bardziej szczegółowo

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Algorytm zachłanny ( ang. greedy algorithm) wykonuje zawsze działanie, które wydaje si w danej chwili

Bardziej szczegółowo

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t

Metody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Metody statystyczne w biologii - Wykªad 8 Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Regresja logistyczna 1. Podstawy teoretyczne i przykªady zastosowania

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Temat Testowanie hipotez statystycznych Kody znaków: Ŝółte wyróŝnienie nowe pojęcie pomarańczowy uwaga kursywa komentarz 1 Zagadnienia omawiane na zajęciach 1. Idea i pojęcia teorii testowania hipotez

Bardziej szczegółowo

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018 Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy

Bardziej szczegółowo

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu Wrocław, 01.03.2017r Przykład 2.1 Właściciel firmy produkującej telefony komórkowe twierdzi, że wśród jego produktów

Bardziej szczegółowo

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład

Bardziej szczegółowo

Testowanie hipotez statystycznych. Wprowadzenie

Testowanie hipotez statystycznych. Wprowadzenie Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,

Bardziej szczegółowo

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0 Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy

Bardziej szczegółowo

stopie szaro ci piksela ( x, y)

stopie szaro ci piksela ( x, y) I. Wstp. Jednym z podstawowych zada analizy obrazu jest segmentacja. Jest to podział obrazu na obszary spełniajce pewne kryterium jednorodnoci. Jedn z najprostszych metod segmentacji obrazu jest progowanie.

Bardziej szczegółowo

Rozmyte systemy doradcze

Rozmyte systemy doradcze Systemy ekspertowe Rozmyte systemy doradcze Plan. Co to jest myślenie rozmyte? 2. Teoria zbiorów rozmytych. 3. Zmienne lingwistyczne. 4. Reguły rozmyte. 5. Wnioskowanie rozmyte (systemy doradcze). typu

Bardziej szczegółowo

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach Matematyka w ekonomii i ubezpieczeniach ( Niezale»ne szkody maja rozkªady P (X i = k) = exp( 1)/k!, P (Y i = k) = 4+k ) k (1/3) 5 (/3) k, k = 0, 1,.... Niech S = X 1 +... + X 500 + Y 1 +... + Y 500. Skªadka

Bardziej szczegółowo

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015 Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20

Bardziej szczegółowo

Po co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji

Po co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji ODSTWY STTYSTYKI 1. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5. Testy parametryczne 6.

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 3

Indukowane Reguły Decyzyjne I. Wykład 3 Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie

Bardziej szczegółowo

Wykªad 6: Model logitowy

Wykªad 6: Model logitowy Wykªad 6: Model logitowy Ekonometria Stosowana SGH Model logitowy 1 / 18 Plan wicze«1 Modele zmiennej jako±ciowej idea 2 Model logitowy Specykacja i interpretacja parametrów Dopasowanie i restrykcje 3

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 3 1 / 8 ZADANIE z rachunku

Bardziej szczegółowo

Algorytmy kodowania predykcyjnego

Algorytmy kodowania predykcyjnego Algorytmy kodowania predykcyjnego 1. Zasada kodowania 2. Algorytm JPEG-LS 3. Algorytmy CALIC, LOCO-I 4. Algorytmy z wielokrotn rozdzielczoci. Progresywna transmisja obrazów Kompresja obrazów - zestawienie

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa

Bardziej szczegółowo

Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego.

Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego. Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego. Jerzy Grobelny Politechnika Wrocławska Projektowanie zadaniowe jest jednym z podstawowych podej do racjonalnego kształtowania

Bardziej szczegółowo

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y Nr zadania Nr czynnoci Przykadowy zestaw zada nr z matematyki ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR POZIOM PODSTAWOWY Etapy rozwizania zadania. Podanie dziedziny funkcji f: 6, 8.. Podanie wszystkich

Bardziej szczegółowo

Teoretyczne podstawy informatyki

Teoretyczne podstawy informatyki Teoretyczne podstawy informatyki Wykład 12a: Prawdopodobieństwo i algorytmy probabilistyczne http://hibiscus.if.uj.edu.pl/~erichter/dydaktyka2010/tpi-2010 Prof. dr hab. Elżbieta Richter-Wąs 1 Teoria prawdopodobieństwa

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Sposoby przekazywania parametrów w metodach.

Sposoby przekazywania parametrów w metodach. Temat: Definiowanie i wywoływanie metod. Zmienne lokalne w metodach. Sposoby przekazywania parametrów w metodach. Pojcia klasy i obiektu wprowadzenie. 1. Definiowanie i wywoływanie metod W dotychczas omawianych

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka

Bardziej szczegółowo

PROWIZJE Menad er Schematy rozliczeniowe

PROWIZJE Menad er Schematy rozliczeniowe W nowej wersji systemu pojawił si specjalny moduł dla menaderów przychodni. Na razie jest to rozwizanie pilotaowe i udostpniono w nim jedn funkcj, która zostanie przybliona w niniejszym biuletynie. Docelowo

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( ) Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału

Bardziej szczegółowo

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Plan wykładów Data WYKŁDY 1.X rachunek prawdopodobieństwa; 8.X zmienna losowa jednowymiarowa, funkcja rozkładu, dystrybuanta 15.X

Bardziej szczegółowo

Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU

Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Przed przystpieniem do liczenia deklaracji PIT-36, PIT-37, PIT-O i zestawienia PIT-D naley zapozna si z objanieniami do powyszych deklaracji. Uwaga:

Bardziej szczegółowo

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym

Bardziej szczegółowo

Hipotezy statystyczne

Hipotezy statystyczne Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice

Bardziej szczegółowo

Hipotezy statystyczne

Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej próbki losowej. Hipotezy

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

Zastosowanie programu Microsoft Excel do analizy wyników nauczania

Zastosowanie programu Microsoft Excel do analizy wyników nauczania Grayna Napieralska Zastosowanie programu Microsoft Excel do analizy wyników nauczania Koniecznym i bardzo wanym elementem pracy dydaktycznej nauczyciela jest badanie wyników nauczania. Prawidłow analiz

Bardziej szczegółowo

Wykład 8 Dane kategoryczne

Wykład 8 Dane kategoryczne Wykład 8 Dane kategoryczne Wrocław, 19.04.2017r Zmienne kategoryczne 1 Przykłady zmiennych kategorycznych 2 Zmienne nominalne, zmienne ordynalne (porządkowe) 3 Zmienne dychotomiczne kodowanie zmiennych

Bardziej szczegółowo

Sztuczna inteligencja : Tworzenie sieci Bayesa

Sztuczna inteligencja : Tworzenie sieci Bayesa Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń

Bardziej szczegółowo

Rachunek zdań i predykatów

Rachunek zdań i predykatów Rachunek zdań i predykatów Agnieszka Nowak 14 czerwca 2008 1 Rachunek zdań Do nauczenia :! 1. ((p q) p) q - reguła odrywania RO 2. reguła modus tollens MT: ((p q) q) p ((p q) q) p (( p q) q) p (( p q)

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych

Bardziej szczegółowo

Ekonometria Bayesowska

Ekonometria Bayesowska Ekonometria Bayesowska Wykªad 6: Bayesowskie ª czenie wiedzy (6) Ekonometria Bayesowska 1 / 21 Plan wykªadu 1 Wprowadzenie 2 Oczekiwana wielko± modelu 3 Losowanie próby modeli 4 wiczenia w R (6) Ekonometria

Bardziej szczegółowo

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Bardziej szczegółowo

Ekonometria - wykªad 8

Ekonometria - wykªad 8 Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

KLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH POPRAWNA ODPOWIED 1 D 2 C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 10 C 11 B 12 A 13 A 14 B 15 D 16 B 17 C 18 A 19 B 20 D

KLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH POPRAWNA ODPOWIED 1 D 2 C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 10 C 11 B 12 A 13 A 14 B 15 D 16 B 17 C 18 A 19 B 20 D KLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH NR ZADANIA POPRAWNA ODPOWIED D C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 0 C B A 3 A 4 B 5 D 6 B 7 C 8 A 9 B 0 D Zadanie ( pkt) MODEL OCENIANIA ZADAN OTWARTYCH Uzasadnij, e punkty

Bardziej szczegółowo

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa

Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie

Bardziej szczegółowo

Rachunek Prawdopodobieństwa i Statystyka

Rachunek Prawdopodobieństwa i Statystyka Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne

Bardziej szczegółowo

Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce

Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce mgr Tomasz Grbski Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce Temat: Dyskusja nad liczb rozwiza równania liniowego i kwadratowego z wartoci bezwzgldn i parametrem. Czas trwania: 45 minut.

Bardziej szczegółowo

Amortyzacja rodków trwałych

Amortyzacja rodków trwałych Amortyzacja rodków trwałych Wydawnictwo Podatkowe GOFIN http://www.gofin.pl/podp.php/190/665/ Dodatek do Zeszytów Metodycznych Rachunkowoci z dnia 2003-07-20 Nr 7 Nr kolejny 110 Warto pocztkow rodków trwałych

Bardziej szczegółowo

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH 1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Prawdopodobieństwo i rozkłady Zdarzenia losowe Prawdopodobieństwo warunkowe Prawdopodobieństwo bayesowskie

Bardziej szczegółowo

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions) Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions) Alexander Bendikov Uniwersytet Wrocªawski 25 maja 2016 Elementarna statystyka Dwie próby: porównanie

Bardziej szczegółowo

ANALITYKA JAKO W ANALITYCE. JAKO oczekiwania. Jako? SEMINARIUM KCA

ANALITYKA JAKO W ANALITYCE. JAKO oczekiwania. Jako? SEMINARIUM KCA W ANALITYCE SEMINARIUM KCA Władysław W. Kubiak Jako? - doskonało tradycyjny pogld akademicki a take rozumienie potoczne; - zero błdów - linia graniczna (wymaga okrelenia norm i kryteriów) - cigłe ulepszanie

Bardziej szczegółowo

Statystyka matematyczna i ekonometria

Statystyka matematyczna i ekonometria Statystyka matematyczna i ekonometria Wykład 5 dr inż. Anna Skowrońska-Szmer zima 2017/2018 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją

Bardziej szczegółowo

Multipro GbE. Testy RFC2544. Wszystko na jednej platformie

Multipro GbE. Testy RFC2544. Wszystko na jednej platformie Multipro GbE Testy RFC2544 Wszystko na jednej platformie Interlab Sp z o.o, ul.kosiarzy 37 paw.20, 02-953 Warszawa tel: (022) 840-81-70; fax: 022 651 83 71; mail: interlab@interlab.pl www.interlab.pl Wprowadzenie

Bardziej szczegółowo

WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno

WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno WSTĘP DO REGRESJI LOGISTYCZNEJ Dr Wioleta Drobik-Czwarno REGRESJA LOGISTYCZNA Zmienna zależna jest zmienną dychotomiczną (dwustanową) przyjmuje dwie wartości, najczęściej 0 i 1 Zmienną zależną może być:

Bardziej szczegółowo

Systemy uczące się wykład 2

Systemy uczące się wykład 2 Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania

Bardziej szczegółowo

LOGIKA I TEORIA ZBIORÓW

LOGIKA I TEORIA ZBIORÓW LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja

Bardziej szczegółowo

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa

Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa Rozdział 2.3: Przykłady przestrzeni probabilistycznych. Katarzyna Rybarczyk-Krzywdzińska Przestrzeń probabilistyczna Przestrzeń

Bardziej szczegółowo

Problem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM.

Problem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM. WYKŁAD : Teoria NP-zupełnoci. Problem decyzyjny naley do klasy P (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM. (przynaleno ta jest zachowana równie dla

Bardziej szczegółowo

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6 Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6 Tomasz Suchocki Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Model mieszany

Bardziej szczegółowo

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.

Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting. Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.. Oznaczenia i załoenia Oznaczenia G = - graf skierowany z funkcj wagi s wierzchołek ródłowy t wierzchołek

Bardziej szczegółowo

Statystyka Matematyczna Anna Janicka

Statystyka Matematyczna Anna Janicka Statystyka Matematyczna Anna Janicka wykład IX, 25.04.2016 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Plan na dzisiaj 1. Hipoteza statystyczna 2. Test statystyczny 3. Błędy I-go i II-go rodzaju 4. Poziom istotności,

Bardziej szczegółowo

Prawa wielkich liczb, centralne twierdzenia graniczne

Prawa wielkich liczb, centralne twierdzenia graniczne , centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne

Bardziej szczegółowo

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska

Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Logika Rozmyta (Fuzzy Logic) Mimo

Bardziej szczegółowo

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 1 1 / 24 Warunki zaliczenia 1 Do egzaminu dopuszczeni wszyscy, którzy uczęszczali na

Bardziej szczegółowo

Bazy danych. Plan wykładu. Pierwsza posta normalna. Druga posta normalna. Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML

Bazy danych. Plan wykładu. Pierwsza posta normalna. Druga posta normalna. Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML Plan wykładu azy danych Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML Przykład sprowadzenia nieznormalizowanej relacji do 3NF SQL instrukcja EXISTS DDL DML (insert) Małgorzata Krtowska Katedra

Bardziej szczegółowo

Gramatyki regularne i automaty skoczone

Gramatyki regularne i automaty skoczone Gramatyki regularne i automaty skoczone Alfabet, jzyk, gramatyka - podstawowe pojcia Co to jest gramatyka regularna, co to jest automat skoczony? Gramatyka regularna Gramatyka bezkontekstowa Translacja

Bardziej szczegółowo

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału

Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem

Bardziej szczegółowo