Elementy Sztucznej Inteligencji
|
|
- Bogdan Ciesielski
- 7 lat temu
- Przeglądów:
Transkrypt
1 Elementy Sztucznej Inteligencji Wnioskowanie statystyczne i oparte na współczynnikach wiarygodnoci Elementy Sztucznej Inteligencji - wykład 8 Plan wykładu Niepewno Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami wiarygodnoci Wprowadzenie, definicje. Przykład Porównanie technik Elementy Sztucznej Inteligencji - wykład 8 2
2 Typy niepewnoci Niepewno wiedzy podstawowej: np.. pewne przyczyny chorób s nieznane i nie s prezentowane w podstawach wiedzy medycznej. Niepewno działa: np.. działania mona przedstawi jako relatywnie krótk list warunków pocztkowych. W rzeczywistoci liczba faktów do uwzgldnienia jest przytłaczajco dua. Niepewno postrzegania: np.. czujniki agenta nie zwracaj dokładnej informacji o wiecie i agent nigdy nie wie wszystkiego o swoim połoeniu szum. Elementy Sztucznej Inteligencji - wykład 8 3 Przykład Przykład niepewnoci działania: By rano odjecha samochodem: Samochód nie mógł by w nocy ukradziony. Opony nie mog by dziurawe. Musi by benzyna w baku. Akumulator musi by sprawny. Zapłon musi działa. Kluczyk do stacyjki nie mogły zosta zgubione. Ciarówka nie moe zablokowa wyjazdu. Nie mona nagle straci wzroku. itd... Elementy Sztucznej Inteligencji - wykład 8 4
3 Metody radzenia sobie z wiedz niepewn Wnioskowanie niemonotoniczne np.. Zakładam, e samochód nie ma dziury w oponie problem: jakie załoenia s poprawne, jak radzi sobie ze sprzecznociami powstałymi w wyniki wprowadzenia nowego załoenia. Zastosowanie współczynników wiarygodnoci np. reguły: zraszacz mokra trawa cf = 0.99 problemy: problemy ze składaniem i ledzeniem zalenoci. Prawdopodobiestwo wykorzystuje stopie przekonania degree of belief działa dla systemów z dostpnymi dowodami Logika rozmyta opisuje stopie prawdziwoci a nie niepewnoci Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo Prawdopodobiestwo jest subiektywne: prawdopodobiestwa okrelaj proporcje wynikajce z indywidualnej oceny agenta. np.. Pdojad na dworzec 5min nie stwierdzono wypadku = 0,06 Nie formułuje twierdze o wiecie prawdopodobnych tendencji, jednak moe si uczy z własnych dowiadcze o podobnych sytuacjach. Przedstawione prawdopodobiestwa nie okrelaj stopnia prawdziwoci reguły która moe by albo prawdziwa, albo fałszywa, ale stopie wiary oczekiwana czsto w jej wystpienie. Prawdopodobiestwa hipotez wniosków zmieniaj si wraz nowymi dowodami np.. Pdojad na dworzec 5min nie stwierdzono wypadku, 7:00 = 0,6 Elementy Sztucznej Inteligencji - wykład 8 6
4 Podejmowanie decyzji w niepewnoci Zakładamy, e jestemy przekonani o PA 25 gets me there on time = 0.04 PA 90 gets me there on time = 0.70 PA 20 gets me there on time = 0.95 PA 440 gets me there on time = Jak akcj podj? Naley rozway czy chcemy si spóni i jak długo chcemy czeka. Teoria uytecznoci jest stosowana do okrelenia preferowanych wniosków Teoria decyzji = teoria uytecznoci + teoria prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 7 Podstawy teorii prawdopodobiestwa Prawdopodobiestwo wystpienia zdarzenia jest odsetkiem jego wystpie. Miara prawdopodobiestwa okrelana jest wartociami z zakresu 0 zdarzenie niemoliwe do zdarzenie pewne. Dla kadego zdarzenia mona poda dwie miary: prawdopodobiestwo powodzenia: Ppowodzenie = = liczba powodze/liczba moliwych wyników prób prawdopodobiestwo poraki: Pporaka = = liczba poraek/ liczba moliwych wyników prób Ppowodzenie + Pporaka = Zdarzenie A jest dowolnym podzbiorem Ω przestrze prób PA = Σ ω A Pω Przut koci < 4 = P + P2 + P3 = /6 + /6 + /6 = ½ Elementy Sztucznej Inteligencji - wykład 8 8
5 Zmienne losowe Zmienna losowa jest funkcj z próbki w pewien zakres np.. liczb rzeczywistych czy binarnych,. np.. Odd=true. P okrela rozkład prawdopodobiestwa dla kadej zmiennej losowej X: PX =x i = Σ ω:xω= xi Pω np., POdd=true = P + P3 + P5 = /6 + /6 + /6 = /2 Elementy Sztucznej Inteligencji - wykład 8 9 Składnia Boolowska zmienne losowe np, cavity Czy mam ubytek? cavity = true jest zdarzeniem, zapisana równie cavity Dyskretne zmienne losowe np., Weather moe by jedn a {sunny; rain; cloudy; snow} Weather =rain jest zdarzeniem Wartoci musz by wyczerpujce i wzajemnie wykluczajce si. Cigła zmienna losowa ograniczona i nieograniczona np, Temp=2,6; moliwe inne przedstawienie np., Temp < 22,00. Elementy Sztucznej Inteligencji - wykład 8 0
6 Zdarzenia niezalene i zalene Zdarzenie niezalene - zdarzenie wzajemnie wykluczajce si, tj. nie mog wystpi równolegle np.. wyrzucenie i 6 w jednym rzucie kostk s niezalene Zdarzenia zalene: wydarzenia wystpujce równolegle, takie zdarzenia wpływaj wzajemnie na prawdopodobiestwa wystpienia, np.. jeeli wiemy, e przy rzucie kostk na pewno nie wystpi to uzyskanie 6 przy pojedynczym rzucie: s p = s + f = = Elementy Sztucznej Inteligencji - wykład 8 Składnia Zdarzenie elementarne: Pełna specyfikacja stanu wiata niepewnego np, jeeli wiat zawiera tylko boolowskie zmienne losowe cavity i toothache, to istniej 4 odrbne zdarzenia elementarne: cavity = false toothache = false cavity = false toothache = true cavity = true toothache = false cavity = true toothache = true Zdarzenia elementarne s wzajemnie wykluczajce si i wyczerpujce. Elementy Sztucznej Inteligencji - wykład 8 2
7 Aksjomaty prawdopodobiestwa Dla dowolnych zdarze A, B 0 PA Ptrue = i Pfalse = 0 PA B = PA + PB - PA B Elementy Sztucznej Inteligencji - wykład 8 3 Prawdopodobiestwo a priori Prawdopodobiestwo a priori zdarze np, Pcavity = true = 0.2 and PWeather = sunny = 0.72 odnosi si do miary przekonania a priori bez pojawienia si nowych zdarze dowodów. adne obserwacje mogce mie wpływ na p nie zostały uwzgldnione. Rozkład prawdopodobiestwa daje wartoci dla wszystkich moliwych zdarze: PWeather = <0.72,0.,0.08,0.> znormalizowane, tj., P sumuje si do Łczny rozkład prawdopodobiestwa dla zbioru zmiennych losowych okrela prawdopodobiestwa kadego zdarzenia elementarnego. PWeather,Cavity = macierz 4 2: Weather = sunny rainy cloudy snow Cavity = true Cavity = false Na kade zapytanie z dziedziny mona uzyska odpowied na podstawie łcznego rozkładu prawdopodobiestwa dlatego, e kade zdarzenie jest sum zdarze elementarnych np. PCavity = = 0.2 Elementy Sztucznej Inteligencji - wykład 8 4
8 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe lub a posteriori np., PCavity Toothache = 0.8 tj., Wszystko o czym wiem to toothache Notacja rozkładu warunkowego: PCavity Toothache dwuelementowy wektor dwuelementowych wektorów Jeeli wiemy wicej, np., dane jest cavity, to mamy Pcavity toothache,cavity = Nowy dowód moe by nieznaczcy, zezwala na uproszczenia, np, Pcavity toothache, sunny = Pcavity toothache = 0.8 Takie wnioskowanie poparte jest przez teori prawdopodobiestwa. Elementy Sztucznej Inteligencji - wykład 8 5 Prawdopodobiestwo warunkowe Prawdopodobiestwo warunkowe wzór.: odpowiednio.2: a b a b =, b > 0 b b a b a =, a > 0 a Elementy Sztucznej Inteligencji - wykład 8 6
9 Prawdopodobiestwo łczne Ze wzoru.2 prawdopodobiestwo łczne.3: p b a = b a a Główna wersja zachowana dla całego rozkładu,np., PWeather,Cavity = PWeather Cavity PCavity Prawdopodobiestwo łczne jest przechodnie.4: b a = a b Elementy Sztucznej Inteligencji - wykład 8 7 Wyprowadzenie reguły Bayes a Dany jest wzór na prawdopodobiestwo warunkowe: a b a b =, b > 0 b Podstawiajc ze wzoru.3 prawdopodobiestwo łczne i korzystajc z własnoci.4 uzyskujemy.5: p a b = b a a b Elementy Sztucznej Inteligencji - wykład 8 8
10 Rozpatrywanie wielu zdarze a zaley od zdarze b,...b n niezalenych, std.6: n i= a b = i= a b b Jeeli n jest pełn list zdarze warunkowych, to.7: n i= a b std, z.6 i z.7 wynika.8: a = n i= i i = n a a b i b i i i Elementy Sztucznej Inteligencji - wykład 8 9 Reguła Bayesa dla dwóch zdarze Jeeli badamy wystpienie zdarzenia b zalenego od zmiennej losowej boolowskiej a, która moe mie dwie wartoci to wzór.8 przybiera form.9: p b = b a a + b a a, Korzystajc z.9 reguła Bayesa ma posta.0: b a a a b =, b a a + b a a Elementy Sztucznej Inteligencji - wykład 8 20
11 Wnioskowanie z zastosowaniem reguły Bayesa Reguły reprezentowane s w formie: IF Dowód jest TRUE TEN ipoteza jest TRUE z prawdopodobiestwem p D to dowód na wystpienie zdarzenia, zatem reguła Bayes a z.0: D D =, D + D gdzie: - dane prawdopodobiestwo, e hipoteza jest TRUE, D - hipoteza jest TRUE pod wpływem dowodu D, prawdopodobiestwo, gdy hipoteza jest FALSE, D - prawdopodobiestwo znalezienia dowodu D, gdy hipoteza jest FALSE. Elementy Sztucznej Inteligencji - wykład 8 2 Jakie dane trzeba zna? musi by dane zanim jakikolwiek dowód D zostanie przedstawiony. Ponadto dane musi by: prawdopodobiestwo, e hipoteza jest TRUE to zaobserwowano dowód D, czyli: D ; oraz prawdopodobiestwo wystpienia D, gdy hipoteza była FALSE: D. Dane dostarczane s przez ekspertów, lub wynikaj ze zgromadzonych danych i oblicze statystycznych. Elementy Sztucznej Inteligencji - wykład 8 22
12 Elementy Sztucznej Inteligencji - wykład 8 23 Wiele hipotez dla jednego dowodu Wiele hipotez dla jednego dowodu ipotezy,..., m musz by wzajemnie wykluczajce si, wówczas.:, = = m k k k i i i p D p p D p D p Elementy Sztucznej Inteligencji - wykład 8 24 Wiele hipotez i wiele dowodów Wiele hipotez i wiele dowodów ipotezy,..., m jak i dowody D,..,D n musz by wzajemnie wykluczajce si niezalene. Wówczas.2: Upraszczajc, ze wzgldu na niemoliw do uzyskania informacj o prawdopodobiestwie kombinacji wszystkich dowodów dla danej hipotezy uzyskuje si zaleno.3:, = = m k k k n i i n n i p D D D p p D D D p D D D p, = = m k k k n k k i i n i i n i p D p D p D p p D p D p D p D D D p
13 Prosty przykład oceny degree of belief Dane s przez eksperta nastpujce wartoci prawdopodobiestw np.. =grypa, 2= alergia, 3=przezibienie D = katar, D2 = gorczka, D3 = ból głowy ipote zy pra wdopodobie s two i= i=2 i=3 i 0,4 0,35 0,25 D i 0,3 0,8 0,5 D2 i 0,9 0 0,7 D3 i 0,6 0,7 0,9 Elementy Sztucznej Inteligencji - wykład 8 25 Został zaobserwowany dowód D3 Jak długo nie ma adnych dodatkowych informacji wiemy, e moe pojawi si z prawdopodobiestwem 0.4, 2 z 0.35, a 3 z Pojawia si jednak dowód D3, co dzieje si z przekonaniami o hipotezach, 2 i 3? Korzystajc z zalenoci wiele hipotez dowód. obliczamy: Elementy Sztucznej Inteligencji - wykład 8 26
14 Jak zmienia si, 2 i ,6 0,4 D3 = = 0,34 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,7 0,35 D3 = = 0,35 0,6 0,4 + 0,7 0,35 + 0,9 0,25 0,9 0,25 D3 = = 0,32 0,6 0,4 + 0,7 0,35 + 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 27 Wnioski Poprzez przedstawienie dowodu D3 przekonanie o hipotezie zmalało 0.4 do 0.34, przekonanie o 2 prawie zrównało si z 0.35, ale si nie zmieniło przekonanie o 3 wzrosło 0.25 do Elementy Sztucznej Inteligencji - wykład 8 28
15 Został zaobserwowany dowód D Po zaobserwowaniu dowodu D3 zaobserwowano kolejny dowód D. Naley zatem uwzgldni sytuacj, gdy operujemy na wielu hipotezach i wielu dowodach. Do wyznaczania nowego przekonania o hipotezach skorzystamy ze wzoru. 3. Elementy Sztucznej Inteligencji - wykład 8 29 Jak zmienia si, 2 i 3 0,3 0,6 0,4 DD 3 = = 0, 9 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 2 0,8 0,7 0,35 DD 3 = = 0,52 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 0,5 0,9 0,25 3 DD 3 = = 0,30 0,3 0,6 0,4 + 0,8 0,7 0,35 + 0,5 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 30
16 Wnioski Poprzez przedstawienie dowodu D i D3 przekonanie o hipotezie powanie zmalało 0.34 do 0.9, dla 2 prawdopodobiestwo wzrosło 0.35 do 0.52, a 3 obniyło si 0.32 do Elementy Sztucznej Inteligencji - wykład 8 3 Został zaobserwowany dowód D2 Analogicznie do sytuacji poprzednich przedstawiono kolejny dowód D2. Bdzie on miał wpływ na zmian przekonania o wystpieniu hipotez, 2 i ,3 0,9 0,6 0,4 DD 2D3 = = 0,45 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,8 0 0,7 0,35 D D2D3 = = 0 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 0,5 0,7 0,9 0,25 D D2D3 = = 0,55 0,3 0,9 0,6 0,4 + 0,8 0 0,7 0,35 + 0,5 0,7 0,9 0,25 Elementy Sztucznej Inteligencji - wykład 8 32
17 Wnioski Poprzez przedstawienie dowodu D2 sytuacja diametralnie si zmienia: przekonanie o hipotezie wzrasta 0.9 do 0.45, hipoteza 2 jest nieprawdopodobna 0, a 3 znacznie wzrosło 0.30 do Zatem dla dowodów D, D2, D3 najbardziej prawdopodobna jest hipoteza 3. Elementy Sztucznej Inteligencji - wykład 8 33 L i O W niektórych zastosowaniach przekształca si wzór Bayes a. stosujc dwa współczynniki: L likelihood ratio wskanik wiarygodnoci, O odds ratio iloraz szans. Dzielc wzór. przez odpowiedni form dla hipotezy komplementarnej uzyskujemy.4: D = D D D Elementy Sztucznej Inteligencji - wykład 8 34
18 Przekonanie o hipotezie w nowym ujciu Iloraz szans to.5: O = = a wskanik wiarygodnoci.6: L D = D D Zatem.7: O D = D D A z.4 podstawiajc.5,.6 i.7 wynika.8: O D = L D O Elementy Sztucznej Inteligencji - wykład 8 35 Przykład W rodku nocy budzi nas alarm informujcy o włamaniu. Jaki jest stopie przekonania o włamaniu? Istnieje 95% szansy, e włamanie włczy alarm: alarm włamanie=0.95. W oparciu o wczeniejsze fałszywe alarmy obliczono, e jest niewielka szansa %, e alarm włczył si bez przyczyny: alarm nie włamanie=0,0. W oparciu o dane o przestpczoci jest szansa na 000, e danej nocy do danego domu nastpi włamanie: włamanie = 0-4 Elementy Sztucznej Inteligencji - wykład 8 36
19 Czy jest włamanie? Korzystajc z wzoru.8 uzyskujemy: O wlamanie alarm = L alarm wlamanie O wlamanie = = Z zalenoci.9 wyprowadzonej z.5: uzyskujemy: O A A = + O A wlamanie alarm = = Elementy Sztucznej Inteligencji - wykład 8 37 Wnioski Retrospektywne wsparcie dla hipotezy o włamaniu dawane przez dowód w postaci włczonego alarmu zostało wzmocnione ponad stukrotnie do Elementy Sztucznej Inteligencji - wykład 8 38
20 Prognozowanie pogody Zadanie: okreli czy bdzie, lub czy nie bdzie padał deszcz nastpnego dnia. Z biura prognozowania zebrane s dane: minimalna temperatura w cigu dnia, maksymalna temperatura w cigu dnia, opady w mm, liczba godzin słonecznych, aktualny stan: pada lub nie pada. System prognozowania poda z jakim prawdopodobiestwem bdzie padało lub nie bdzie padało dnia nastpnego. Elementy Sztucznej Inteligencji - wykład 8 39 Reguły główne Główne reguły z prawdopodobiestwem i wskanikami:. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 40
21 Podział L na LS i LN Wprowadzamy podział wskanika wiarygodnoci L na LS i LN, gdzie.9 i.20: D D LS D = LN D = D D Współczynnik LS jest miar ufnoci w hipotez, jeeli przedstawiony został dowód D. LS = dzi pada jutro pada / dzi pada jutro nie pada Współczynnik LN jest miar pomniejszenia przekonania o hipotezie, gdy brak dowodu D LN = dzi nie pada jutro pada / dzi nie pada jutro nie pada LN nie moe by wyprowadzony z LS i wartoci te podawane s przez ekspertów lub z danych. Elementy Sztucznej Inteligencji - wykład 8 4 Okrelanie wartoci LN i LS Aby je okreli nie trzeba opiera si na prawdopodobiestwie warunkowym. Wartoci podawane s niezalenie: due LS >> silnie potwierdza hipotez, a niskie LN 0< LN < oznacza, e reguła silnie osłabia hipotez, gdy nie ma dowodu D. Z LN i LS łatwo wyprowadzi prawdopodobiestwa warunkowe i zastosowa reguł Bayes a. W przykładzie: LS=2,5 oznacza, e jeeli dzi pada, to z duym prawdopodobiestwem bdzie pada jutro, LN=0,6 oznacza, e istnieje szansa, e pomimo, e dzi nie pada to jutro bdzie pada. Elementy Sztucznej Inteligencji - wykład 8 42
22 Iloraz szans dla LN i LS Rewidujc wzór.8 z zastosowaniem.9 i.20 uzyskujemy: O D = LS O, O D = LN O Poszukiwane prawdopodobiestwa oblicza si zatem: O D D =, + O D O D D = + O D Elementy Sztucznej Inteligencji - wykład 8 43 Przykład: odpalenie reguły Dowód D: Dzi pada. Reguła jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy wystpienia deszczu: 0,5 O jutro pada = = 0,5 Dowód D zwiksza szans na opad przez wskanik wiarygodnoci LS=2,5 O jutro pada dzi pada = 2,5 = 2,5 2,5 jutro pada dzi pada = = 0,7 + 2,5 Wniosek: Prawdopodobiestwo jutrzejszego opadu wzrasta z 0,5 do 0,7 poprzez przedstawienie dowodu D. Elementy Sztucznej Inteligencji - wykład 8 44
23 Przykład: odpalenie reguły 2 Dowód D: Dzi pada. Reguła 2 jest odpalana i prawdopodobiestwa s uyte do obliczenia szansy, e jutro nie bdzie pada: 0,5 O jutro nie pada = = 0,5 Dowód D wpływa hipotez, e jutro nie bdzie padało ze współczynnikiem LN=0,4 O jutro nie pada dzi pada = 0,4 = 0,4 0,4 jutro nie pada dzi pada = = 0,29 + 0,4 Wniosek: prawdopodobiestwo, e jutro nie bdzie pada, gdy dzi pada jest 0,29, czyli zmniejszyło si z powody zaistnienia D. Elementy Sztucznej Inteligencji - wykład 8 45 Przykład: D = Dzi nie pada. W analogiczny sposób oblicza si prawdopodobiestwa, e jutro nie bdzie pada, lub bdzie deszczowo, gdy dowód D mówi, e dzi nie pada. Wyniki dla obu reguł to: 62% szans, e nie bdzie pada, gdy dzi nie pada. 38% szans, e bdzie padało, gdy dzi nie padało. Elementy Sztucznej Inteligencji - wykład 8 46
24 Dodajemy kolejne reguły Powikszamy nasz baz wiedzy na temat prognozowania pogody o inne parametry. Wskaniki s uzyskiwane poprzez analiz danych zbieranych z lat poprzednich. Pewne zalenoci s widoczne i mona je uj w reguły, które uszczegółowi analiz i sprawi, e wnioskowanie bdzie bardziej wiarygodne. Elementy Sztucznej Inteligencji - wykład 8 47 Zestaw reguł. IF dzi pada [LS=2,5 LN=0,6] TEN jutro pada {p=0,5} 2. IF dzi nie pada [LS=,6 LN=0,4] TEN jutro nie pada {p=0,5} 3. IF dzi pada AND wilgotno jest niska [LS=0 LN=] TEN jutro nie pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 48
25 Zestaw reguł cd. 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska [LS=,5 LN=] TEN jutro nie pada {p=0,5} 5. IF dzi nie pada AND temperatura jest wysoka [LS=2 LN=0,9] TEN jutro pada {p=0,5} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne [LS=5 LN=] TEN jutro pada {p=0,5} Elementy Sztucznej Inteligencji - wykład 8 49 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia przedstawione na slajdach 4-42: na podstawie reguły : jutro pada dzi pada=0,7 na podstawie reguły 2: jutro nie pada dzi pada=0,29 Wniosek: jutro: pada [0,7], nie pada [0,29] Elementy Sztucznej Inteligencji - wykład 8 50
26 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Obliczenia: na podstawie reguły 3 prawdopodobiestwo opadu pobrane z poprzedniego kroku 0,29: 0,29 O jutro nie pada = = 0,4 0,29 O jutro nie pada dzis pada niska wilgotnosc = 0 0,4 = 4, 4, jutro nie pada dzis pada niska wilgotnosc = = 0,8 + 4, Wniosek: jutro: pada [0,7], nie pada [0,8] Elementy Sztucznej Inteligencji - wykład 8 5 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Obliczenia: na podstawie reguły 4 LS: O jutro jutro nie pada dzis pada nie pada dzis pada 0,8 O jutro nie pada = = 4,26 0,8 niska wilgotnosc niska temp =,5 4,26 = 6,4 6,4 niska wilgotnosc niskatemp = = 0,86 + 6,4 na podstawie reguły 5 LN: 0,7 O jutro pada = = 2,45 0,7 O jutro pada dzis pada niskatemp = 0,9 2,45 = 2,2 jutro pada dzis pada 2,2 niskatemp = = 0,69 + 2,2 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 52
27 Działanie systemu wnioskowania dialog cd. Jakie jest niebo? Odp: NIEZACMURZONE Obliczenia: na podstawie reguły 6 LN: jutro 0,69 O jutro pada = = 2,23 0,69 O jutro pada dzis pada niska wilgotnosc niska temp niebo pochmurne = 2,23 = 2,23 pada dzis pada 2,23 niska wilgotnosc niska temp niebo pochmurne = = 0,69 + 2,23 Wniosek: jutro: pada [0,69], nie pada [0,86] Elementy Sztucznej Inteligencji - wykład 8 53 Zastosowanie Mozilla Mozilla Autor Paul Graham filtr do spamu. Filtr oparty jest na wnioskowaniu Bayes a. Uytkownik wskazuje wiadomoci typu spam i normalne dwie klasy i na ich podstawie tworzone s wagi dla słów oparte na prawdopodobiestwie. Skuteczno jest niezwykle wysoka: program przepucił 5 na 000 wiadomoci typu spam, nie odrzucił adnej z dobrych wiadomoci. Elementy Sztucznej Inteligencji - wykład 8 54
28 Jak to działa? Podział wiadomoci na dwie klasy:. dobre 2. spam. Skanowanie całego tekstu cała wiadomo z nagłówkami, osadzony html i javascript i wyłuskiwanie tokenów, odrzucane: separatory, wartoci całkowicie liczbowe, komentarze z html a. Zliczenie wystpie kadego tokena i obliczenie prawdopodobiestwa jego wystpienia: liczba dobrych tokenów jest podwajana, by nie wpadały przez przypadek jako spam, rozwaane s słowa, które pojawiły si wicej ni 5 razy, prawdopodobiestwo a priori pojawienia si słowa w jednym bloku, ale nie w drugim jest 0,0 i 0,99. Elementy Sztucznej Inteligencji - wykład 8 55 Jak to działa? Jeeli pojawi si nowa wiadomo, to jest skanowana. Pobieranych jest 5 najbardziej interesujcych tokenów, przy czym interesujcy znaczy daleki od neutralnej wartoci spam czy nie spam, czyli 0.5. Oblicza si łczne prawdopodobiestwo 5 tokenów i otrzymuje odpowied. Słowa, które nigdy si nie pojawiły maj przypisane prawdopodobiestwo 0.4 czyli zakładamy, e jest niewinne i nie pochodzi ze spamu. Mail traktowany jest jako spam, gdy prawdopodobiestwo, e jest podejrzane jest wiksze od 0.9 Elementy Sztucznej Inteligencji - wykład 8 56
29 Zalety Nie trzeba czyta duej liczby spamu, by okreli filtry. Metoda bierze pod uwag wszystkie dowody za i przeciw. Dla kadego uytkownika mona policzy prawdopodobiestwo wystpowania tokenów dla jego indywidualnych i wybranych wiadomoci. Nie musi by łczony z biał list list adresów, z których akceptujemy wiadomoci. Ewoluuje wraz ze spamem. Zmiany w mailach powoduj zmiany w statystykach. Elementy Sztucznej Inteligencji - wykład 8 57 Przykład madam 0.99 promotion 0.99 republic 0.99 shortest mandatory standardization sorry supported people's enter quality organization investment very valuable Słówka "madam" czy "promotion" przyczyniaj si do oceny na korzy spamu a słówko shortest wrcz przeciwnie. Jednak przewaga jest słów z prawdopodobiestwem wskazujcym na spam. Reguła Bayes a dała temu mailowi miar , czyli spam Elementy Sztucznej Inteligencji - wykład 8 58
30 Metody oparte na współczynniku wiarygodnoci Alternatywa dla wnioskowania Bayes a. MYCIN system, w którym wprowadzono współczynniki wiarygodnoci jest to medyczny system ekspertowy okrelajcy sił przekonania o wiarygodnoci hipotezy nie oparty na logicznych i matematycznych zalenociach midzy danymi. Jego przeznaczeniem było stawianie diagnozy i wyznaczanie terapii przy chorobach krwi. Zastosowanie, gdy brak spójnych danych statystycznych. Naladuj procesy mylowe przy wnioskowaniu prowadzonym przez eksperta - człowieka. Elementy Sztucznej Inteligencji - wykład 8 59 Współczynnik wiarygodnoci Współczynnik wiarygodnoci cf jest miar przekona eksperta. Ma warto z przedziału fałsz do prawda. Wartoci >0 s miar przekonania o hipotezie. Wartoci <0 s miar braku przekonania o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 60
31 Reguły w systemie dowodzenia Reguły maj posta: IF D <dowód> TEN <hipoteza> {cf} cf jest miar ufnoci w hipotez, gdy dany jest dowód D. Elementy Sztucznej Inteligencji - wykład 8 6 MB measure of belief Wykorzystuje si dwie funkcje oceny maj wartoci od 0 do : miara przekonania o hipotezie oparta o prawdopodobiestwo: MB,D: MB, D = D if = otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego wtpliwoci w wypadku braku dowodu. Jeeli dowód jest słaby, to D jest bliskie 0 i jego wtpliwoci nie ulegn zmianie. Elementy Sztucznej Inteligencji - wykład 8 62
32 MD measure of disbelief miara braku przekonania w hipotez w oparciu o prawdopodobiestwo: MD,D: MD, D = D if = 0 otherwise Ekspert ocenia jak bardzo przedstawiony dowód D redukuje jego przekonanie o hipotezie. prawdopodobiestwo a priori, e jest TRUE, Elementy Sztucznej Inteligencji - wykład 8 63 Całkowity współczynnik W oparciu o MB i MD wyznaczamy cf: cf MB, D MD, D = min[ MB, D, MD, D] std cf ma wartoci z zakresu do, które oznacza całkowite przekonanie o hipotezie. Elementy Sztucznej Inteligencji - wykład 8 64
33 Jak działa MYCIN? Najczciej reguły s złoone, tzn. e zaobserwowanie pewnej wartoci moe pociga róne wyniki: IF A jest X TEN B jest Y {cf 0,7} B jest Z {cf 0,2} Oznacza, to e w 0% wypadków nie wiemy jaka jest odpowied jest to warto odpowied, której dotychczas nie zaobserwowano. Elementy Sztucznej Inteligencji - wykład 8 65 Obliczanie cf pojedynczy dowód cf,d dla reguły z jednym dowodem oblicza si jako mnoenie cfd dowodu i cf reguły: cf, D = cf D cf Przykład: IF niebo czyste TEN prognozujemy słoce {cf 0.8} cfd dla czyste niebo to 0.5 zatem cf,d=0.5*0.8=0.4 co czytamy, e moe by słonecznie. Elementy Sztucznej Inteligencji - wykład 8 66
34 Obliczanie cf przy koniunkcji wielu dowodów Zasady: IF <dowód D> AND <dowód D2>... AND <dowód Dn> TEN <hipoteza> {cf} to: cf 2, D D2 Dn = min[ cf D, cf D,, cf Dn ] cf Przykład: IF niebo czyste AND prognozujemy słoce TEN no okulary {cf 0.8}, gdzie: cfd=0,9 i cfd2=0.7 cf 2, D D = min[0.9,0.7] 0.8 = 0.56 Elementy Sztucznej Inteligencji - wykład 8 67 Obliczanie cf przy dysjunkcji wielu dowodów Zasady: IF <dowód D> OR <dowód D2>... OR <dowód Dn> TEN <hipoteza> {cf} to: cf, D D2 D Przykład: IF niebo zachmurzone OR prognozujemy deszcz TEN we parasol {cf 0.9}, gdzie: cfd=0,6 cfd2=0.8 2 n = max[ cf D, cf D,, cf Dn ] cf cf, D D2 = max[0.6,0.8] 0.9 = 0.72 Elementy Sztucznej Inteligencji - wykład 8 68
35 Obliczanie cf,, gdy wiele zdarze wpływa na t sam hipotez Zasady: IF A jest X TEN B jest Y {cf} IF C jest Z TEN B jest Y {cf2} to: cf cf, cf 2 cf + cf2 cf cf + cf2 = min[ cf, cf2 ] cf + cf2 + cf Przykład: cfd= cfd2=.0 cf,d=*0.8=0.8 cfcf, cf 2 = cf +cf 2 *[-cf ] = 0.92 if cf if cf if cf > 0 and cf > 0or cf < 0 and cf cf 2,D2=*0.6= > 0 > 0 2 < 0 Elementy Sztucznej Inteligencji - wykład 8 69 Analiza wzoru Jeeli wiele zdarze wpływa na t sam hipotez, to: jeeli oba zdarzenia wzmacniaj przekonanie o hipotezie przekonanie wzrasta przy złoeniu obu warunków, jeeli jedno zdarzenie wzmacnia, a drugie osłabia przekonanie o hipotezie to całkowity współczynnik wiarygodnoci zmniejszy si, jeeli oba zdarzenia osłabiaj hipotez to ich złoenie da jeszcze bardziej osłabiajcy współczynnik wiarygodnoci. Elementy Sztucznej Inteligencji - wykład 8 70
36 Przykład dla prognozowania pogody- reguły. IF dzi pada TEN jutro pada {cf=0,5} 2. IF dzi nie pada TEN jutro nie pada {cf=0,5} 3. IF dzi pada AND wilgotno jest niska TEN jutro nie pada {cf=0,6} Elementy Sztucznej Inteligencji - wykład 8 7 Przykład dla prognozowania pogody- reguły 4. IF dzi pada AND wilgotno jest niska AND temperatura jest niska TEN jutro nie pada {cf=0,7} 5. IF dzi nie pada AND temperatura jest wysoka TEN jutro pada {cf=0,65} 6. IF dzi nie pada AND temperatura jest wysoka AND niebo jest pochmurne TEN jutro pada {cf=0,55} Elementy Sztucznej Inteligencji - wykład 8 72
37 Działanie systemu wnioskowania dialog Jaka jest dzi pogoda? Odp: PADA Obliczenia: na podstawie reguły : cfjutro pada,dzi pada=*0,5=0,5 Wnioski: jutro: pada [0,5] Elementy Sztucznej Inteligencji - wykład 8 73 Działanie systemu wnioskowania dialog cd. Jaka jest dzi wilgotno? Odp: NISKA Jaka jest stopie wilgotnoci podaj współczynnik od 0 do? Odp: 0.8 Odpowiedzi: na podstawie reguły 3: cf jutro = min[ cf dzis nie pada, dzis pada, cf niska = min[,0.8] 0.6 = 0.48 pada niska Wniosek: jutro: pada [0,5], nie pada [0,48] wilgotnosc = wilgotnosc] cf = Elementy Sztucznej Inteligencji - wykład 8 74
38 Działanie systemu wnioskowania dialog cd. Jaka jest dzi temperatura? Odp: NISKA Jaka jest stopie wiarygodnoci stwierdzenia, e temperatura jest niska? Odp: 0.9 Obliczenia: na podstawie reguły 4: cf jutro nie pada, dzis pada niska wilgotnosc niska temp = = min[ cf dzi = min[,0.8,0.9] 0.7 = 0.56 pada, cf niska wilgotnosc, cf niska temp] cf = Wniosek: jutro: pada [0,50], nie pada [0,56] Elementy Sztucznej Inteligencji - wykład 8 75 Działanie systemu wnioskowania dialog cd. Złoenie reguł 3 i 4 w ocenie hipotezy nie pada: cf cfregula3, cfregula4 = cfregula3 + cfregula4 cfregula3 = = 0.77 Wniosek: jutro: pada [0,50], nie pada [0,77] Elementy Sztucznej Inteligencji - wykład 8 76
39 Porównanie wnioskowanie Bayes a i współczynnik wiarygodnoci Zastosowanie: planowanie, prognozowanie, tam gdzie dostpne s dane statystyczne. Przykład działajcego systemu: PROSPECTOR geologia. Matematycznie poprawny teoria prawdopodobiestwa. Zastosowanie: planowanie, prognozowanie, tam gdzie brak danych statystycznych. Przykład działajcego systemu: MYCIN medycyna. Brak matematycznej poprawnoci. Dane pochodz z ocen ekspertów z dziedziny. Elementy Sztucznej Inteligencji - wykład 8 77 Cechy wspólne Propagowanie przekona wzrasta wykładniczo, dlatego nie nadaje si dla bardzo duych baz wiedzy. Problemem jest znalezienie właciwej metody okrelania prawdopodobiestw i współczynników, poniewa ludzie s tendencyjni w ocenach. Elementy Sztucznej Inteligencji - wykład 8 78
Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności
Systemy ekspertowe Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Bardziej szczegółowoWnioskowanie statystyczne i oparte na współczynnikach wiarygodności
Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady Wnioskowanie ze współczynnikami
Bardziej szczegółowoWnioskowanie statystyczne i oparte na współczynnikach wiarygodności. Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Zarządzanie wiedzą Wnioskowanie statystyczne i oparte na współczynnikach wiarygodności 1 Plan wykładu Niepewność Wnioskowanie statystyczne: Wprowadzenie teoretyczne Wnioskowanie probabilistyczne Przykłady
Bardziej szczegółowoInżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska
Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Współczynniki pewności (ang. Certainty
Bardziej szczegółowoNiepewność Belief Networks SE. Zarządzanie wiedzą. Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka. Joanna Kołodziejczyk
Zarządzanie wiedzą Wykład 9 Reprezentacja niepewności w systemach inteligentnych Probabilistyka Joanna Kołodziejczyk 13 maj 2011 Plan wykładu 1 Niepewność 2 Belief Networks 3 SE Pochodzenie niepewności
Bardziej szczegółowoInżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety
mgr Adam Marszałek Zakład Inteligencji Obliczeniowej Instytut Informatyki PK Inżynieria wiedzy Wnioskowanie oparte na wiedzy niepewnej Opracowane na podstawie materiałów dra Michała Berety Wstępnie na
Bardziej szczegółowoSystemy ekspertowe. Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności. Model współczynników pewności.
Część siódma Reprezentacja wiedzy niepewnej i wnioskowanie w warunkach niepewności Autor Roman Simiński Model współczynników pewności Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie
Bardziej szczegółowoSystemy ekspertowe. Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności. Joanna Kołodziejczyk
Systemy ekspertowe Wykład 4 Reprezentacja wiedzy Probabilistyczne wyrażanie niepewności Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Systemy ekspertowe 2016 1 / 51 Niepewność Plan wykładu 1 Niepewność
Bardziej szczegółowoBazy danych. Plan wykładu. Podzapytania - wskazówki. Podzapytania po FROM. Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych.
Plan wykładu azy danych Wykład 5: Zalenoci wielowartociowe. Sprowadzanie do postaci normalnych. Dokoczenie SQL Zalenoci wielowartociowe zwarta posta normalna Dekompozycja do 4NF Przykład sprowadzanie do
Bardziej szczegółowoSystemy ekspertowe - wiedza niepewna
Instytut Informatyki Uniwersytetu Śląskiego lab 8 Rozpatrzmy następujący przykład: Miażdżyca powoduje często zwężenie tętnic wieńcowych. Prowadzi to zazwyczaj do zmniejszenia przepływu krwi w tych naczyniach,
Bardziej szczegółowoNa podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013
Na podstawie: AIMA, ch13 Instytut Informatyki, Politechnika Poznańska 15 marca 2013 Źródła niepewności Świat częściowo obserwowalny Świat niedeterministyczny Także: Lenistwo i ignorancja (niewiedza) Cel:
Bardziej szczegółowoAlgorytmy stochastyczne, wykład 08 Sieci bayesowskie
Algorytmy stochastyczne, wykład 08 Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2014-04-10 Prawdopodobieństwo Prawdopodobieństwo Prawdopodobieństwo warunkowe Zmienne
Bardziej szczegółowoWeryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Bardziej szczegółowoPlanowanie adresacji IP dla przedsibiorstwa.
Planowanie adresacji IP dla przedsibiorstwa. Wstp Przy podejciu do planowania adresacji IP moemy spotka si z 2 głównymi przypadkami: planowanie za pomoc adresów sieci prywatnej przypadek, w którym jeeli
Bardziej szczegółowoModelowanie Niepewności
Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca
Bardziej szczegółowoWeryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowoStatystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Bardziej szczegółowoE2 - PROBABILISTYKA - Zadania do oddania
E - PROBABILISTYKA - Zadania do oddania Parametr k = liczba trzycyfrowa dwie ostatnie cyfry to dwie ostatnie cyfry numeru indeksu pierwsza cyfra to pierwsza cyfra liczby liter pierwszego imienia. Poszczególne
Bardziej szczegółowoBazy danych. Plan wykładu. Zalenoci funkcyjne. Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania A B
Plan wykładu Bazy danych Wykład 4: Relacyjny model danych - zalenoci funkcyjne. SQL - podzapytania Definicja zalenoci funkcyjnych Klucze relacji Reguły dotyczce zalenoci funkcyjnych Domknicie zbioru atrybutów
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA. rachunek prawdopodobieństwa
STATYSTYKA MATEMATYCZNA rachunek prawdopodobieństwa treść Zdarzenia losowe pojęcie prawdopodobieństwa prawo wielkich liczb zmienne losowe rozkłady teoretyczne zmiennych losowych Zanim zajmiemy się wnioskowaniem
Bardziej szczegółowo166 Wstęp do statystyki matematycznej
166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej
Bardziej szczegółowoPROBABILISTYKA I STATYSTYKA - Zadania do oddania
PROBABILISTYKA I STATYSTYKA - Zadania do oddania Parametr k = liczba trzycyfrowa, dwie ostatnie cyfry to dwie ostatnie cyfry numeru indeksu, pierwsza cyfra to pierwsza cyfra liczby liter pierwszego imienia.
Bardziej szczegółowoWYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH
WYKŁAD 8 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Było: Estymacja parametrów rozkładu teoretycznego punktowa przedziałowa Przykład. Cecha X masa owocu pewnej odmiany. ZałoŜenie: cecha X ma w populacji rozkład
Bardziej szczegółowoRachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
Bardziej szczegółowoPodstawowe modele probabilistyczne
Wrocław University of Technology Podstawowe modele probabilistyczne Maciej Zięba maciej.zieba@pwr.edu.pl Rozpoznawanie Obrazów, Lato 2018/2019 Pojęcie prawdopodobieństwa Prawdopodobieństwo reprezentuje
Bardziej szczegółowoSTATYSTYKA MATEMATYCZNA
STATYSTYKA MATEMATYCZNA 1. Wykład wstępny. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5.
Bardziej szczegółowoIn»ynierskie zastosowania statystyki wiczenia
Uwagi: 27012014 poprawiono kilka literówek, zwi zanych z przedziaªami ufno±ci dla wariancji i odchylenia standardowego In»ynierskie zastosowania statystyki wiczenia Przedziaªy wiarygodno±ci, testowanie
Bardziej szczegółowoTestowanie hipotez statystycznych.
Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie
Bardziej szczegółowoTemat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.
Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury. Algorytm zachłanny ( ang. greedy algorithm) wykonuje zawsze działanie, które wydaje si w danej chwili
Bardziej szczegółowoMetody statystyczne w biologii - Wykªad 8. Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t
Metody statystyczne w biologii - Wykªad 8 Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Regresja logistyczna 1. Podstawy teoretyczne i przykªady zastosowania
Bardziej szczegółowoTestowanie hipotez statystycznych
Temat Testowanie hipotez statystycznych Kody znaków: Ŝółte wyróŝnienie nowe pojęcie pomarańczowy uwaga kursywa komentarz 1 Zagadnienia omawiane na zajęciach 1. Idea i pojęcia teorii testowania hipotez
Bardziej szczegółowoPrawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Bardziej szczegółowoWykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu
Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotności, p-wartość i moc testu Wrocław, 01.03.2017r Przykład 2.1 Właściciel firmy produkującej telefony komórkowe twierdzi, że wśród jego produktów
Bardziej szczegółowoWykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa
Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa Marek Kubiak Instytut Informatyki Politechnika Poznańska Plan wykładu Podstawowe pojęcia rachunku prawdopodobieństwa Rozkład
Bardziej szczegółowoTestowanie hipotez statystycznych. Wprowadzenie
Wrocław University of Technology Testowanie hipotez statystycznych. Wprowadzenie Jakub Tomczak Politechnika Wrocławska jakub.tomczak@pwr.edu.pl 10.04.2014 Pojęcia wstępne Populacja (statystyczna) zbiór,
Bardziej szczegółowo), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0
Testowanie hipotez Każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy nazywamy hipotezą statystyczną. Hipoteza określająca jedynie wartości nieznanych parametrów liczbowych badanej cechy
Bardziej szczegółowostopie szaro ci piksela ( x, y)
I. Wstp. Jednym z podstawowych zada analizy obrazu jest segmentacja. Jest to podział obrazu na obszary spełniajce pewne kryterium jednorodnoci. Jedn z najprostszych metod segmentacji obrazu jest progowanie.
Bardziej szczegółowoRozmyte systemy doradcze
Systemy ekspertowe Rozmyte systemy doradcze Plan. Co to jest myślenie rozmyte? 2. Teoria zbiorów rozmytych. 3. Zmienne lingwistyczne. 4. Reguły rozmyte. 5. Wnioskowanie rozmyte (systemy doradcze). typu
Bardziej szczegółowo5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach
Matematyka w ekonomii i ubezpieczeniach ( Niezale»ne szkody maja rozkªady P (X i = k) = exp( 1)/k!, P (Y i = k) = 4+k ) k (1/3) 5 (/3) k, k = 0, 1,.... Niech S = X 1 +... + X 500 + Y 1 +... + Y 500. Skªadka
Bardziej szczegółowoZmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015
Zmienne losowe, statystyki próbkowe Wrocław, 2 marca 2015 Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20 punktów) aktywność Zasady zaliczenia 2 kolokwia (każde po 20 punktów) projekt (20
Bardziej szczegółowoPo co nam statystyka matematyczna? Żeby na podstawie próby wnioskować o całej populacji
ODSTWY STTYSTYKI 1. Teoria prawdopodobieństwa i elementy kombinatoryki 2. Zmienne losowe i ich rozkłady 3. opulacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5. Testy parametryczne 6.
Bardziej szczegółowoIndukowane Reguły Decyzyjne I. Wykład 3
Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie
Bardziej szczegółowoWykªad 6: Model logitowy
Wykªad 6: Model logitowy Ekonometria Stosowana SGH Model logitowy 1 / 18 Plan wicze«1 Modele zmiennej jako±ciowej idea 2 Model logitowy Specykacja i interpretacja parametrów Dopasowanie i restrykcje 3
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 3 1 / 8 ZADANIE z rachunku
Bardziej szczegółowoAlgorytmy kodowania predykcyjnego
Algorytmy kodowania predykcyjnego 1. Zasada kodowania 2. Algorytm JPEG-LS 3. Algorytmy CALIC, LOCO-I 4. Algorytmy z wielokrotn rozdzielczoci. Progresywna transmisja obrazów Kompresja obrazów - zestawienie
Bardziej szczegółowoStatystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 2013/2014 Wykład 3 Zmienna losowa i jej rozkłady Zdarzenia losowe Pojęcie prawdopodobieństwa
Bardziej szczegółowoProjektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego.
Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego. Jerzy Grobelny Politechnika Wrocławska Projektowanie zadaniowe jest jednym z podstawowych podej do racjonalnego kształtowania
Bardziej szczegółowoODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y
Nr zadania Nr czynnoci Przykadowy zestaw zada nr z matematyki ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR POZIOM PODSTAWOWY Etapy rozwizania zadania. Podanie dziedziny funkcji f: 6, 8.. Podanie wszystkich
Bardziej szczegółowoTeoretyczne podstawy informatyki
Teoretyczne podstawy informatyki Wykład 12a: Prawdopodobieństwo i algorytmy probabilistyczne http://hibiscus.if.uj.edu.pl/~erichter/dydaktyka2010/tpi-2010 Prof. dr hab. Elżbieta Richter-Wąs 1 Teoria prawdopodobieństwa
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoSposoby przekazywania parametrów w metodach.
Temat: Definiowanie i wywoływanie metod. Zmienne lokalne w metodach. Sposoby przekazywania parametrów w metodach. Pojcia klasy i obiektu wprowadzenie. 1. Definiowanie i wywoływanie metod W dotychczas omawianych
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 13 i 14 1 / 15 MODEL BAYESOWSKI, przykład wstępny Statystyka
Bardziej szczegółowoPROWIZJE Menad er Schematy rozliczeniowe
W nowej wersji systemu pojawił si specjalny moduł dla menaderów przychodni. Na razie jest to rozwizanie pilotaowe i udostpniono w nim jedn funkcj, która zostanie przybliona w niniejszym biuletynie. Docelowo
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoStatystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Bardziej szczegółowoSTATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt
STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Plan wykładów Data WYKŁDY 1.X rachunek prawdopodobieństwa; 8.X zmienna losowa jednowymiarowa, funkcja rozkładu, dystrybuanta 15.X
Bardziej szczegółowoKomputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU
Komputerowa Ksiga Podatkowa Wersja 11.4 ZAKOCZENIE ROKU Przed przystpieniem do liczenia deklaracji PIT-36, PIT-37, PIT-O i zestawienia PIT-D naley zapozna si z objanieniami do powyszych deklaracji. Uwaga:
Bardziej szczegółowoStatystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Bardziej szczegółowoMetody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Ćwiczenia lista zadań nr 3 Metody estymacji. Estymator największej wiarygodności Zad. 1 Pojawianie się spamu opisane jest zmienną losową y o rozkładzie zero-jedynkowym
Bardziej szczegółowoHipotezy statystyczne
Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice
Bardziej szczegółowoHipotezy statystyczne
Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu badanej cechy populacji, o którego prawdziwości lub fałszywości wnioskuje się na podstawie pobranej próbki losowej. Hipotezy
Bardziej szczegółowoStatystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Bardziej szczegółowoZastosowanie programu Microsoft Excel do analizy wyników nauczania
Grayna Napieralska Zastosowanie programu Microsoft Excel do analizy wyników nauczania Koniecznym i bardzo wanym elementem pracy dydaktycznej nauczyciela jest badanie wyników nauczania. Prawidłow analiz
Bardziej szczegółowoWykład 8 Dane kategoryczne
Wykład 8 Dane kategoryczne Wrocław, 19.04.2017r Zmienne kategoryczne 1 Przykłady zmiennych kategorycznych 2 Zmienne nominalne, zmienne ordynalne (porządkowe) 3 Zmienne dychotomiczne kodowanie zmiennych
Bardziej szczegółowoSztuczna inteligencja : Tworzenie sieci Bayesa
Instytut Informatyki Uniwersytetu Śląskiego 13 kwiecień 2011 Rysunek: Sieć Bayesa Rysunek: Sieć Bayesa Matura z matematyki na 60 %. Matura z matematyki na 100 %. Rozpatrzmy następujące przypadki: Uczeń
Bardziej szczegółowoRachunek zdań i predykatów
Rachunek zdań i predykatów Agnieszka Nowak 14 czerwca 2008 1 Rachunek zdań Do nauczenia :! 1. ((p q) p) q - reguła odrywania RO 2. reguła modus tollens MT: ((p q) q) p ((p q) q) p (( p q) q) p (( p q)
Bardziej szczegółowoEkonometria Bayesowska
Ekonometria Bayesowska Wykªad 9: Metody numeryczne: MCMC Andrzej Torój 1 / 17 Plan wykªadu Wprowadzenie 1 Wprowadzenie 3 / 17 Plan prezentacji Wprowadzenie 1 Wprowadzenie 3 3 / 17 Zastosowanie metod numerycznych
Bardziej szczegółowoEkonometria Bayesowska
Ekonometria Bayesowska Wykªad 6: Bayesowskie ª czenie wiedzy (6) Ekonometria Bayesowska 1 / 21 Plan wykªadu 1 Wprowadzenie 2 Oczekiwana wielko± modelu 3 Losowanie próby modeli 4 wiczenia w R (6) Ekonometria
Bardziej szczegółowoWYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych
WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych Agata Boratyńska Agata Boratyńska Statystyka matematyczna, wykład 9 i 10 1 / 30 TESTOWANIE HIPOTEZ STATYSTYCZNYCH
Bardziej szczegółowoEkonometria - wykªad 8
Ekonometria - wykªad 8 3.1 Specykacja i werykacja modelu liniowego dobór zmiennych obja±niaj cych - cz ± 1 Barbara Jasiulis-Goªdyn 11.04.2014, 25.04.2014 2013/2014 Wprowadzenie Ideologia Y zmienna obja±niana
Bardziej szczegółowoWstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoKLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH POPRAWNA ODPOWIED 1 D 2 C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 10 C 11 B 12 A 13 A 14 B 15 D 16 B 17 C 18 A 19 B 20 D
KLUCZ ODPOWIEDZI DO ZADA ZAMKNITYCH NR ZADANIA POPRAWNA ODPOWIED D C 3 C 4 B 5 D 6 A 7 D 8 D 9 A 0 C B A 3 A 4 B 5 D 6 B 7 C 8 A 9 B 0 D Zadanie ( pkt) MODEL OCENIANIA ZADAN OTWARTYCH Uzasadnij, e punkty
Bardziej szczegółowoWykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa
Wykład 13. Podstawowe pojęcia rachunku prawdopodobieństwa dr Mariusz Grzadziel Katedra Matematyki, Uniwersytet Przyrodniczy we Wrocławiu semestr zimowy, rok akademicki 2015 2016 Doświadczenie losowe Doświadczenie
Bardziej szczegółowoRachunek Prawdopodobieństwa i Statystyka
Rachunek Prawdopodobieństwa i Statystyka W 2. Probabilistyczne modele danych Zmienne losowe. Rozkład prawdopodobieństwa i dystrybuanta. Wartość oczekiwana i wariancja zmiennej losowej Dr Anna ADRIAN Zmienne
Bardziej szczegółowoKonspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce
mgr Tomasz Grbski Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce Temat: Dyskusja nad liczb rozwiza równania liniowego i kwadratowego z wartoci bezwzgldn i parametrem. Czas trwania: 45 minut.
Bardziej szczegółowoAmortyzacja rodków trwałych
Amortyzacja rodków trwałych Wydawnictwo Podatkowe GOFIN http://www.gofin.pl/podp.php/190/665/ Dodatek do Zeszytów Metodycznych Rachunkowoci z dnia 2003-07-20 Nr 7 Nr kolejny 110 Warto pocztkow rodków trwałych
Bardziej szczegółowoALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH
1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Prawdopodobieństwo i rozkłady Zdarzenia losowe Prawdopodobieństwo warunkowe Prawdopodobieństwo bayesowskie
Bardziej szczegółowoElementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)
Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions) Alexander Bendikov Uniwersytet Wrocªawski 25 maja 2016 Elementarna statystyka Dwie próby: porównanie
Bardziej szczegółowoANALITYKA JAKO W ANALITYCE. JAKO oczekiwania. Jako? SEMINARIUM KCA
W ANALITYCE SEMINARIUM KCA Władysław W. Kubiak Jako? - doskonało tradycyjny pogld akademicki a take rozumienie potoczne; - zero błdów - linia graniczna (wymaga okrelenia norm i kryteriów) - cigłe ulepszanie
Bardziej szczegółowoStatystyka matematyczna i ekonometria
Statystyka matematyczna i ekonometria Wykład 5 dr inż. Anna Skowrońska-Szmer zima 2017/2018 Hipotezy 2 Hipoteza zerowa (H 0 )- hipoteza o wartości jednego (lub wielu) parametru populacji. Traktujemy ją
Bardziej szczegółowoMultipro GbE. Testy RFC2544. Wszystko na jednej platformie
Multipro GbE Testy RFC2544 Wszystko na jednej platformie Interlab Sp z o.o, ul.kosiarzy 37 paw.20, 02-953 Warszawa tel: (022) 840-81-70; fax: 022 651 83 71; mail: interlab@interlab.pl www.interlab.pl Wprowadzenie
Bardziej szczegółowoWSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno
WSTĘP DO REGRESJI LOGISTYCZNEJ Dr Wioleta Drobik-Czwarno REGRESJA LOGISTYCZNA Zmienna zależna jest zmienną dychotomiczną (dwustanową) przyjmuje dwie wartości, najczęściej 0 i 1 Zmienną zależną może być:
Bardziej szczegółowoSystemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
Bardziej szczegółowoLOGIKA I TEORIA ZBIORÓW
LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja
Bardziej szczegółowoRachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa
Rachunek prawdopodobieństwa Rozdział 2. Aksjomatyczne ujęcie prawdopodobieństwa Rozdział 2.3: Przykłady przestrzeni probabilistycznych. Katarzyna Rybarczyk-Krzywdzińska Przestrzeń probabilistyczna Przestrzeń
Bardziej szczegółowoProblem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM.
WYKŁAD : Teoria NP-zupełnoci. Problem decyzyjny naley do klasy P (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM. (przynaleno ta jest zachowana równie dla
Bardziej szczegółowoModele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6
Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6 Tomasz Suchocki Uniwersytet Przyrodniczy we Wrocªawiu Katedra Genetyki i Ogólnej Hodowli Zwierz t Plan wykªadu Model mieszany
Bardziej szczegółowoTemat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.
Temat: Problem najkrótszych cieek w grafach waonych, cz. I: Algorytmy typu label - setting.. Oznaczenia i załoenia Oznaczenia G = - graf skierowany z funkcj wagi s wierzchołek ródłowy t wierzchołek
Bardziej szczegółowoStatystyka Matematyczna Anna Janicka
Statystyka Matematyczna Anna Janicka wykład IX, 25.04.2016 TESTOWANIE HIPOTEZ STATYSTYCZNYCH Plan na dzisiaj 1. Hipoteza statystyczna 2. Test statystyczny 3. Błędy I-go i II-go rodzaju 4. Poziom istotności,
Bardziej szczegółowoPrawa wielkich liczb, centralne twierdzenia graniczne
, centralne twierdzenia graniczne Katedra matematyki i ekonomii matematycznej 17 maja 2012, centralne twierdzenia graniczne Rodzaje zbieżności ciągów zmiennych losowych, centralne twierdzenia graniczne
Bardziej szczegółowoInżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska
Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Logika Rozmyta (Fuzzy Logic) Mimo
Bardziej szczegółowoWYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH)
WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I (SGH) Agata Boratyńska Agata Boratyńska Rachunek prawdopodobieństwa, wykład 1 1 / 24 Warunki zaliczenia 1 Do egzaminu dopuszczeni wszyscy, którzy uczęszczali na
Bardziej szczegółowoBazy danych. Plan wykładu. Pierwsza posta normalna. Druga posta normalna. Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML
Plan wykładu azy danych Wykład 7: Sprowadzanie do postaci normalnych. DDL, DML Przykład sprowadzenia nieznormalizowanej relacji do 3NF SQL instrukcja EXISTS DDL DML (insert) Małgorzata Krtowska Katedra
Bardziej szczegółowoGramatyki regularne i automaty skoczone
Gramatyki regularne i automaty skoczone Alfabet, jzyk, gramatyka - podstawowe pojcia Co to jest gramatyka regularna, co to jest automat skoczony? Gramatyka regularna Gramatyka bezkontekstowa Translacja
Bardziej szczegółowoWykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału
Wykład 1 Zmienne losowe, statystyki próbkowe - powtórzenie materiału Magdalena Frąszczak Wrocław, 22.02.2017r Zasady oceniania Ćwiczenia 2 kolokwia (20 punktów każde) 05.04.2017 oraz 31.05.2017 2 kartkówki
Bardziej szczegółowoPrawdopodobieństwo i statystyka r.
Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje
Bardziej szczegółowoRozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
Bardziej szczegółowo