Sztuczna inteligencja Lista zada«

Podobne dokumenty
5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

COLT - Obliczeniowa teoria uczenia si

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

Biostatystyka, # 5 /Weterynaria I/

Statystyka matematyczna - ZSTA LMO

Elementarna statystyka

Wykªad 4. Funkcje wielu zmiennych.

Przekroje Dedekinda 1

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Metody dowodzenia twierdze«

MODELE LINIOWE i MIESZANE

Zbiory i odwzorowania

Metody probablistyczne i statystyka stosowana

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

Zadanie 1. (8 punktów) Dana jest nast puj ca macierz: M =

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

1 Bª dy i arytmetyka zmiennopozycyjna

XVII Warmi«sko-Mazurskie Zawody Matematyczne

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

W poprzednim odcinku... Podstawy matematyki dla informatyków. Relacje równowa»no±ci. Zbiór (typ) ilorazowy. Klasy abstrakcji

Arkusz maturalny. Šukasz Dawidowski. 25 kwietnia 2016r. Powtórki maturalne

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach. a) (6 pkt.) oblicz intensywno± pªaconych skªadek;

Ekstremalnie maªe zbiory

Elementarna statystyka

Zadania. 4 grudnia k=1

Dynamiczne wªasno±ci algorytmu propagacji przekona«

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Statystyka matematyczna - ZSTA LMO

Algorytmy zwiazane z gramatykami bezkontekstowymi

1 Metody iteracyjne rozwi zywania równania f(x)=0

Rozwini cia asymptotyczne dla mocy testów przybli»onych

Matematyka dyskretna dla informatyków

Systemy decyzyjne Wprowadzenie

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1

Funkcje wielu zmiennych

Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo

Biostatystyka, # 4 /Weterynaria I/

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

STATYSTYCZNE MODELOWANIE DANYCH BIOLOGICZNYCH

Uczenie Wielowarstwowych Sieci Neuronów o

1 Poj cia pomocnicze. Przykªad 1. A A d

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji

In»ynierskie zastosowania statystyki wiczenia

2 Liczby rzeczywiste - cz. 2

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Informacje pomocnicze

Elementy geometrii w przestrzeni R 3

Funkcje wielu zmiennych

Lab. 02: Algorytm Schrage

Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«.

Ekonometria Bayesowska

Ekonometria. wiczenia 5 i 6 Modelowanie szeregów czasowych. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Materiaªy do Repetytorium z matematyki

Ekonometria Bayesowska

Wektory w przestrzeni

Rozkªady i warto± oczekiwana

Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Interpolacja funkcjami sklejanymi

2. (8 punktów) 3. (8 punktów) 4. (8 punktów) 5. (8 punktów) EGZAMIN MAGISTERSKI, Matematyka w ekonomii i ubezpieczeniach

Prawdopodobieństwo i statystyka

Elementarna statystyka Wnioskowanie o regresji (Inference 2 czerwca for regression) / 13

O pewnej regule alokacji jako sposobie inwestowania na gieªdzie papierów warto±ciowych

Wst p teoretyczny do wiczenia nr 3 - Elementy kombinatoryki

Przestrzeń probabilistyczna

Stacjonarne szeregi czasowe

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Elementarna statystyka Dwie próby: porównanie dwóch proporcji (Two-sample problem: comparing two proportions)

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

punkcie. Jej granica lewostronna i prawostronna w punkcie x = 2 wynosz odpowiednio:

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Lekcja 12 - POMOCNICY

Informatyka. z przedmiotu RACHUNEK PRAWDOPODOBIE STWA

Ekonometria Bayesowska

Metodydowodzenia twierdzeń

Teoria grafów i sieci 1 / 58

I Rok LOGISTYKI: wykªad 2 Pochodna funkcji. iloraz ró»nicowy x y x

Strategia czy intuicja?

Zdzisªaw Dzedzej, Katedra Analizy Nieliniowej pok. 611 Kontakt:

Estymacja parametru gªadko±ci przy u»yciu falek splajnowych

Podstawy matematyki dla informatyków. Funkcje. Funkcje caªkowite i cz ±ciowe. Deniowanie funkcji. Wykªad pa¹dziernika 2012

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

Metoda momentów i kwantyli próbkowych. Wrocław, 7 listopada 2014

Rachunek prawdopodobieństwa Rozdział 5. Rozkłady łączne

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

Wykład 3 Momenty zmiennych losowych.

Elementarna statystyka Test Istotno±ci (Tests of Signicance)

Wykład 3 Momenty zmiennych losowych.

Zadania z kolokwiów ze Wst pu do Informatyki. Semestr II.

AM II /2019 (gr. 2 i 3) zadania przygotowawcze do I kolokwium

E. Sadowska-Owczorz Statystyka i probabilistyka - zadania kwiecie«2018

x y x y x y x + y x y

WBiA Architektura i Urbanistyka. 1. Wykonaj dziaªania na macierzach: Które z iloczynów: A 2 B, AB 2, BA 2, B 2 3, B = 1 2 0

istnienie elementu neutralnego dodawania (zera): 0 K a K a + 0 = a, istnienie elementu neutralnego mno»enia (jedynki): 1 K a K a 1 = a,

Tablice wzorów z probabilistyki

MATERIAŁY DIAGNOSTYCZNE Z MATEMATYKI

Transkrypt:

Sztuczna inteligencja Lista zada«informatyka, WPPT PWr Wrocªaw 2016 / 2017 1 Powtórka z rachunku prawdopodobie«stwa Zad. 1 Zdeniuj przestrze«probabilistyczn. Zad. 2 Przypomnij denicj zdarze«rozª cznych. Przypomnij denicj zdarze«niezale»nych. Kiedy zdarzenia rozª czne s niezale»ne? Zad. 3 Przypomnij poj cie prawdopodobie«stwa warunkowego. Zad. 4 Niech A 1, A 2,... tworz rozbicie przestrzeni (Ω, F, P). Udowodnij,»e dla dowolnego zdarzenia B P[B] = P[B A 1 ]P[A 1 ] + P[B A 2 ]P[A 2 ] +.... Zad. 5 Przypomnij wzór Bayesa. Zad. 6 Pies Huckleberry kupiª ±rodek owadobójczy,»eby zgªadzi termita. rodek z prawdopodobie«stwem 0, 8 zabija termita, je±li ten jest tzw. typu drewnianego. Huckleberry szacuje,»e jego maªy wróg to z prawdopodobie«stwem 1/4 termit typu drewnianego, za± z prawdopodobie«stwem 3/4 to termit innego typu. Policzyª,»e szansa zgªadzenia termita wynosi 0, 45. Z jakim prawdopodobie«stwem ±rodek zgªadzi termita, je±li termit potra budowa tunele poza drewnem (nie jest typu drewnianego)? Zad. 7 Przed chwil pies Huckleberry kupiª ±rodek owadobójczy,»eby zgªadzi termita. rodek z prawdopodobie«stwem 4/5 zabija termita, je±li ten jest tzw. typu drewnianego, za± z prawdopodobie«- stwem 1/3 zabija termita, je±li ten jest innego typu. Huckleberry szacowaª wtedy,»e jego maªy wróg to z prawdopodobie«stwem 1/4 termit typu drewnianego, za± z prawdopodobie«stwem 3/4 to termit innego typu. Po zastosowaniu ±rodka termit prze»yª. Pies Huckleberry zastanawia si, jaka jest szansa,»e ma do czynienia z termitem drewnianym, skoro jego maªy wróg prze»yª. Pomó» zrobi obliczenia Huckleberry'emu. Zad. 8 Zaªó»my,»e test na wykrywanie narkotyków z prawdopodobie«stwem 0.99 prawidªowo potwierdza obecno± narkotyku oraz z prawdopodobie«stwem 0.99 prawidªowo stwierdza jego brak. Zaªó»my równie»,»e tylko 0.5% populacji za»ywa narkotyki. Zaªó»my,»e pewien test bada«wypadª pozytywnie. Jakie jest prawdopodobie«stwo,»e badana osoba za»yªa narkotyk? Zad. 9 Przypomnij denicj zmiennej losowej, warto±ci oczekiwanej oraz wariancji. Kiedy 1. E[X + Y ] = E[X] + E[Y ]? 2. Var[X + Y ] = Var[X] + Var[Y ]? 3. EaX + b = aex + b? 4. Var[aX + b] =...? 5. E[XY ] = E[X]E[Y ]?

Zad. 10 Zaªó»my,»e X k B(k 2, 1 k ) dla k = 1, 2, 3,... s niezale»nymi zmiennymi losowymi. Niech Y n = X 1 +... + X n. Wyznacz granic lim n Var[Y n /n]. Zad. 11 Zaªó»my,»e X k Geo( 1 k ) dla k = 1, 2, 3,... s niezale»nymi zmiennymi losowymi. Niech Y n = X 1... X n. Wyznacz granic lim n E[Y n /(2n!)]. Zad. 12 Przypomnij denicj estymatora. Kiedy mówimy,»e estymator jest nieobci»ony, asymptotycznie nieobci»ony, najefektywniejszy? Zad. 13 Niech X = (X 1, X 2,..., X n ) b dzie prób pochodz c z rozkªadu o nieznanej warto±ci oczekiwanej µ i nieznanej wariancji σ 2. Za estymator parametru µ przyjmijmy ˆX n = 1 n n X i, i=1 za± za estymator parametru σ 2 Ŝn = 1 n n (X i ˆX n ) 2. i=1 Czy s to estymatory nieobci»one? A asymptotycznie nieobci»one? Je±li który± jest obci»ony, to spróbuj go zmodykowa tak, by byª nieobci»ony. Zad. 14 Niech X = (X 1, X 2,..., X n ) b dzie prób pochodz c z rozkªadu o znanej warto±ci oczekiwanej µ i nieznanej wariancji σ 2. Za estymator parametru σ 2 przyjmijmy Ŝ n = 3 n n i=1 ( Xi 3 µ ) 2. 3 Czy Ŝn jest estymatorem nieobci»onym? A asymptotycznie nieobci»onym?

2 PAC learnability Wi kszo± zada«zaczerpni ta jest z ksi»ki Understanding Machine Learning: From Theory to Algorithms, Shai Shalev-Schwartz, Shai Ben-David. Zad. 15 Pracujemy z nast puj cym modelem uczenia. Dziedzin (zbiorem obiektów, które chcemy etykietowa ) jest X = {0, 1, 2,..., 12}. Zbiór etykiet to Y = {0, 1}, a wi c b dziemy rozwa»a klasy- katory binarne. Ci g danych treningowych wygl da nast puj co S = ((9, 0), (3, 0), (4, 1), (9, 0), (8, 1)). Krzy±, Puchatek oraz Prosiaczek zaproponowali swoje hipotezy. Oto one { 0 gdy 3 x h Krz (x) = 1 w p.p. { 1 gdy 2 x h P uch (x) = { 1 gdy x 6 h P ros (x) = 1. Oblicz bª d empiryczny (ryzyko empiryczne) ka»dej z trzech hipotez. Które z nich s hipotezami ERM? 2. Zaªó»my,»e rozkªad, z którego pochodz obiekty, jest rozkªadem jednostajnym, oraz»e prawdziwa hipoteza etykietuje jedynkami liczby parzyste i zerami nieparzyste. Oblicz bª d realny (ryzyko realne) ka»dej z hipotez. 3. Jak zmieni si warto±ci bª dów empirycznych i realnych, je±li zaªo»ymy,»e rozkªad, z którego pochodz obiekty, jest rozkªadem dwumianowym z parametrami 12 i 1/2, i X P[{i}] = ( ) ( 12 1 ) 12? i 2 Zad. 16 Niech X b dzie zero-jedynkow zmienn losow. Udowodnij,»e E[X] = P[X = 1]. Zad. 17 Niech H b dzie zbiorem klasykatorów binarnych na przestrzeni X. Niech D b dzie nieznanym rozkªadem prawdopodobie«stwa okre±lonym na X i niech f b dzie prawdziwym etykietowaniem, f H. Ustalmy h H. Pokaza,»e warto± oczekiwana bª du empirycznego L S (h) (liczona nad losowaniem danych treningowych zgodnie z rozkªadem D) jest równa bª dowi realnemu L (D,f) (h), czyli E S x D m[l S(h)] = L (D,f) (h). Zad. 18 Klasykator zdeniowany przy pomocy rodziny prostok tów o bokach równolegªych do osi wspóªrz dnych przypisuje punktowi warto± 1 wtedy i tylko wtedy, gdy punkt znajduje si wewn trz pewnego prostok ta. Formalnie dla dowolnych liczb rzeczywistych a 1 b 1 oraz a 2 b 2 deniujemy klasykator h (a1,b 1,a 2,b 2) nast puj co { 1 gdy a1 x h (a1,b 1,a 2,b 2)(x 1, x 2 ) = 1 b 1 oraz a 2 x 2 b 2, Klasa hipotez bazuj ca na rodzinie prostok tów o bokach równolegªych do osi wspóªrz dnych to Zauwa»,»e jest to niesko«czona klasa hipotez. zaªo»enie realizowalno±ci. H 2 rec = {h (a1,b 1,a 2,b 2) : a 1 b 1 oraz a 2 b 2 }. Podczas tego wiczenia zakªadamy,»e speªnione jest 1. Niech A b dzie algorytmem, który zwraca najmniejszy prostok t zawieraj cy wszystkie pozytywnie oetykietowane próbki danych treningowych. Uzasadnij,»e A jest algorytmem ERM H 2 rec. 4 log 4/δ 2. Poka»,»e je±li A otrzyma zbiór treningowy mocy ε, to z prawdopodobie«stwem 1 δ zwróci hipotez o bª dzie rzeczywistym ograniczonym z góry przez ε.

HINT. Ustal pewien rozkªad D na X. Niech R = R(a 1, b 1, a 2, b 2) b dzie prostok tem, który generuje poprawne etykietowanie. Niech a 1 a 1 b dzie tak dobrane, by masa rozkªadu prawdopodobie«stwa prostok ta R 1 = (a 1, a 1, a 2, a 2 ) wynosiªa ε/4. Podobnie, niech b 1, a 2, b 2 b da tak dobrane, by masa rozkªadu prawdopodobie«stwa ka»dego z prostok tów R 2 = (b 1, b 1, a 2, b 2), R 3 = (a 1, b 1, a 2, a 2 ), R 4 = (a 1, b 1, b 2, b 2) równie» wynosiªa ε/4. Niech R(S) b dzie prostok tem zwróconym przez algorytm A (patrz rysunek). Uzasadnij,»e R(S) R. Uzasadnij,»e je±li S w ka»dym z prostok tów R 1, R 2, R 3, R 4 zawiera cho jeden punkt, to bª d rzeczywisty hipotezy zwróconej przez A wynosi co najwy»ej ε. Dla ka»dego i {1, 2, 3, 4} ogranicz z góry prawdopodobie«stwo tego,»e S nie zawiera punktu wewn trz R i. Skorzystaj z podaddytywno±ci prawdopodobie«stwa, by wyci gn ostateczny wniosek. 3. Jaki b dzie czas dziaªania algorytmu A? Zad. 19 Niech X b dzie dziedzin dyskretn oraz niech H Singleton = {h z : z X } {h }, gdzie dla ka»dego z X, h z jest funkcj zdeniowan nast puj co: h z (x) = 1, gdy x = z oraz h z (x) = 0, gdy x z. h jest hipotez, która etykietuje wszystko negatywnie, tzn., x X h (x) = 0. Z zaªo»enia realizowalno±ci wynika,»e prawdziwa hipoteza f etykietuje negatywnie wszystkie obiekty przestrzeni X, z wyj tkiem co najwy»ej jednego. 1. Zaproponuj dowoln hipotez ERM H. 2. Poka»,»e H Singleton jest klas PAC nauczaln. Zaproponuj górne ograniczenie zªo»ono±ci próbkowej. Zad. 20 Niech X = R 2, Y = {0, 1} oraz niech H b dzie klas koncentrycznych okr gów na pªaszczy¹nie, tzn. H = {h r : r R + }, gdzie h r (x) = 1[ x r]. Udowodnij,»e H jest PAC nauczalna, oraz»e zªo»ono± próbkowa jest ograniczona przez log(1/δ) m H (ε, δ). ε Zad. 21 Czy niesko«czona klasa hipotez H mo»e by PAC nauczalna?

3 Agnostic PAC learnability Zad. 22 Niech X = {a, b}, za± Y = {0, 1} (etykietowanie binarne). Wiedz c,»e w pewnym learning tasku prawdziwym rozkªadem na dziedzinie X Y, z którego pochodz obiekty, jest D dany tabel 0 1 a 1/2 1/6 b 1/6 1/6 skonstruuj optymalny klasykator Bayesa f B : X {0, 1}. Oblicz jego bª d realny L D (f B ). Czy da si skonstruowa hipotez h, której bª d realny L D (h) b dzie mniejszy ni» L D (f B )? Zad. 23 Pracujemy z nast puj cym modelem uczenia. Dziedzin (zbiorem obiektów, które chcemy etykietowa ) jest X = {0, 1, 2,..., 12}. Zbiór etykiet to Y = {0, 1}, a wi c b dziemy rozwa»a klasy- katory binarne. Ci g danych treningowych wygl da nast puj co S = ((9, 0), (3, 0), (4, 1), (9, 1), (8, 1)). Krzy±, Puchatek oraz Prosiaczek zaproponowali swoje hipotezy. Oto one { 0 gdy 3 x h Krz (x) = 1 w p.p. { 1 gdy 2 x h P uch (x) = { 1 gdy x 6 h P ros (x) = 1. Oblicz bª d empiryczny (ryzyko empiryczne) ka»dej z trzech hipotez. 2. Prawdziwy rozkªad D na X Y, z którego pochodz obiekty, mo»e by przedstawiony nast puj co. Deniuj go - rozkªad brzegowy D x na X, który jest po prostu rozkªadem jednostajnym oraz rozkªad warunkowy etykiet D y x dany przez P[Y = 0 X = x] = { 1/3 gdy 2 x 3/4 w p.p., P[Y = 1 X = x] = { 2/3 gdy 2 x 1/4 w p.p. Jak wygl da tu optymalny klasykator Bayesa? Oblicz jego bª d realny. 3. Oblicz bª d realny (ryzyko realne) ka»dej z trzech hipotez. Zad. 24 Wiemy,»e dla dziedziny Z = X Y, klasy hipotez H, funkcji straty l : H Z R + oraz rozkªadu D próba S jest ε/2 - reprezentatywna. Poka»,»e ka»da hipoteza h S zwrócona przez algorytm ERM H speªnia L D (h S ) min h H L D(h) + ε. Zad. 25 Niech H b dzie klas klasykatorów binarnych. Poka»,»e je±li H jest agnostycznie PAC nauczalna, to H jest te» PAC nauczalna. Zad. 26 Niech Z = X Y b dzie dziedzin i l : H Z R + funkcj straty. Na wykªadzie udowodnili±my,»e je±li H jest sko«czona, za± warto±ci funkcji straty ograniczone do (0, 1), to H jest agnostycznie PAC nauczalna. Pokazali±my,»e zaªo»enia denicji agnostycznej PAC nauczalno±ci speªnia dowolny algorytm ERM H, za± zªo»ono± próbkow mo»na ograniczy przez m H (ε, δ) 2 log(2 H /δ) ε 2. Jak zmieni si ograniczenie zªo»ono±ci próbkowej, je±li przeprowadzimy ten sam dowód dla funkcji straty, której warto±ci zawieraj si w przedziale (a, b) (a, b R + )?

Zad. 27 Przypomnij nierówno± Markowa. Nast pnie udowodnij nierówno± Hoedinga. Nierówno± Hoedinga. Niech Z 1, Z 2,..., Z m b dzie ci giem niezale»nych zmiennych losowych pochodz cych z tego samego rozkªadu takich,»e E[Z i ] = µ oraz P[a Z i b] = 1. Wtedy dla ka»dego ε > 0. [ ] 1 m P Z i µ m > ε 2e 2mε 2 (b a) 2 i=1 HINT. Niech X i = Z i E[Z i ] oraz X = 1 m m i=1 X i. Zauwa»,»e λ > 0, ε > 0 P[ X > ε] = P[e λ X > e λε ]. Skorzystaj z nierówno±ci Markowa, nast pnie z niezale»no±ci zmiennych X i, a potem lematu Hoedinga. Jak wygl da otrzymana nierówno± dla λ = 4mε/(b a) 2? Powtórz rozumowanie dla zmiennej X. Lemat Hoedinga. Niech X b dzie zmienn losow przyjmuj c warto±ci w [a, b] tak,»e E[X] = 0. Wtedy λ > 0 E[e λx ] e λ2 (b a) 2 8.

4 VC dimension Zad. 28 Niech X = {x 1, x 2, x 3 }, C 1 = {x 1, x 2 }, C 2 = {x 2, x 3 }. Rozwa»amy klas hipotez H = {(0, 0, 0), (0, 0, 1), (0, 1, 0), (0, 1, 1)} - jest to zbiór czterech funkcji z X w {0, 1} reprezentowanych jako wektory z {0, 1} X. Wyznacz obci cie H do C 1 (H C1 ) oraz do C 2 (H C2 ). Czy H szatkuje C 1? A C 2? Jaki jest wymiar V C klasy H? Zad. 29 Niech X = R, za± H niech b dzie klas wszystkich otwartych przedziaªów na R, tzn. H = {h a,b : a, b R, a < b}, gdzie { 1 gdy x (a, b) h a,b (x) = Przypomnij, dlaczego V Cdim(H) = 2. Zad. 30 Przekonaj siebie,»e wymiar V C klasy z zadania 18 (klasa hipotez bazuj ca na rodzinie prostok tów o bokach równolegªych do osi wspóªrz dnych H 2 rec) wynosi 4. Nast pnie przekonaj do tego kole»ank lub koleg z ªawki. Zad. 31 Jaki jest wymiar V C klasy wszystkich kóª na R 2? Zad. 32 Uzasadnij,»e dla ka»dych dwóch klas hipotez je±li H H, to V Cdim(H ) V Cdim(H). Zad. 33 Niech X = {1, 2,..., n} oraz k n. Jaki jest wymiar V C klasy wszystkich funkcji z X w {0, 1}, które przypisuj warto± 1 dokªadnie k elementom z X? (H X =k = {h {0, 1}X : {x : h(x) = 1} = k}.) Zad. 34 Na wykªadzie pokazali±my,»e V Cdim(H) log 2 H. Jednak jest to tylko górne ograniczenie, V Cdim(H) mo»e by du»o mniejsze ni» log 2 H. Podaj przykªad klasy H, dla której ró»- nica log 2 H V Cdim(H) mo»e by dowolnie du»a. (Rozwa» klas pewnych funkcji progowych na X = {1, 2,..., k}). Zad. 35 Niech X = R oraz H = {h t : t R}, gdzie h t (x) = 0, 5 sin(tx). Uzasadnij,»e V Cdim(H) =. Zad. 36 Niech X b dzie zmienn losow przyjmuj c warto±ci w [0, 1]. oczekiwana X wynosi µ. Udowodnij,»e dla ka»dego a (0, 1) P[Z > a] µ a 1 a. Przyjmijmy,»e warto± (Zastosuj nierówno± Markowa do zmiennej losowej Y = 1 X.) Nast pnie uzasadnij,»e je±li E[X] 1/4, to P[X 1/8] 1/7.

5 Decision trees and neural networks Zad. 37 Poka»,»e dowolna hipoteza h : {0, 1} d {0, 1} mo»e zosta zaimplementowana jako drzewo decyzyjne wysoko±ci co najwy»ej d + 1 z w zªami wewn trznymi postaci (x 1 = 0?) dla i {0, 1,..., d}. Wyci gnij wniosek,»e wymiar V C klasy drzew decyzyjnych dla dziedziny {0, 1} d wynosi 2 d. Zad. 38 Suboptymalno± algorytmu ID3. Niech X = {0, 1} 3 oraz Y = {0, 1}. Rozwa»my nast puj cy zbiór treningowy: {((1, 1, 1), 1), ((1, 0, 0), 1), ((1, 1, 0), 0), ((0, 0, 1), 0)}. Zaªó»my,»e chcemy go wykorzysta do zbudowania drzewa decyzyjnego gª boko±ci 2 (tzn. dla ka»dej danej wej±ciowej mo»emy zada dwa pytania postaci (x i = 0?) zanim przypiszemy jej etykiet ). 1. Wykonujemy algorytm ID3 z warunkiem maksymalnej gª boko±ci 2. Atrybuty, wedªug których rozbijamy kolejne w zªy s wybierane z wykorzystaniem funkcji zysku informacji (minimalizujemy entropi ). Je»eli dwa atrybuty otrzymuj ten sam wynik, wybieramy jeden z atrybutów losowo. Poka»,»e bª d empiryczny wynikowego drzewa decyzyjnego b dzie wynosiª zawsze co najmniej 1/4. 2. Znajd¹ drzewo decyzyjne gª boko±ci 2 o zerowym bª dzie empirycznym. Zad. 39 Rozwa»my problem klasykacji binarnej. Próba zawiera 800 obiektów, po 400 z ka»dej klasy. Podziaª próby wedªug atrybutu i daje rozbicie na w zeª (300, 100) (tzn. 300 obiektów oetykietowanych zerem i 100 jedynk ) oraz w zeª (100, 300). Podziaª próby wedªug atrybutu j daje rozbicie na w zeª (200, 400) oraz (200, 0) (tzw. czysty w zeª). Porównaj warto±ci trzech rodzajów funkcji zysku przedstawionych na wykªadzie dla tej sytuacji. Które s lepsze? Zad. 40 Skonstruuj jednowarstwow sie neuronow (podaj wektor wag, topologi sieci oraz funkcj aktywacyjn ) o jednym wyj±ciu, która implementuje koniunkcj dwóch bitów. Zad. 41 Skonstruuj jednowarstwow sie neuronow (podaj wektor wag, topologi sieci oraz funkcj aktywacyjn ) o jednym wyj±ciu, która implementuje koniunkcj n bitów. Zad. 42 Skonstruuj dwuwarstwow sie neuronow (podaj wektor wag, topologi sieci oraz funkcj aktywacyjn ), która implementuje funkcj XOR. Zad. 43 Czy da si skonstruowa jednowarstwow sie neuronow implementuj c dodawanie dwóch bitów?