COLT - Obliczeniowa teoria uczenia si

Podobne dokumenty
Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Systemy decyzyjne Wprowadzenie

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Wst p. Elementy systemów decyzyjnych Sprawy organizacyjne. Wprowadzenie Przegl d metod klasykacji

Twierdzenie Wainera. Marek Czarnecki. Warszawa, 3 lipca Wydziaª Filozoi i Socjologii Uniwersytet Warszawski

Wst p do uczenia maszynowego. Teoria nauczalno±ci.

Wykªad 7. Ekstrema lokalne funkcji dwóch zmiennych.

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Wnioskowanie Boolowskie i teoria zbiorów przybli»onych

Matematyka dyskretna dla informatyków

Biostatystyka, # 5 /Weterynaria I/

A = n. 2. Ka»dy podzbiór zbioru sko«czonego jest zbiorem sko«czonym. Dowody tych twierdze«(elementarne, lecz nieco nu» ce) pominiemy.

Ciaªa i wielomiany. 1 Denicja ciaªa. Ciaªa i wielomiany 1

Przeksztaªcenia liniowe

ELEMENTARNA TEORIA LICZB. 1. Podzielno±

Rozwini cia asymptotyczne dla mocy testów przybli»onych

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Funkcje wielu zmiennych

Wykªad 4. Funkcje wielu zmiennych.

JAO - J zyki, Automaty i Obliczenia - Wykªad 1. JAO - J zyki, Automaty i Obliczenia - Wykªad 1

CAŠKOWANIE METODAMI MONTE CARLO Janusz Adamowski

Funkcje wielu zmiennych

Przykªady problemów optymalizacji kombinatorycznej

3. (8 punktów) EGZAMIN MAGISTERSKI, Biomatematyka

Lab. 02: Algorytm Schrage

Ekstremalnie maªe zbiory

Elementy Modelowania Matematycznego Wykªad 1 Prawdopodobie«stwo

Zbiory i odwzorowania

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

2 Liczby rzeczywiste - cz. 2

1 Metody iteracyjne rozwi zywania równania f(x)=0

Sztuczna inteligencja Lista zada«

Prawdopodobie«stwo warunkowe, twierdzenie Bayesa, niezale»no± zdarze«.

I Rok LOGISTYKI: wykªad 2 Pochodna funkcji. iloraz ró»nicowy x y x

Przekroje Dedekinda 1

1 Bª dy i arytmetyka zmiennopozycyjna

Metody dowodzenia twierdze«

Metodydowodzenia twierdzeń

Podstawy matematyki dla informatyków

2. L(a u) = al( u) dla dowolnych u U i a R. Uwaga 1. Warunki 1., 2. mo»na zast pi jednym warunkiem: L(a u + b v) = al( u) + bl( v)

Maszyny Turinga i problemy nierozstrzygalne. Maszyny Turinga i problemy nierozstrzygalne

Ekonometria. wiczenia 4 Prognozowanie. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Wst p do sieci neuronowych 2010/2011 wykªad 7 Algorytm propagacji wstecznej cd.

Modele liniowe i mieszane na przykªadzie analizy danych biologicznych - Wykªad 6

In»ynierskie zastosowania statystyki wiczenia

Statystyka matematyczna - ZSTA LMO

Macierze. 1 Podstawowe denicje. 2 Rodzaje macierzy. Denicja

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Uczenie Wielowarstwowych Sieci Neuronów o

Ekonometria Bayesowska

PRZYPOMNIENIE Ka»d przestrze«wektorow V, o wymiarze dim V = n < nad ciaªem F mo»na jednoznacznie odwzorowa na przestrze«f n n-ek uporz dkowanych:

Zdzisªaw Dzedzej, Katedra Analizy Nieliniowej pok. 611 Kontakt:

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Metody numeryczne i statystyka dla in»ynierów

Szeregowanie zada« Wykªad nr 5. dr Hanna Furma«czyk. 4 kwietnia 2013

1 Granice funkcji wielu zmiennych.

Zbiory ograniczone i kresy zbiorów

Algorytmiczna teoria grafów

Zadania. 4 grudnia k=1

Wielomiany. El»bieta Sadowska-Owczorz. 19 listopada 2018

Elementarna statystyka

Modele wielorównaniowe. Problem identykacji

Indeksowane rodziny zbiorów

5. (8 punktów) EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Wst p do sieci neuronowych, wykªad 14 Zespolone sieci neuronowe

Rozwi zanie równania ró»niczkowego metod operatorow (zastosowanie transformaty Laplace'a).

Oba zbiory s uporz dkowane liniowo. Badamy funkcj w pobli»u kresów dziedziny. Pewne punkty szczególne (np. zmiana denicji funkcji).

Funkcje wielu zmiennych

Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

Problem decyzyjny naley do klasy NP. (Polynomial), jeeli moe by rozwizany w czasie conajwyej wielomianowym przez algorytm A dla DTM.

Statystyka. Šukasz Dawidowski. Instytut Matematyki, Uniwersytet l ski

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

1 Poj cia pomocnicze. Przykªad 1. A A d

Maªgorzata Murat. Modele matematyczne.

Ekonometria. wiczenia 2 Werykacja modelu liniowego. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

*** Teoria popytu konsumenta *** I. Pole preferencji konsumenta 1. Przestrze«towarów 2. Relacja preferencji konsumenta 3. Optymalny koszyk towarów

Matematyka 1. Šukasz Dawidowski. Instytut Matematyki, Uniwersytet l ski

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Algorytmy zwiazane z gramatykami bezkontekstowymi

Metody numeryczne i statystyka dla in»ynierów

Ÿ1 Oznaczenia, poj cia wst pne

Interpolacja funkcjami sklejanymi

EGZAMIN MAGISTERSKI, r Matematyka w ekonomii i ubezpieczeniach

Jednowarstwowe Sieci Neuronowe jako. klasykatory do wielu klas. (c) Marcin Sydow

Metoda tablic semantycznych. 1 Metoda tablic semantycznych

Metody probablistyczne i statystyka stosowana

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

Strategia czy intuicja?

Liniowe równania ró»niczkowe n tego rz du o staªych wspóªczynnikach

x y x y x y x + y x y

Stacjonarne szeregi czasowe

Biostatystyka, # 4 /Weterynaria I/

ARYTMETYKA MODULARNA. Grzegorz Szkibiel. Wiosna 2014/15

XVII Warmi«sko-Mazurskie Zawody Matematyczne

WST P DO TEORII INFORMACJI I KODOWANIA. Grzegorz Szkibiel. Wiosna 2013/14

Interpolacja Lagrange'a, bazy wielomianów

1 Przypomnienie wiadomo±ci ze szkoªy ±redniej. Rozwi zywanie prostych równa«i nierówno±ci

Statystyka matematyczna - ZSTA LMO

Transkrypt:

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 1 / 32 COLT - Obliczeniowa teoria uczenia si Hung Son Nguyen Institute of Mathematics, Warsaw University son@mimuw.edu.pl 2007

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 2 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 2 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 2 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 2 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 2 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 3 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 4 / 32 ródªo informacji: Ucze«mo»e pozyska informacje o dziedzinie poprzez: 1 Przykªady: Ucze«dostaje pozytywne i/lub negatywne przykªady. Przykªady mog by zdobywane w sposób: 1 losowy: wedªug pewnego znanego lub nieznanego rozkªadu; 2 arbitralny; 3 zªo±liwy: (np. przez kontrolera, który chciaªby pozna najgorsze zachowanie algorytmu uczenia si ); 4 specjalny przez»yczliwego nauczyciela: (np., aby uªatwia proces uczenia si ) 2 Zapytania: ucze«zdobywa informacje o dziedzinie przez zadawanie zapyta«do nauczyciela. 3 Eksperymentowanie: aktywne uczenie si.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 5 / 32 Teoria uczenia si Podej±cie indukcyjne: wnioskowanie na podstawie sko«czonego zbioru obserwacji;

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 5 / 32 Teoria uczenia si Podej±cie indukcyjne: wnioskowanie na podstawie sko«czonego zbioru obserwacji; Np. Pokaza,»e dla ka»dego n N 1 2 + 2 2 +... + n 2 = n(n + 1)(2n + 1) 6

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 5 / 32 Teoria uczenia si Podej±cie indukcyjne: wnioskowanie na podstawie sko«czonego zbioru obserwacji; Np. Pokaza,»e dla ka»dego n N 1 2 + 2 2 +... + n 2 = n(n + 1)(2n + 1) 6 Jakie prawa rz dz w podej±ciu uczenia indukcyjnego? Szukamy teorii dotycz cej: Prawdopodobie«stwa udanego uczenia si ; Liczby przykªadów treningowych; Zªo»ono±ci przestrzeni hipotez; Skuteczno±ci aproksymacji; Sposób reprezentacji danych treningowych;

Kryteria oceny jako±ci: Sk d wiemy, czy ucze«si nauczyª lub jak dobrze si nauczyª? Miary o-line (batch) vs. on-line (interactive). Jako± opisu vs. jako± predykcji Skuteczno± : obliczona na podstawie bª du klasykacji, dokªadno±ci opisu... Efektywno± uczenia: wymagana jest wielomianowa zªo»ono± obliczeniowa. Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 6 / 32

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 7 / 32 Przykªad Zaªó»my,»e chcemy nauczy si poj cia czªowieka o ±redniej budowie ciaªa. Dane czyli osoby s reprezentowane przez punkty (wzrost(cm), waga(kg)) i s etykietowane przez + dla pozytywnych przykªadów i dla negatywnych. Dodatkowa wiedza: szukane poj cie mo»na wyrazi za pomoc PROSTOK TA Na przykªad dany jest etykietowany zbiór: ((84, 184), +), ((70, 170), +), ((75, 163), ), ((80, 180), +), ((81, 195), ), ((63, 191), ), ((77, 187), ), ((68, 168), +) Znajd¹ etykiet ((79, 183,?)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 8 / 32 Problem uczenia si prostok ta Mo»emy deniowa problem jak nast puj co: Cel: Znale¹ w R 2 prostok t R o bokach równolegªych do osi.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 8 / 32 Problem uczenia si prostok ta Mo»emy deniowa problem jak nast puj co: Cel: Znale¹ w R 2 prostok t R o bokach równolegªych do osi. Wej±cie: Zbiór zawieraj cy przykªady w postaci punktów ((x, y), +/ ). Te punkty zostaªy wygenerowane losowo.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 8 / 32 Problem uczenia si prostok ta Mo»emy deniowa problem jak nast puj co: Cel: Znale¹ w R 2 prostok t R o bokach równolegªych do osi. Wej±cie: Zbiór zawieraj cy przykªady w postaci punktów ((x, y), +/ ). Te punkty zostaªy wygenerowane losowo. Wyj±cie: hipotetyczny prostok t R b d cy dobr aproksymacj R.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 8 / 32 Problem uczenia si prostok ta Mo»emy deniowa problem jak nast puj co: Cel: Znale¹ w R 2 prostok t R o bokach równolegªych do osi. Wej±cie: Zbiór zawieraj cy przykªady w postaci punktów ((x, y), +/ ). Te punkty zostaªy wygenerowane losowo. Wyj±cie: hipotetyczny prostok t R b d cy dobr aproksymacj R. Dodatkowe wymagania: Algorytm powinien by efektywny (czasowo) u»ywaj c do uczenia najmniejszej liczby przykªadów.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 9 / 32 Ogólny model uczenia si Dane s zbiór wszystkich obiektów X (sko«czony lub nie); poj cie c C (funkcja celu); sko«czona próbka D obiektów x 1,..., x m X wraz z warto±ci funkcji c na tych obiektach; przestrze«hipotez H;

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 9 / 32 Ogólny model uczenia si Dane s zbiór wszystkich obiektów X (sko«czony lub nie); poj cie c C (funkcja celu); sko«czona próbka D obiektów x 1,..., x m X wraz z warto±ci funkcji c na tych obiektach; przestrze«hipotez H; Szukane hipoteza h H b d ca dobr aproksymacj poj cia c.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 9 / 32 Ogólny model uczenia si Dane s zbiór wszystkich obiektów X (sko«czony lub nie); poj cie c C (funkcja celu); sko«czona próbka D obiektów x 1,..., x m X wraz z warto±ci funkcji c na tych obiektach; przestrze«hipotez H; Szukane hipoteza h H b d ca dobr aproksymacj poj cia c. Wymagane dobra jako± aproksymacji szybki czas dziaªania.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 10 / 32 Inne przykªady Uczenie póªosi (lub dyskretyzacji): X = R; C = H = {[λ, ) : α R} Uczenie hiperpªaszczyzny: X = R n ; H = {f w0,w 1,...,w n : R n {0, 1} } gdzie f w0,...,w n (x 1,..., x n ) = sgn(w 0 + w 1 x 1 +... + w n x n ). Uczenie jednomianów Boolowskich: X = {0, 1} n ; c : {0, 1} n {0, 1}; H = M n = zbiór jednomianów Boolowskich o n zmiennych.

Bª d hipotezy Niech X zbiór wszystkich obiektów. Ω = (X, µ) przestrze«probabilistyczna okre±lona na X. Bª d hipotezy h H wzgl dem poj cia c (funkcji docelowej): er Ω (h, c) = er c Ω(h) = µ{x X h(x) c(x)} Z prawdopodobie«stwem (1 ε) mo»emy oszacowa er c Ω : erω c erd c erd c s (1 erc D ) ε 2 D Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 11 / 32

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 12 / 32 The No Free Lunch Theorem Algorytm L dobrze si uczy poj cia c je±li erω c jest maªy. Niech P(X) = {c : X {0, 1}}. Czy mo»na stwierdzi wiedzie,»e L 1 uczy si wszystkich poj z P(X) lepiej od L 2? No Free Lunch theorem (Wolpert, Schaer) w wersji problemów uczenia si gªosi,»e: aden algorytm nie mo»e by najlepszy w uczeniu wszystkich poj. Ka»dy algorytm jest najlepszy dla takiej samej liczby poj Ale interesuje nas tylko pewna klasa problemów czyli klasa poj C P(X) Wniosek: Nale»y znale¹ odp. algorytm do ka»dego problemu.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 13 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 14 / 32 Model uczenia si PAC Dane: dziedzina X, klasa poj C i przestrze«hipotez ucznia H.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 14 / 32 Model uczenia si PAC Dane: dziedzina X, klasa poj C i przestrze«hipotez ucznia H. Ucze«uczy si poj cia c C na podstawie przykªadów wygenerowanych przez zm.l. EX(Ω, c) (zwan wyroczni ). rodzina wszystkich zbiorów zawieraj cych m przykªadów D = { x 1, c(x 1 ),..., x m, c(x m ) } S(m, c)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 14 / 32 Model uczenia si PAC Dane: dziedzina X, klasa poj C i przestrze«hipotez ucznia H. Ucze«uczy si poj cia c C na podstawie przykªadów wygenerowanych przez zm.l. EX(Ω, c) (zwan wyroczni ). rodzina wszystkich zbiorów zawieraj cych m przykªadów D = { x 1, c(x 1 ),..., x m, c(x m ) } S(m, c) Kolejne przykªady zbioru trenuj cego generuje zm. losowa EX(c, Ω) (wyrocznia) zwracaj ca przykªad x, c(x), gdzie x X jest wylosowane zgodnie z Ω.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 14 / 32 Model uczenia si PAC Dane: dziedzina X, klasa poj C i przestrze«hipotez ucznia H. Ucze«uczy si poj cia c C na podstawie przykªadów wygenerowanych przez zm.l. EX(Ω, c) (zwan wyroczni ). rodzina wszystkich zbiorów zawieraj cych m przykªadów D = { x 1, c(x 1 ),..., x m, c(x m ) } S(m, c) Kolejne przykªady zbioru trenuj cego generuje zm. losowa EX(c, Ω) (wyrocznia) zwracaj ca przykªad x, c(x), gdzie x X jest wylosowane zgodnie z Ω. Celem ucznia jest znalezienie hipotezy minimalizuj cej bª d rzeczywisty wzgl dem c dla rozkªadu Ω, czyli er c Ω.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 14 / 32 Model uczenia si PAC Dane: dziedzina X, klasa poj C i przestrze«hipotez ucznia H. Ucze«uczy si poj cia c C na podstawie przykªadów wygenerowanych przez zm.l. EX(Ω, c) (zwan wyroczni ). rodzina wszystkich zbiorów zawieraj cych m przykªadów D = { x 1, c(x 1 ),..., x m, c(x m ) } S(m, c) Kolejne przykªady zbioru trenuj cego generuje zm. losowa EX(c, Ω) (wyrocznia) zwracaj ca przykªad x, c(x), gdzie x X jest wylosowane zgodnie z Ω. Celem ucznia jest znalezienie hipotezy minimalizuj cej bª d rzeczywisty wzgl dem c dla rozkªadu Ω, czyli er c Ω. Zasadnicza idea modelu PAC: okre±lenie warunków, pod jakimi ucze«(lub algorytm uczenia si ) znajdzie dobr hipotez z du»ym prawdopodobie«stwem. (o ograniczonym bª dzie rzeczywistym powy»ej okre±lonego progu)

PAC-owy ucze«definition (PAC) Algorytm L nazywamy prawdopodobnie aproksymacyjnie poprawnym wtedy i tylko wtedy, gdy dla ka»dych 0 < ε, δ < 1, istnieje liczba m 0 = m 0 (ε, δ) taka,»e dla dowolnego poj cia c C i dla dowolnego rozkªadu Ω na X mamy µ m {D S(m, c) er Ω (L(D)) < ε} > 1 δ o ile m > m 0. Wówczas mówimy w skrócie,»e L jest PAC (Probably Approximately Correct). ε dopuszczalny poziom bª du (1 δ) poziom zaufania Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 15 / 32

Przykªad problemu dyskretyzacji X = R; H = C = {f λ : R {0, 1} f λ (x) = 1 x λ} c = f λ0 znale¹ λ 0 na podstawie losowo wygenerowanych przykªadów D = { x 1, f λ0 (x 1 ),..., x m, f λ0 (x m ) } Algorytm: 1 Set λ := min i {1,...,m} {x i : f λ0 (x i ) = 1}; 2 L(D) := f λ ; Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 16 / 32

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 17 / 32 Przykªad (c.d.) Twierdzenie: Powy»szy algorytm jest PAC Dowód erω c = µ([λ 0, λ )) Niech β 0 = sup{β µ([λ 0, β)) < ε}. Wówczas erω c (f λ ) ε λ β 0 jeden z przykªadów x i znajduje si w przedziale [λ 0, β 0 ]; Prawdopodobie«stwo tego,»e»aden po±ród m przykªadów nie nale»y do [λ 0, β 0 ] jest (1 ε) m. St d µ m {D S(m, f λ0 ) er Ω (L(D)) ε} 1 (1 ε) m Aby to prawdopodobie«stwo byªo > 1 δ, wystarczy wybra 1 m m 0 = ε ln 1 δ

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 18 / 32 Dokªadne uczenie si Niech Ω b dzie rozkªadem dyskretnym zdeniowanym przez µ 1 = µ(x 1 ),..., µ n = µ(x n ) dla pewnych x 1,..., x n X takich,»e µ 1 +... + µ n = 1. Niech ε min = min µ i. i Je±li L jest PAC, i je±li ε ε min to warunek erω c (L(D)) < ε jest równowa»ny z erω c (L(D)) = 0. St d dla ka»dego δ, istnieje m 0 = m 0 (ε min, δ) taka,»e dla dowolnego c C i Ω m > m 0 µ m {D S(m, t) er Ω (L(D)) = 0} > 1 δ Wówczas mówimy,»e prawdopodobnie L jest dokªadnym algorytmem (jest PEC probably exactly correct)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 19 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 20 / 32 Potencjalna wyuczalno± Algorytm L nazywamy niesprzecznym je±li dla ka»dego poj cia c i ka»dego zbioru D mamy er c D (L(D)) = 0 (tzn. L(D)(x i ) = c(x i ) dla dowolnego przykªadu (x i, c(x i )) D).

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 20 / 32 Potencjalna wyuczalno± Algorytm L nazywamy niesprzecznym je±li dla ka»dego poj cia c i ka»dego zbioru D mamy er c D (L(D)) = 0 (tzn. L(D)(x i ) = c(x i ) dla dowolnego przykªadu (x i, c(x i )) D). H c (D) = {h H h(x i ) = c(x i )(i = 1,..., m)}. L jest niesprzeczny je±li L(D) H c (D) dla ka»dego D.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 20 / 32 Potencjalna wyuczalno± Algorytm L nazywamy niesprzecznym je±li dla ka»dego poj cia c i ka»dego zbioru D mamy er c D (L(D)) = 0 (tzn. L(D)(x i ) = c(x i ) dla dowolnego przykªadu (x i, c(x i )) D). H c (D) = {h H h(x i ) = c(x i )(i = 1,..., m)}. L jest niesprzeczny je±li L(D) H c (D) dla ka»dego D. B c ε = {h H er Ω (h) ε} zbiór sªabych hipotez

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 20 / 32 Potencjalna wyuczalno± Algorytm L nazywamy niesprzecznym je±li dla ka»dego poj cia c i ka»dego zbioru D mamy er c D (L(D)) = 0 (tzn. L(D)(x i ) = c(x i ) dla dowolnego przykªadu (x i, c(x i )) D). H c (D) = {h H h(x i ) = c(x i )(i = 1,..., m)}. L jest niesprzeczny je±li L(D) H c (D) dla ka»dego D. B c ε = {h H er Ω (h) ε} zbiór sªabych hipotez Definition Mówimy,»e C jest potencjalnie wyuczalne za pomoc H, je±li dla ka»dego rozkªadu Ω na X i dowolnego poj cia c C oraz dla dowolnych 0 < ε, δ < 1 istnieje m 0 = m 0 (ε, δ) takie,»e m m 0 µ m {D S(m, c) H c (D) B c ε = } > 1 δ

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 21 / 32 Potencjalna wyuczalno± Theorem Je±li 1 C jest potencjalnie wyuczalne za pomoc H 2 L jest algorytmem niesprzecznym dla C Wówczas L jest PAC Theorem (Haussler, 1988) Je±li C = H i C <, to C jest potencjalnie wyuczalne. Dowód: Niech h B ε (tzn. er Ω (h) ε). Wówczas µ m {D S(m, c) er D (h) = 0} (1 ε) m µ m {D : H[D] B ε } B ε (1 ε) m H (1 ε) m Aby H (1 ε) m < δ wystarczy wybra m m 0 = 1 ε H ln δ

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 22 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 23 / 32 Wymiar Vapnika-Chervonenkisa Niech x = {x 1, x 2,...x m } X. Oznaczmy przez Π H (x) liczb podziaªów zbioru x dokonanych przez H, t.j. liczb ró»nych wektorów postaci po wszystkich h H. (h(x 1 ),..., h(x m )) {0, 1} m

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 23 / 32 Wymiar Vapnika-Chervonenkisa Niech x = {x 1, x 2,...x m } X. Oznaczmy przez Π H (x) liczb podziaªów zbioru x dokonanych przez H, t.j. liczb ró»nych wektorów postaci po wszystkich h H. (h(x 1 ),..., h(x m )) {0, 1} m Π H (x) 2 m. Je±li zachodzi równo±, mówimy,»e H rozbija x.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 23 / 32 Wymiar Vapnika-Chervonenkisa Niech x = {x 1, x 2,...x m } X. Oznaczmy przez Π H (x) liczb podziaªów zbioru x dokonanych przez H, t.j. liczb ró»nych wektorów postaci po wszystkich h H. (h(x 1 ),..., h(x m )) {0, 1} m Π H (x) 2 m. Je±li zachodzi równo±, mówimy,»e H rozbija x. Niech Π H (m) = max x X m Π H(x)

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 23 / 32 Wymiar Vapnika-Chervonenkisa Niech x = {x 1, x 2,...x m } X. Oznaczmy przez Π H (x) liczb podziaªów zbioru x dokonanych przez H, t.j. liczb ró»nych wektorów postaci po wszystkich h H. (h(x 1 ),..., h(x m )) {0, 1} m Π H (x) 2 m. Je±li zachodzi równo±, mówimy,»e H rozbija x. Niech Π H (m) = max x X m Π H(x) Na przykªad: W przypadku przestrzeni póªosi postaci [α, ) mamy Π H (m) = m + 1.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 23 / 32 Wymiar Vapnika-Chervonenkisa Niech x = {x 1, x 2,...x m } X. Oznaczmy przez Π H (x) liczb podziaªów zbioru x dokonanych przez H, t.j. liczb ró»nych wektorów postaci po wszystkich h H. (h(x 1 ),..., h(x m )) {0, 1} m Π H (x) 2 m. Je±li zachodzi równo±, mówimy,»e H rozbija x. Niech Π H (m) = max x X m Π H(x) Na przykªad: W przypadku przestrzeni póªosi postaci [α, ) mamy Π H (m) = m + 1. Na ogóª trudno znale¹ wzór na Π H (m)!!!

Wymiar Vapnika-Chervonenkisa (c.d.) Uwagi: Je±li Π H (m) = 2 m, to H rozbija prawie ka»dy zbiór o mocy m (prawie zawsze mo»na znale¹ niesprzeczn hipotez ). Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 24 / 32

Wymiar Vapnika-Chervonenkisa (c.d.) Uwagi: Je±li Π H (m) = 2 m, to H rozbija prawie ka»dy zbiór o mocy m (prawie zawsze mo»na znale¹ niesprzeczn hipotez ). Maksymalna warto± m, dla której Π H (m) = 2 m mo»na uwa»a za moc wyra»ania przestrzeni H Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 24 / 32

Wymiar Vapnika-Chervonenkisa (c.d.) Uwagi: Je±li Π H (m) = 2 m, to H rozbija prawie ka»dy zbiór o mocy m (prawie zawsze mo»na znale¹ niesprzeczn hipotez ). Maksymalna warto± m, dla której Π H (m) = 2 m mo»na uwa»a za moc wyra»ania przestrzeni H Definition (VC dimension ) Wymiarem Vapnika-Chervonenkisa przestrzeni hipotez H nazywamy liczb V Cdim(H) = max{m : Π H (m) = 2 m } gdzie maksimum wynosi je±li ten zbiór jest nieograniczony. Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 24 / 32

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32 Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32 Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach H = {przedziaªy... } = VC(H) = 2 je±li + s zawsze w ±rodku VC(H) = 3 je±li w ±rodku mog by zarówno + i - Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach H = {przedziaªy... } = VC(H) = 2 je±li + s zawsze w ±rodku VC(H) = 3 je±li w ±rodku mog by zarówno + i - H = { póªpªaszczyzny w R 2... } = V C(H) = 3 Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach H = {przedziaªy... } = VC(H) = 2 je±li + s zawsze w ±rodku VC(H) = 3 je±li w ±rodku mog by zarówno + i - H = { póªpªaszczyzny w R 2... } = V C(H) = 3 czy istnieje H dla której V C(H) =? Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach H = {przedziaªy... } = VC(H) = 2 je±li + s zawsze w ±rodku VC(H) = 3 je±li w ±rodku mog by zarówno + i - H = { póªpªaszczyzny w R 2... } = V C(H) = 3 czy istnieje H dla której V C(H) =? Tw.: Je±li H < to V Cdim(H) log H Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Przykªady wymiaru VC-Dim H = {okr gi... } = V C(H) = 3 H = {prostok ty... } = V C(H) = 4 H = {funkcje progowe... } = V C(H) = 1 je±li + s zawsze po prawej stronie; V C(H) = 2 je±li + mog by po obu stronach H = {przedziaªy... } = VC(H) = 2 je±li + s zawsze w ±rodku VC(H) = 3 je±li w ±rodku mog by zarówno + i - H = { póªpªaszczyzny w R 2... } = V C(H) = 3 czy istnieje H dla której V C(H) =? Tw.: Je±li H < to V Cdim(H) log H Niech M n = zbiór jednomianów boolowskich na n zmiennych. Poniewa», M n = 3 n mamy V Cdim(M n ) n log 3 Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 25 / 32

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 26 / 32 Wymiar VC dla perceptronu Twierdzenie Dla ka»dej liczby naturalnej n, niech P n b dzie perceptronem o n wej±ciach rzeczywistych. Wówczas Dowód: V Cdim(P n ) n + 1: V Cdim(P n ) = n + 1 Wynika z Twierdzenia Radona: Dla dowolnego zbioru E zawieraj cego n + 2 punktów w przestrzeni R n istnieje niepusty podzbiór S E taki,»e conv(s) conv(e \ S) V Cdim(P n ) n + 1 : Wystarczy wybra x = {0, e 1,..., e n } i pokaza,»e ka»dy jego podzbiór jest deniowany przez jaki± perceptron.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 27 / 32 Lemat Sauer'a Theorem (Lemat Sauer'a)) Je±li V Cdim(H) = d 0 i m 1, to ( ) ( ) ( ) m m m Π H (m) 1 + + +... + 1 2 d }{{} Φ(d,m) Wnioski ( em Φ(d, m) d ) d ( em ΠH (m) d ) d V Cdim(H) > ln H 1 + ln X

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 28 / 32 Spis tre±ci 1 Wprowadzenie do teorii uczenia si 2 Model PAC (probably approximately correct) 3 Wyuczalno± klasy poj 4 Wymiar Vapnika Chervonenkisa (VC dimension) 5 Podstawowe Twierdzenia Teorii Uczenia Si

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 29 / 32 Fundamentalne twierdzenia Theorem (Warunek konieczny) Ka»da przestrze«hipotez o niesko«czonym wymiarze VC nie jest potencjalnie wyuczalna.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 29 / 32 Fundamentalne twierdzenia Theorem (Warunek konieczny) Ka»da przestrze«hipotez o niesko«czonym wymiarze VC nie jest potencjalnie wyuczalna. Theorem (Fundamentalne twierdzenie) Je±li przestrze«hipotez ma sko«czony wymiar VC, to jest ona potencjalnie wyuczalna.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 30 / 32 Dowód Deniujemy Q ε m = {x X m H[x, t] B ε }

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 30 / 32 Dowód Deniujemy Q ε m = {x X m H[x, t] B ε } Szukamy górnego ograniczenia f(m, ε) dla µ m (Q ε m), które powinno - by niezale»ne od t (target concept) i µ (rozkªad prawdopodobie«stwa). - d»y do 0 przy m

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 30 / 32 Dowód Deniujemy Q ε m = {x X m H[x, t] B ε } Szukamy górnego ograniczenia f(m, ε) dla µ m (Q ε m), które powinno - by niezale»ne od t (target concept) i µ (rozkªad prawdopodobie«stwa). - d»y do 0 przy m Twierdzenie Niech H b dzie przestrzeni hipotez okre±lonych na X. Dla dowolnych c, µ, ε (ale ustalonych) mamy o ile m 8/ε. µ m (Q ε m) < 2Π H (2m)2 εm/2

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 30 / 32 Dowód Deniujemy Q ε m = {x X m H[x, t] B ε } Szukamy górnego ograniczenia f(m, ε) dla µ m (Q ε m), które powinno - by niezale»ne od t (target concept) i µ (rozkªad prawdopodobie«stwa). - d»y do 0 przy m Twierdzenie Niech H b dzie przestrzeni hipotez okre±lonych na X. Dla dowolnych c, µ, ε (ale ustalonych) mamy o ile m 8/ε. µ m (Q ε m) < 2Π H (2m)2 εm/2 Mo»emy u»y lematu Sauer'a, aby pokaza,»e µ m (Q ε m) < δ dla dostatecznie du»ych m.

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 31 / 32 Zªo»ono± zbioru treningowego Z Fundamentalnego Twierdzenia wynika,»e je±li V Cdim(H) <, to dla danych δ i ε, istnieje m 0 = m 0 (H, δ, ε) takie,»e m m 0 µ m {D S(m, c) : H[D] B ε = } > 1 δ Wówczas ka»dy niesprzeczny algorytm L jest PAC oraz wymagana liczba przykªadów m L (H, δ, ε) dla L jest ograniczona z góry przez m 0 (H, δ, ε). Dla sko«czonych przestrzeni hipotez H mamy 1 H 1 m L (H, δ, ε) ln = (ln H + ln(1/δ)) ε δ ε

Hung Son Nguyen (UW) COLT - Obliczeniowa teoria uczenia si 2007 32 / 32 Zªo»ono± zbioru treningowego (c.d.) Twierdzenie Niech V Cdim(H) = d 1. Wówczas ka»dy algorytm niesprzeczny L jest PAC oraz wymagana liczba przykªadów dla L wynosi ( 4 m L (H, δ, ε) d log 12 ε ε + log 2 ) δ Dolne ograniczenia: m L (H, δ, ε) d(1 ε) Je±li δ 1/100 i ε 1/8, to m L (H, δ, ε) > d 1 32ε m L (H, δ, ε) > 1 ε ε ln 1 δ