Uczenie ze wzmocnieniem
|
|
- Magdalena Janik
- 6 lat temu
- Przeglądów:
Transkrypt
1 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06
2 3 START Wstęp Uczenie Pasywne Uczenie aktywne Problem decyzyjny Markova Wstęp Problem decyzyjny Markova Problem decyzyjny Markova START
3 3 START ? Wstęp Uczenie Pasywne Uczenie aktywne MDP bez modelu przejść P(s s, a) Wstęp MDP bez modelu przejść P(s s, a) MDP bez modelu przejść P(s s, a) Jak się nazywa takie środowisko? [zadanie ]?? 3 +. Środowisko jest nieznane START 0.?? ? 3 4 Jak się nazywa takie środowisko? [zadanie ]
4 3 START Wstęp Uczenie Pasywne Uczenie aktywne MDP z nieznaną funkcją nagrody R(s) Wstęp MDP z nieznaną funkcją nagrody R(s) MDP z nieznaną funkcją nagrody R(s)?????????? 3??????? START???
5 3 START ? Wstęp Uczenie Pasywne Uczenie aktywne Nieznane MDP Wstęp Nieznane MDP Nieznane MDP???????????? 3??????? START??? 0.?? ? 3 4
6 Uczenie Pasywne Uczenie aktywne Wstęp (RL) Problem uczenia ze wzmocnieniem = MDP bez modelu przejść i bez funkcji nagrody = nieznany MDP Agent musi nauczyć się: czy ruch jest dobry czy zły (f. nagrody) dokąd prowadzą jego akcje (model przejść) przewidywać ruchy przeciwnika Wstęp (RL) Problem uczenia ze wzmocnieniem = MDP bez modelu przejść i bez funkcji nagrody = nieznany MDP Agent musi nauczyć się: (RL) czy ruch jest dobry czy zły (f. nagrody) dokąd prowadzą jego akcje (model przejść) przewidywać ruchy przeciwnika. W skrócie: wyobraź sobie grę, której zasad nie znasz. Grasz, a po 00 ruchach sędzia mówi: przegrałeś. To jest uczenie ze wzmocnieniem.
7 Wzmocnienie Wstęp Wzmocnienie Wzmocnienie Bez żadnej informacji ze środowiska agent nie ma podstaw, aby decydować, który ruch wykonać: Musi wiedzieć, że coś dobrego się stało, gdy wygrał albo wykonał dobry ruch nagroda (reward), wzmocnienie (reinforcement) Wzmocnienie: szachy: tylko na końcu gry, ping pong: za każde odbicie, nauka pływania: za przesuwanie się do przodu. Cel: optymalna polityka (racjonalny agent) Bez żadnej informacji ze środowiska agent nie ma podstaw, aby decydować, który ruch wykonać: Musi wiedzieć, że coś dobrego się stało, gdy wygrał albo wykonał dobry ruch nagroda (reward), wzmocnienie (reinforcement) Wzmocnienie: szachy: tylko na końcu gry, ping pong: za każde odbicie, nauka pływania: za przesuwanie się do przodu. Cel: optymalna polityka (racjonalny agent). Przypomnienie: racjonalny agent maksymalizuje oczekiwaną (zdyskontowany) sumę nagród (pod warunkiem posiadanej wiedzy).
8 Aplikacje i przykłady Wstęp Aplikacje i przykłady Aplikacje i przykłady W wielu domenach RL jest najlepszą drogą postępowania, aby automatycznie uzyskać efektywnego agenta: agent grający w grę (kary/nagrody za wygraną/przegraną) kontroler helikoptera (kary/nagrody za rozbicie się/chybotanie się/nietrzymanie kierunku) Robot uczący się ruchu: W wielu domenach RL jest najlepszą drogą postępowania, aby automatycznie uzyskać efektywnego agenta: agent grający w grę (kary/nagrody za wygraną/przegraną) kontroler helikoptera (kary/nagrody za rozbicie się/chybotanie się/nietrzymanie kierunku) Robot uczący się ruchu: Co jest stanem środowiska? Jakie akcje wykonuje? Za co dostaje wzmocnienie?
9 Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max a A s U(s )P(s s, a) agent z polityką (ang. direct policy search) Uczy się polityki π : S A Wstęp Podejścia do RL Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max U(s )P(s s, a) a A s agent z polityką (ang. direct policy search) Uczy się polityki π : S A. Równanie Bellman a: teraźniejszość R(s) + (najlepsza) przyszłość.. Polityka π agenta odruchowego mapuje bezpośrednio stany na akcje. 3. utility-based agent musi posiadać model środowiska, żeby podejmować decyzje. 4. AIMA nazywa tę funkcję utility function, ale w literaturze przyjęła się nazwa value function V (s). 5. Q-learning agent nie musi posiadać modelu środowiska, ale przez to nie może wnioskować na więcej niż jeden ruch do przodu (bo nie wie w jakim stanie będzie). 6. Tylko ten z funkcją U.
10 Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max a A s U(s )P(s s, a) agent z polityką (ang. direct policy search) Uczy się polityki π : S A agent z funkcją użyteczności U uczy się f. użyteczności stanu U(s). Jego polityka jest zachłanna ze względu na U. Wstęp Podejścia do RL Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max U(s )P(s s, a) a A s agent z polityką (ang. direct policy search) Uczy się polityki π : S A agent z funkcją użyteczności U uczy się f. użyteczności stanu U(s). Jego polityka jest zachłanna ze względu na U.. Równanie Bellman a: teraźniejszość R(s) + (najlepsza) przyszłość.. Polityka π agenta odruchowego mapuje bezpośrednio stany na akcje. 3. utility-based agent musi posiadać model środowiska, żeby podejmować decyzje. 4. AIMA nazywa tę funkcję utility function, ale w literaturze przyjęła się nazwa value function V (s). 5. Q-learning agent nie musi posiadać modelu środowiska, ale przez to nie może wnioskować na więcej niż jeden ruch do przodu (bo nie wie w jakim stanie będzie). 6. Tylko ten z funkcją U.
11 Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max a A s U(s )P(s s, a) agent z polityką (ang. direct policy search) Uczy się polityki π : S A agent z funkcją użyteczności U uczy się f. użyteczności stanu U(s). Jego polityka jest zachłanna ze względu na U. 3 agent z funkcją Q Uczy się funkcji użyteczności stan-akcja Q(s, a). Jego polityka jest zachłanna ze względu na Q. Które typ agenta potrzebuje do działania modelu świata?[zadanie ] Wstęp Podejścia do RL Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max U(s )P(s s, a) a A s agent z polityką (ang. direct policy search) Uczy się polityki π : S A agent z funkcją użyteczności U uczy się f. użyteczności stanu U(s). Jego polityka jest zachłanna ze względu na U. 3 agent z funkcją Q Uczy się funkcji użyteczności stan-akcja Q(s, a). Jego polityka jest zachłanna ze względu na Q. Które typ agenta potrzebuje do działania modelu świata?[zadanie ]. Równanie Bellman a: teraźniejszość R(s) + (najlepsza) przyszłość.. Polityka π agenta odruchowego mapuje bezpośrednio stany na akcje. 3. utility-based agent musi posiadać model środowiska, żeby podejmować decyzje. 4. AIMA nazywa tę funkcję utility function, ale w literaturze przyjęła się nazwa value function V (s). 5. Q-learning agent nie musi posiadać modelu środowiska, ale przez to nie może wnioskować na więcej niż jeden ruch do przodu (bo nie wie w jakim stanie będzie). 6. Tylko ten z funkcją U.
12 Typy uczenia ze wzmocnieniem Wstęp Typy uczenia ze wzmocnieniem Typy uczenia ze wzmocnieniem Typy uczenia ze wzmocnieniem: pasywne (problem predykcji). Polityka π jest dana. Uczymy się tylko użyteczności stanów U π (s) lub użyteczności par stan-akcja Q π (s, a) aktywne (problem sterowania). Musimy znaleźć optymalną politykę π (zwykle robimy to poprzez znalezienie U i Q, a polityka jest zachłanna ze względu na U lub Q). Konieczna eksploracja... Typy uczenia ze wzmocnieniem: pasywne (problem predykcji). Polityka π jest dana. Uczymy się tylko użyteczności stanów U π (s) lub użyteczności par stan-akcja Q π (s, a) aktywne (problem sterowania). Musimy znaleźć optymalną politykę π (zwykle robimy to poprzez znalezienie U i Q, a polityka jest zachłanna ze względu na U lub Q). Konieczna eksploracja...
13 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem Uczenie Pasywne Pasywne uczenie ze wzmocnieniem Pasywne uczenie ze wzmocnieniem Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)) Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)).
14 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem Uczenie Pasywne Pasywne uczenie ze wzmocnieniem Pasywne uczenie ze wzmocnieniem Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)). Nieznane: model przejść P(s s, a). funkcja nagrody R(s) Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)). Nieznane: model przejść P(s s, a). funkcja nagrody R(s)
15 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem Uczenie Pasywne Pasywne uczenie ze wzmocnieniem Pasywne uczenie ze wzmocnieniem Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)). Nieznane: model przejść P(s s, a). funkcja nagrody R(s) Cel: Jak dobra jest ta polityka? znaleźć wartości funkcji użyteczności U π (s) Dane: środowisko całkowicie obserwowalne, polityka π (agent w stanie s wykonuje akcję π(s)). Nieznane: model przejść P(s s, a). funkcja nagrody R(s) Cel: Jak dobra jest ta polityka? znaleźć wartości funkcji użyteczności U π (s).
16 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem (c.d) Jak policzyć użyteczność polityki? Uczenie Pasywne Pasywne uczenie ze wzmocnieniem (c.d) Pasywne uczenie ze wzmocnieniem (c.d) Jak policzyć użyteczność polityki? Czy wystarczy skorzystać z równania Bellmana? [zadanie 3] U π (s) = R(s) + γ U π (s )P(s s, π(s)) s Nie, bo nie znamy modelu świata oraz R. Algorytm iteracji polityki.. Do przemyślenia: czym więc różni się uczenie pasywne od ewaluacji polityki z poprzedniego rozdziału? Czy wystarczy skorzystać z równania Bellmana? [zadanie 3] U π (s) = R(s) + γ s U π (s )P(s s, π(s))
17 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem (c.d) Jak policzyć użyteczność polityki? Uczenie Pasywne Pasywne uczenie ze wzmocnieniem (c.d) Pasywne uczenie ze wzmocnieniem (c.d) Jak policzyć użyteczność polityki? Czy wystarczy skorzystać z równania Bellmana? [zadanie 3] U π (s) = R(s) + γ U π (s )P(s s, π(s)) s Aby nauczyć się T i R trzeba zbierać doświadczenie poprzez interakcję ze środowiskiem Nie, bo nie znamy modelu świata oraz R. Algorytm iteracji polityki.. Do przemyślenia: czym więc różni się uczenie pasywne od ewaluacji polityki z poprzedniego rozdziału? Czy wystarczy skorzystać z równania Bellmana? [zadanie 3] U π (s) = R(s) + γ s U π (s )P(s s, π(s)) Aby nauczyć się T i R trzeba zbierać doświadczenie poprzez interakcję ze środowiskiem.
18 Wstęp Uczenie Pasywne Uczenie aktywne Pasywne uczenie ze wzmocnieniem (c.d) Uczenie Pasywne Pasywne uczenie ze wzmocnieniem (c.d) Pasywne uczenie ze wzmocnieniem (c.d) Agent wykonuje serię prób (ang. trial) używając polityki π. Przykładowe próby (zebrane doświadczenie): (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3)+ (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3)+ 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, ) W p. 3 jest błąd. Zgodnie z modelem, który przyjmowaliśmy, z (, ) idąc w lewo nie można się dostać do (3, ). Ale to nic strasznego Agent wykonuje serię prób (ang. trial) używając polityki π. Przykładowe próby (zebrane doświadczenie): (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3) + (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3) + 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, )
19 Pasywne uczenie ze wzmocnieniem (c.d) Uczenie Pasywne Pasywne uczenie ze wzmocnieniem (c.d) Pasywne uczenie ze wzmocnieniem (c.d) Przypomnienie Użyteczność polityki w stanie s: [ ] U π (s) = E γ t R(St), t=0 gdzie: St zmienna losowa stan, w którym jestem w kroku t γ współczynnik dyskontowy (przyjmiemy ) Czyli: Użyteczność stanu = oczekiwana całkowita nagroda z tego stanu dalej (oczekiwana reward-to-go). Przypomnienie Użyteczność polityki w stanie s: [ ] U π (s) = E γ t R(S t ), gdzie: Czyli: t=0 S t zmienna losowa stan, w którym jestem w kroku t γ współczynnik dyskontowy (przyjmiemy ) Użyteczność stanu = oczekiwana całkowita nagroda z tego stanu dalej (oczekiwana reward-to-go).. reward-to-go to empiryczna wartość użyteczności stanu.
20 Algorytm: Bezpośrednia estymacja użyteczności (Widrow & Hoff, 960) Zauważmy: Próbka daje informację o reward-to-go danego stanu Wiele próbek estymacja U π (s) dla każdego stanu Przykład: (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3) + (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p Uczenie Pasywne Algorytm: Bezpośrednia estymacja użyteczności (Widrow & Hoff, 960) Algorytm: Bezpośrednia estymacja użyteczności (Widrow & Hoff, 960) Zauważmy: Próbka daje informację o reward-to-go danego stanu Wiele próbek estymacja U π (s) dla każdego stanu Przykład: (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3)+ (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3)+ 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, ) Ile wynosi reward-to-go dla poszczególnych próbek w stanie (3, 3)? Na ich podstawie oszacujmy użyteczność stanu. [zadanie 4] A dla stanu (, 3)? [zadanie 5]. Stan ten odwiedzono 3 razy. Możemy więc estymować jego użyteczność jako U π (3, 3) = ( )/ U π (, 3) = ( )/3 3. ang. Direct Utility Estimation 4. Ten algorytm można też nazwać Monte Carlo Policy Evaluation (wg Sutton i Barto, 998, str. ) (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3) + 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, ) Ile wynosi reward-to-go dla poszczególnych próbek w stanie (3, 3)? Na ich podstawie oszacujmy użyteczność stanu. [zadanie 4] A dla stanu (, 3)? [zadanie 5]
21 Bezpośrednia estymacja użyteczności (c.d.) Uczenie Pasywne Bezpośrednia estymacja użyteczności (c.d.) Bezpośrednia estymacja użyteczności (c.d.) Sprowadza problem predykcji (pasywne uczenie się) do problemu uczenia nadzorowanego (regresja): zbiór przykładów typu stan, reward-to-go Sprowadza problem predykcji (pasywne uczenie się) do problemu uczenia nadzorowanego (regresja): zbiór przykładów typu stan, reward-to-go. Ale zbiega, i to niechybnie.
22 Bezpośrednia estymacja użyteczności (c.d.) Uczenie Pasywne Bezpośrednia estymacja użyteczności (c.d.) Bezpośrednia estymacja użyteczności (c.d.) Sprowadza problem predykcji (pasywne uczenie się) do problemu uczenia nadzorowanego (regresja): zbiór przykładów typu stan, reward-to-go Nie uwzględnia informacji o zależnościach pomiędzy stanami. Użyteczności sąsiednich stanów nie są niezależne! Użyteczność stanu = nagroda w tym stanie + oczekiwana użyteczność jego następników, czyli: U π (s) = R(s) + γ U π (s )P(s s, π(s)) s Stracona okazja do nauki algorytm zbiega wolno. Sprowadza problem predykcji (pasywne uczenie się) do problemu uczenia nadzorowanego (regresja): zbiór przykładów typu stan, reward-to-go Nie uwzględnia informacji o zależnościach pomiędzy stanami. Użyteczności sąsiednich stanów nie są niezależne! Użyteczność stanu = nagroda w tym stanie + oczekiwana użyteczność jego następników, czyli:. Ale zbiega, i to niechybnie. U π (s) = R(s) + γ s U π (s )P(s s, π(s)) Stracona okazja do nauki algorytm zbiega wolno.
23 Adaptatywne Programowanie Dynamiczne (ADP) Uczenie Pasywne Adaptatywne Programowanie Dynamiczne (ADP) Adaptatywne Programowanie Dynamiczne (ADP) Bierze pod uwagę zależności pomiędzy użytecznościami stanów. Bezpośrednio uczy się: modelu przejść P(s s, a) funkcji nagrody R(s) Bierze pod uwagę zależności pomiędzy użytecznościami stanów. Bezpośrednio uczy się: modelu przejść P(s s, a) funkcji nagrody R(s)
24 Algorytm: Adaptatywne Programowanie Dynamiczne Agent ze stanu s wykonał akcję π(s) = a docierając do stanu s otrzymując nagrodę r ( s, a, s, r ). procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U π Policy-Evaluation (π, P, R, U) A jak wykonać krok Policy-Evaluation?[zadanie 6] Uczenie Pasywne Algorytm: Adaptatywne Programowanie Dynamiczne Algorytm: Adaptatywne Programowanie Dynamiczne Agent ze stanu s wykonał akcję π(s) = a docierając do stanu s otrzymując nagrodę r ( s, a, s, r ). procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U π Policy-Evaluation (π, P, R, U) A jak wykonać krok Policy-Evaluation?[zadanie 6]. Algorytm po prostu uaktualnia wiedzę o modelu na podstawie próbek uczących. A no końcu, znając model świata oblicza U π (Naturalnie (w pasywnym uczeniu się) nie ma konieczności uaktualniania U π po każdym kroku, skoro z U π nie korzystamy).. Jeśli obliczamy U π w każdym kroku, to można użyć starego U π jako punku początkowego w iteracji wartości, co bardzo przyspieszy algorytm.
25 Algorytm: Adaptatywne Programowanie Dynamiczne Agent ze stanu s wykonał akcję π(s) = a docierając do stanu s otrzymując nagrodę r ( s, a, s, r ). procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U π Policy-Evaluation (π, P, R, U) A jak wykonać krok Policy-Evaluation?[zadanie 6] Znamy model (T, R), więc układ równań Bellman a lub iteracja wartości. Uczenie Pasywne Algorytm: Adaptatywne Programowanie Dynamiczne Algorytm: Adaptatywne Programowanie Dynamiczne Agent ze stanu s wykonał akcję π(s) = a docierając do stanu s otrzymując nagrodę r ( s, a, s, r ). procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U π Policy-Evaluation (π, P, R, U) A jak wykonać krok Policy-Evaluation?[zadanie 6] Znamy model (T, R), więc układ równań Bellman a lub iteracja wartości.. Algorytm po prostu uaktualnia wiedzę o modelu na podstawie próbek uczących. A no końcu, znając model świata oblicza U π (Naturalnie (w pasywnym uczeniu się) nie ma konieczności uaktualniania U π po każdym kroku, skoro z U π nie korzystamy).. Jeśli obliczamy U π w każdym kroku, to można użyć starego U π jako punku początkowego w iteracji wartości, co bardzo przyspieszy algorytm.
26 Wstęp Uczenie Pasywne Uczenie aktywne ADP Przykład Przykład: (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3) + (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3) + 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, ) Uczenie Pasywne Null 3. 3/3= 4. Null 5. /3=0.66 ADP Przykład ADP Przykład Przykład: (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (4, 3)+ (, ) 0.04 g (, ) 0.04 g (, 3) 0.04 p (, 3) 0.04 p (3, 3) 0.04 p (3, ) 0.04 g (3, 3) 0.04 p (4, 3)+ 3 (, ) 0.04 g (, ) 0.04 l (3, ) 0.04 l (3, ) 0.04 g (4, ) Wykonaj ADP[zadanie 7] : R((, 3)) =? R((4, )) =? P((, 3) (, ), góra) =? P((, 3) (, ), dó l) =? P((, 3) (, 3), prawo) =? Wykonaj ADP[zadanie 7] : R((, 3)) =? R((4, )) =? P((, 3) (, ), góra) =? P((, 3) (, ), dó l) =? P((, 3) (, 3), prawo) =?
27 Number of trials (4,3) (3,3) (,3) (,) (3,) Number of trials Wstęp Uczenie Pasywne Uczenie aktywne ADP wykresy Utility estimates (4,3) (3,3) (,3) (,) (3,) RMS error in utility Uczenie Pasywne ADP wykresy ADP wykresy Utility estimates Uwagi: ADP implementuje estymację maksymalnej wiarygodności (maximum likelihood estimation) RMS error in utility Znajduje najbardziej prawdopodobny model (najlepiej pasujący do danych) ADP zbiega całkiem szybko (jest tylko ograniczony tym jak szybko potrafi nauczyć się modelu przejść). 3 Policy-Evaluation jest dość wolne.. Po lewej: znaczy wzrost skuteczności po 78 przebiegach (wtedy po raz pierwszy agent trafił na stan (4,) z wartością -. Po prawej: średnia ze 0 runów (00 przebiegów każdy) Number of trials Number of trials Uwagi: ADP implementuje estymację maksymalnej wiarygodności (maximum likelihood estimation) Znajduje najbardziej prawdopodobny model (najlepiej pasujący do danych) ADP zbiega całkiem szybko (jest tylko ograniczony tym jak szybko potrafi nauczyć się modelu przejść). 3 Policy-Evaluation jest dość wolne.
28 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Uczenie Pasywne Uczenie różnicowe (TDL) Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami.. α (0, ] to współczynnik uczenia. Mówi o ile zwiększymy niepoprawną wartość w kierunku poprawnej.. Zauważmy: przykładowe przejście nie zawsze ma miejsce (!), bo czasem przejdę do pola (, ) a czasem zostanę na polu (, 3). Ale prawd. tych przejść (a więc też aktualizacje!) będą odpowiadały modelowi. Częściej aktualizacja będzie zgodnie z U π (, 3) niż z pozostałymi.
29 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Uczenie Pasywne Uczenie różnicowe (TDL) Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04].. α (0, ] to współczynnik uczenia. Mówi o ile zwiększymy niepoprawną wartość w kierunku poprawnej.. Zauważmy: przykładowe przejście nie zawsze ma miejsce (!), bo czasem przejdę do pola (, ) a czasem zostanę na polu (, 3). Ale prawd. tych przejść (a więc też aktualizacje!) będą odpowiadały modelowi. Częściej aktualizacja będzie zgodnie z U π (, 3) niż z pozostałymi.
30 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że Uczenie Pasywne Uczenie różnicowe (TDL) Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że U π (, 3) = γu π (, 3) = α (0, ] to współczynnik uczenia. Mówi o ile zwiększymy niepoprawną wartość w kierunku poprawnej.. Zauważmy: przykładowe przejście nie zawsze ma miejsce (!), bo czasem przejdę do pola (, ) a czasem zostanę na polu (, 3). Ale prawd. tych przejść (a więc też aktualizacje!) będą odpowiadały modelowi. Częściej aktualizacja będzie zgodnie z U π (, 3) niż z pozostałymi. U π (, 3) = γu π (, 3) = 0.90
31 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że Uczenie Pasywne Uczenie różnicowe (TDL) Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że U π (, 3) = γu π (, 3) = 0.90 Wniosek: U π (, 3) jest za małe o δ = = α (0, ] to współczynnik uczenia. Mówi o ile zwiększymy niepoprawną wartość w kierunku poprawnej.. Zauważmy: przykładowe przejście nie zawsze ma miejsce (!), bo czasem przejdę do pola (, ) a czasem zostanę na polu (, 3). Ale prawd. tych przejść (a więc też aktualizacje!) będą odpowiadały modelowi. Częściej aktualizacja będzie zgodnie z U π (, 3) niż z pozostałymi. U π (, 3) = γu π (, 3) = 0.90 Wniosek: U π (, 3) jest za małe o δ = = 0.06
32 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że Uczenie Pasywne Uczenie różnicowe (TDL) Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji s, a, s, r, aby zmodyfikować bezpośrednio użyteczności stanów, tak aby współgrały z ograniczeniami. Przykład: Założenie początkowe: U π (, 3) = 0.84 i U π (, 3) = Obserwacja: (, 3) góra (, 3) [r = 0.04]. Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że U π (, 3) = γu π (, 3) = 0.90 Wniosek: U π (, 3) jest za małe o δ = = 0.06 Zwiększmy je trochę (α = 0.0), tzn. U π (, 3) = U π (, 3) + α0.06 = α (0, ] to współczynnik uczenia. Mówi o ile zwiększymy niepoprawną wartość w kierunku poprawnej.. Zauważmy: przykładowe przejście nie zawsze ma miejsce (!), bo czasem przejdę do pola (, ) a czasem zostanę na polu (, 3). Ale prawd. tych przejść (a więc też aktualizacje!) będą odpowiadały modelowi. Częściej aktualizacja będzie zgodnie z U π (, 3) niż z pozostałymi. U π (, 3) = γu π (, 3) = 0.90 Wniosek: U π (, 3) jest za małe o δ = = 0.06 Zwiększmy je trochę (α = 0.0), tzn. U π (, 3) = U π (, 3) + α0.06 = 0.846
33 Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s ) Uczenie Pasywne Uczenie różnicowe (TDL) ogólnie Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s )
34 Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s ) Modyfikujemy U π (s) o ważoną (α) różnicę pomiędzy oczekiwanym U π a starym U π. Różnica: = U π (s) U π (s) Uczenie Pasywne Uczenie różnicowe (TDL) ogólnie Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s ) Modyfikujemy U π (s) o ważoną (α) różnicę pomiędzy oczekiwanym U π a starym U π. Różnica: Nowe Uπ (s): = U π (s) U π (s) U π (s) U π (s) + α Nowe Uπ (s): U π (s) U π (s) + α
35 Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s ) Modyfikujemy U π (s) o ważoną (α) różnicę pomiędzy oczekiwanym U π a starym U π. Różnica: = U π (s) U π (s) Nowe Uπ (s): Uczenie różnicowe U π (s) U π (s) + α U π (s) U π (s) + α ( r + γu π (s ) U π (s) ) α współczynnik uczenia Uczenie Pasywne Uczenie różnicowe (TDL) ogólnie Uczenie różnicowe (TDL) ogólnie Próbka: (s, a, s, r) Początkowo U π (s) Oczekujemy, że U π (s) = r + γu π (s ) Modyfikujemy U π (s) o ważoną (α) różnicę pomiędzy oczekiwanym U π a starym U π. Różnica: Nowe Uπ (s): Uczenie różnicowe = U π (s) U π (s) U π (s) U π (s) + α U π (s) U π (s) + α ( r + γu π (s ) U π (s) ) α współczynnik uczenia
36 Uczenie różnicowe (TDL) algorytm Uczenie Pasywne Uczenie różnicowe (TDL) algorytm Uczenie różnicowe (TDL) algorytm procedure passive-td(s, a, s, r ) if s jest nowym stanem then U[s ] r U[s] U[s] + α(r[s] + γu[s ] U[s]) Uwagi: Aktualizacja U[s] nie uwzględnia akcji dostępnych i modelu przejść, ale to się odpowiednio uśredni. TDL nie potrzebuje modelu środowiska, aby uaktualniać użyteczności stanów. 3 Jeżeli α w odpowiedni sposób zmniejsza się w czasie, to TDL gwarantuje zbieżność do optimum globalnego. procedure passive-td(s, a, s, r ) if s jest nowym stanem then U[s ] r Uwagi: U[s] U[s] + α(r[s] + γu[s ] U[s]) Aktualizacja U[s] nie uwzględnia akcji dostępnych i modelu przejść, ale to się odpowiednio uśredni. TDL nie potrzebuje modelu środowiska, aby uaktualniać użyteczności stanów. 3 Jeżeli α w odpowiedni sposób zmniejsza się w czasie, to TDL gwarantuje zbieżność do optimum globalnego.. Obserwacja: jest to uczenie gradientowe. Uczenie się następuje w każdej próbce (vide. stochastic gradient descent)
37 Number of trials (,3) (,) (,) Number of trials Wstęp Uczenie Pasywne Uczenie aktywne Uczenie różnicowe wykresy Utility estimates (4,3) (3,3) (,3) (,) (,) RMS error in utility Uczenie Pasywne Uczenie różnicowe wykresy Uczenie różnicowe wykresy Utility estimates Uwagi: (3,3) (4,3) RMS error in utility TD potrzebuje więcej obserwacji niż ADP i ma spore wahania, ale: jest prostszy i potrzebuje mniej obliczeń na obserwację Number of trials Number of trials Uwagi: TD potrzebuje więcej obserwacji niż ADP i ma spore wahania, ale: jest prostszy i potrzebuje mniej obliczeń na obserwację.
38 TD vs. ADP TD i ADP są podobne: oba dokonują lokalnych zmian, po to, aby użyteczność stanu z jego następnikami zgadzały się. Różnica : TD bierze pod uwagę tylko jednego następnika ADP bierze pod uwagę wszystkich następników (waży ich prawdopodobieństwami) Uczenie Pasywne TD vs. ADP TD vs. ADP TD i ADP są podobne: oba dokonują lokalnych zmian, po to, aby użyteczność stanu z jego następnikami zgadzały się. Różnica : TD bierze pod uwagę tylko jednego następnika ADP bierze pod uwagę wszystkich następników (waży ich prawdopodobieństwami)
39 TD vs. ADP TD i ADP są podobne: oba dokonują lokalnych zmian, po to, aby użyteczność stanu z jego następnikami zgadzały się. Różnica : TD bierze pod uwagę tylko jednego następnika ADP bierze pod uwagę wszystkich następników (waży ich prawdopodobieństwami) Różnica : TD zmienia tylko jedną wartość użyteczności na obserwację ADP zmienia użyteczności tylu stanów, ile potrzeba, aby równania się zgadzały = TD można traktować jako aproksymację ADP. Z p. widzenia TD, ADP używa pseudodoświadczenia wygenerowanego na podstawie aktualnej wiedzy o środowisku. Uczenie Pasywne TD vs. ADP TD vs. ADP TD i ADP są podobne: oba dokonują lokalnych zmian, po to, aby użyteczność stanu z jego następnikami zgadzały się. Różnica : TD bierze pod uwagę tylko jednego następnika ADP bierze pod uwagę wszystkich następników (waży ich prawdopodobieństwami) Różnica : TD zmienia tylko jedną wartość użyteczności na obserwację ADP zmienia użyteczności tylu stanów, ile potrzeba, aby równania się zgadzały = TD można traktować jako aproksymację ADP. Z p. widzenia TD, ADP używa pseudodoświadczenia wygenerowanego na podstawie aktualnej wiedzy o środowisku.
40 TD vs. ADP c.d. Uczenie Pasywne TD vs. ADP c.d. TD vs. ADP c.d. Stąd: możliwe są rozwiązania pośrednie: np. TD, który generuje pewne pseudodoświadczenia (czyli aktualizuje więcej użyteczności stanów) lub ADP, który nie aktualizuje wszystkich użyteczności Prioritized sweeping (Moore i Atkeson, 993) aktualizuj użyteczności tylko niektórych stanów (tych, które prawd. najbardziej tego wymagają) Sens: skoro i tak model nie jest poprawny, to po co dokładnie liczyć użyteczności? Stąd: możliwe są rozwiązania pośrednie: np. TD, który generuje pewne pseudodoświadczenia (czyli aktualizuje więcej użyteczności stanów) lub ADP, który nie aktualizuje wszystkich użyteczności Prioritized sweeping (Moore i Atkeson, 993) aktualizuj użyteczności tylko niektórych stanów (tych, które prawd. najbardziej tego wymagają) Sens: skoro i tak model nie jest poprawny, to po co dokładnie liczyć użyteczności?
41 3 START Wstęp Uczenie Pasywne Uczenie aktywne Aktywne uczenie ze wzmocnieniem Uczenie aktywne Aktywne uczenie ze wzmocnieniem Aktywne uczenie ze wzmocnieniem Polityka π jest nieznana START Polityka π jest nieznana.
42 ADP (przypomnienie) Uczenie aktywne ADP (przypomnienie) ADP (przypomnienie) procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U Policy-Evaluation (π, P, R, U) return π[s ] procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U Policy-Evaluation (π, P, R, U) return π[s ]. Algorytm tutaj zwraca akcję do wykonania.
43 ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje. Uczenie aktywne ADP dla uczenia aktywnego ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje.. Czy wybierać w każdym kroku aktualnie optymalną akcję (zachłanną ze względu na U)? Nie. To nie jest mądre, bo nie ma eksploracji.
44 ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje. Agent nie ma danej polityki, więc Policy-Evaluation musi skorzystać z pełnego równania Bellman a, żeby brać pod uwagę najlepsze możliwe akcje: U(s) = R(s) + γmax a s P(s s, a)u(s ) Uczenie aktywne ADP dla uczenia aktywnego ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje. Agent nie ma danej polityki, więc Policy-Evaluation musi skorzystać z pełnego równania Bellman a, żeby brać pod uwagę najlepsze możliwe akcje: U(s) = R(s) + γmaxa s P(s s, a)u(s ) Można użyć Iteracji Wartości albo (Zmodyfikowanej) Iteracji Polityki. Czy wybierać w każdym kroku aktualnie optymalną akcję (zachłanną ze względu na U)? Nie. To nie jest mądre, bo nie ma eksploracji. Można użyć Iteracji Wartości albo (Zmodyfikowanej) Iteracji Polityki
45 ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje. Agent nie ma danej polityki, więc Policy-Evaluation musi skorzystać z pełnego równania Bellman a, żeby brać pod uwagę najlepsze możliwe akcje: U(s) = R(s) + γmax a s P(s s, a)u(s ) Uczenie aktywne ADP dla uczenia aktywnego ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez (aktualne) π. ADP nie ma z tym problemu: zbiera co tylko otrzymuje. Agent nie ma danej polityki, więc Policy-Evaluation musi skorzystać z pełnego równania Bellman a, żeby brać pod uwagę najlepsze możliwe akcje: U(s) = R(s) + γmaxa s P(s s, a)u(s ) Można użyć Iteracji Wartości albo (Zmodyfikowanej) Iteracji Polityki 3 Jaką akcję powinien wybierać w każdym kroku? [zadanie 8]. Czy wybierać w każdym kroku aktualnie optymalną akcję (zachłanną ze względu na U)? Nie. To nie jest mądre, bo nie ma eksploracji. Można użyć Iteracji Wartości albo (Zmodyfikowanej) Iteracji Polityki 3 Jaką akcję powinien wybierać w każdym kroku? [zadanie 8]
46 RMS error Policy loss Number of trials Wstęp Uczenie Pasywne Uczenie aktywne Eksploracja 3 + Uczenie aktywne Eksploracja Eksploracja RMS error, policy loss Agent zachłanny utknął. Dlaczego? [zadanie 9] RMS error, policy loss RMS error Policy loss. Agent zachłanny zawsze wybiera aktualnie optymalna politykę. Jest OK czy zmienić pracę? Większa wiedza -> potrzeba mniej eksploracji Number of trials 3 4 Agent zachłanny utknął. Dlaczego? [zadanie 9]
47 RMS error Policy loss Number of trials Wstęp Uczenie Pasywne Uczenie aktywne Eksploracja 3 + Uczenie aktywne Eksploracja Eksploracja RMS error, policy loss Agent zachłanny utknął. Dlaczego? [zadanie 9] Powód: model świata, którego nauczył się (i dla którego wyznaczył optymalną politykę) nie jest poprawny. Akcje służą: Osiąganiu nagród (eksploatacja) Ulepszaniu modelu środowiska (eksploracja) Czysta eksploatacja = ryzyko wpadnięcia w rutynę W każdym kroku decyzja: eksploracja czy eksploatacja? RMS error, policy loss RMS error Policy loss. Agent zachłanny zawsze wybiera aktualnie optymalna politykę. Jest OK czy zmienić pracę? Większa wiedza -> potrzeba mniej eksploracji Number of trials 3 4 Agent zachłanny utknął. Dlaczego? [zadanie 9] Powód: model świata, którego nauczył się (i dla którego wyznaczył optymalną politykę) nie jest poprawny. Akcje służą: Osiąganiu nagród (eksploatacja) Ulepszaniu modelu środowiska (eksploracja) Czysta eksploatacja = ryzyko wpadnięcia w rutynę W każdym kroku decyzja: eksploracja czy eksploatacja?
48 Problem wielorękiego bandyty Uczenie aktywne Problem wielorękiego bandyty Problem wielorękiego bandyty n automatów do gry. gra możliwa wypłata próbować inne automaty czy eksploatować ten, który daje rozsądne wyniki? Czy istnieje optymalna metoda eksploracji? co to znaczy optymalny? oczekiwana wartość dla wszystkich możliwych światów (wszystkich modeli P(s s, a)) jest najlepsza. n automatów do gry. gra możliwa wypłata próbować inne automaty czy eksploatować ten, który daje rozsądne wyniki? Czy istnieje optymalna metoda eksploracji? co to znaczy optymalny? oczekiwana wartość dla wszystkich możliwych światów (wszystkich modeli P(s s, a)) jest najlepsza.
49 Gittins index Uczenie aktywne Gittins index Gittins index rozwiązania są zwykle obliczeniowo bardzo trudne ( statystyczna teoria decyzji) jeśli wypłaty są niezależne od siebie i są dyskontowane w czasie, to rozwiązaniem jest Gittins index. Określa jak wartościowy jest wybór danej maszyny Dla sekwencyjnych problemów decyzyjnych nie działa rozwiązania są zwykle obliczeniowo bardzo trudne ( statystyczna teoria decyzji) jeśli wypłaty są niezależne od siebie i są dyskontowane w czasie, to rozwiązaniem jest Gittins index. Określa jak wartościowy jest wybór danej maszyny Dla sekwencyjnych problemów decyzyjnych nie działa
50 Metoda ɛ-zachłanna Uczenie aktywne Metoda ɛ-zachłanna Metoda ɛ-zachłanna Rozwiązanie rozsądne zapewniają, że każda akcja z każdego stanu jest wykonywana nieograniczoną liczbę razy. = gwarancja, że użyteczność U(s) zbiegnie w granicy do prawdziwej użyteczności stanów. Prostym przykładem jest metoda ɛ-zachłanna: z prawd. ɛ użyj optymalnej (zachłannej) akcji z prawd. ɛ użyj losowej akcji Rozwiązanie rozsądne zapewniają, że każda akcja z każdego stanu jest wykonywana nieograniczoną liczbę razy. = gwarancja, że użyteczność U(s) zbiegnie w granicy do prawdziwej użyteczności stanów. Prostym przykładem jest metoda ɛ-zachłanna: z prawd. ɛ użyj optymalnej (zachłannej) akcji z prawd. ɛ użyj losowej akcji
51 Ciekawość i optymistyczna f. użyteczności Powyższe się zbiegnie, ale jest wolne. Lepiej w praktyce: użyj prostej funkcji eksploracji i optymistycznej wersji f. użyteczności np: ( ) U + (s) R(s) + γmax a f P(s s, a)u + (s ), N(s, a), s gdzie funkcja eksploracji waży użyteczność stanu i ciekawość (niewiedzę) { R + n < N e f (u, n) = u w przeciwnym wypadku R + optymistyczna nagroda (np. R + = max s R(s)) N e stała Uczenie aktywne Ciekawość i optymistyczna f. użyteczności Ciekawość i optymistyczna f. użyteczności Powyższe się zbiegnie, ale jest wolne. Lepiej w praktyce: użyj prostej funkcji eksploracji i optymistycznej wersji f. użyteczności np: ( ) U + (s) R(s) + γmaxaf P(s s, a)u + (s ), N(s, a), s gdzie funkcja eksploracji waży użyteczność stanu i ciekawość (niewiedzę) f (u, n) = { R + u n < Ne w przeciwnym wypadku R + optymistyczna nagroda (np. R + = maxs R(s)) Ne stała
52 (,) (,) (,3) (,3) (3,) (3,3) (4,3) Number of trials RMS error Policy loss Number of trials Wstęp Uczenie Pasywne Uczenie aktywne Aktywny ADP z f. eksploracji (R + =, N e = 5) Uczenie aktywne Aktywny ADP z f. eksploracji (R + =, N e = 5) Aktywny ADP z f. eksploracji (R + =, Ne = 5) Utility estimates RMS error, policy loss Utility estimates (,) (,) (,3) (,3) (3,) (3,3) (4,3) Number of trials RMS error, policy loss RMS error Policy loss Number of trials
53 Aktywne TD Uczenie aktywne Aktywne TD Aktywne TD Jak pasywne, ale: Musimy uczyć się modelu P(s s, a) tak jak ADP Potrzebna jakaś funkcja eksploracji do wyboru akcji. Jak pasywne, ale: Musimy uczyć się modelu P(s s, a) tak jak ADP Potrzebna jakaś funkcja eksploracji do wyboru akcji.. Uwaga: algorytm zwraca akcję do wykonania w następnym kroku.
54 Aktywne TD Jak pasywne, ale: Musimy uczyć się modelu P(s s, a) tak jak ADP Potrzebna jakaś funkcja eksploracji do wyboru akcji. procedure active-td(s, a, r, s, r ) if s is new then U[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U[s] U[s] + α(r + γu[s ] U[s]) return argmax a f (R(s) + γ w P(w s, a )U[w], N[w, a ]) Uczenie aktywne Aktywne TD Aktywne TD Jak pasywne, ale: Musimy uczyć się modelu P(s s, a) tak jak ADP Potrzebna jakaś funkcja eksploracji do wyboru akcji. procedure active-td(s, a, r, s, r ) if s is new then U[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U[s] U[s] + α(r + γu[s ] U[s]) return argmaxa f (R(s) + γ w P(w s, a )U[w], N[w, a ]). Uwaga: algorytm zwraca akcję do wykonania w następnym kroku.
55 Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = max a Q(s, a) Uczenie aktywne Q-Learning (Watkins, 989) Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: Istotna zaleta: [zadanie 0]. Ponieważ model nie jest potrzebny do wyboru najlepszej akcji. U(s) = maxaq(s, a) Istotna zaleta: [zadanie 0]
56 Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = max a Q(s, a) Uczenie aktywne Q-Learning (Watkins, 989) Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = maxaq(s, a) Istotna zaleta: [zadanie 0] Nie trzeba uczyć się modelu przejść P(s s, a)! (metoda model-free). Dlaczego? [zadanie ]. Ponieważ model nie jest potrzebny do wyboru najlepszej akcji. Istotna zaleta: [zadanie 0] Nie trzeba uczyć się modelu przejść P(s s, a)! (metoda model-free). Dlaczego? [zadanie ]
57 Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = max a Q(s, a) Uczenie aktywne Q-Learning (Watkins, 989) Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = maxaq(s, a) Istotna zaleta: [zadanie 0] Nie trzeba uczyć się modelu przejść P(s s, a)! (metoda model-free). Dlaczego? [zadanie ] Ograniczenia do spełnienia:. Ponieważ model nie jest potrzebny do wyboru najlepszej akcji. Q(s, a) = R(s) + γ s P(s s, a)maxa Q(s, a ) Moglibyśmy użyć tego bezpośrednio konieczna nauka modelu przejść Istotna zaleta: [zadanie 0] Nie trzeba uczyć się modelu przejść P(s s, a)! (metoda model-free). Dlaczego? [zadanie ] Ograniczenia do spełnienia: Q(s, a) = R(s) + γ s P(s s, a)max a Q(s, a ) Moglibyśmy użyć tego bezpośrednio konieczna nauka modelu przejść
58 Q-Learning Mamy przejście s a s z nagrodą r. Znamy aktualne wartości: Q(s, a), oraz Q(s, a ) dla wszystkich a A(s). Oczekujemy, że spełnione będzie równanie: Uczenie aktywne Q-Learning Q-Learning Mamy przejście s a s z nagrodą r. Znamy aktualne wartości: Q(s, a), oraz Q(s, a ) dla wszystkich a A(s). Oczekujemy, że spełnione będzie równanie: Q (s, a) = r + γmaxa Q(s, a ) Q (s, a) = r + γmax a Q(s, a )
59 Q-Learning Mamy przejście s a s z nagrodą r. Znamy aktualne wartości: Q(s, a), oraz Q(s, a ) dla wszystkich a A(s). Oczekujemy, że spełnione będzie równanie: Uczenie aktywne Q-Learning Q-Learning Mamy przejście s a s z nagrodą r. Znamy aktualne wartości: Q(s, a), oraz Q(s, a ) dla wszystkich a A(s). Oczekujemy, że spełnione będzie równanie: Q (s, a) = r + γmaxa Q(s, a ) Skoro jednak nie jest spełnione, to modyfikujemy Q(s, a) w stronę Q (s, a) Reguła modyfikacji Q-Learning Analogicznie jak w TD otrzymujemy Q(s, a) Q(s, a) + α ( R(s) + γmaxa Q(s, a ) Q(s, a) ) Przykład [zadanie ] Q (s, a) = r + γmax a Q(s, a ) Skoro jednak nie jest spełnione, to modyfikujemy Q(s, a) w stronę Q (s, a) Reguła modyfikacji Q-Learning Analogicznie jak w TD otrzymujemy Q(s, a) Q(s, a) + α ( R(s) + γmax a Q(s, a ) Q(s, a) ) Przykład [zadanie ]
60 Algorytm (TD) Q-Learning Uczenie aktywne Algorytm (TD) Q-Learning Algorytm (TD) Q-Learning procedure active-q(s, a, r, s, r ) if s jest stanem terminalnym then Q[s, None] r N[s, a] N[s, a] + Q[s, a] Q[s, a] + α (r + γmaxa Q[s, a ] Q[s, a]) return argmaxa f (Q[s, a ], N[s, a ]) Czy algorytmy TD-learning i Q-learning można zastosować do znanego MDP? [zadanie 3] procedure active-q(s, a, r, s, r ) if s jest stanem terminalnym then Q[s, None] r N[s, a] N[s, a] + Q[s, a] Q[s, a] + α (r + γmax a Q[s, a ] Q[s, a]) return argmax a f (Q[s, a ], N[s, a ]) Czy algorytmy TD-learning i Q-learning można zastosować do znanego MDP? [zadanie 3]. Jeśli, używamy ɛ-zachłannej eksploracji, to N[s, a] nie jest potrzebne.. Tak. Można! I często się to robi ze względu, choćby, na prostotę tych algorytmów. W takim przypadku uczenie się funkcji U (klasyczny TD-Learning) upraszcza się, ponieważ nie trzeba nam wyznaczać modelu świata P (czyli sytuacja jest podobna jak w uczeniu pasywnym).
61 SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: Q(s, a) Q(s, a) + α ( r + γmax a Q(s, a ) Q(s, a) ). Uczenie aktywne SARSA (State-Action-Reward-State-Action) SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: Q(s, a) Q(s, a) + α ( r + γmaxa Q(s, a ) Q(s, a) ).. Dla strategii zachłannej względem Q algorytmy te są identyczne.. SARSA zbiegnie do optimum, jeśli każda akcja jest wykonywana nieskończenie wiele razy a polityka zbiega do polityki zachłannej względem Q. Np. jeśli polityka jest ɛ-zachłanna, gdzie ɛ = /t a t jest krokiem algorytmu.
62 SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: SARSA: Q(s, a) Q(s, a) + α ( r + γmax a Q(s, a ) Q(s, a) ). Q(s, a) Q(s, a) + α ( r + γq(s, a ) Q(s, a) ), Uczenie aktywne SARSA (State-Action-Reward-State-Action) SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: SARSA: Q(s, a) Q(s, a) + α ( r + γmaxa Q(s, a ) Q(s, a) ). Q(s, a) Q(s, a) + α ( r + γq(s, a ) Q(s, a) ), gdzie a jest akcją, która została wykonana w stanie s. Jaka jest różnica dla strategii zachłannej względem Q? [zadanie 4]. Dla strategii zachłannej względem Q algorytmy te są identyczne.. SARSA zbiegnie do optimum, jeśli każda akcja jest wykonywana nieskończenie wiele razy a polityka zbiega do polityki zachłannej względem Q. Np. jeśli polityka jest ɛ-zachłanna, gdzie ɛ = /t a t jest krokiem algorytmu. gdzie a jest akcją, która została wykonana w stanie s. Jaka jest różnica dla strategii zachłannej względem Q? [zadanie 4]
63 SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: SARSA: Q(s, a) Q(s, a) + α ( r + γmax a Q(s, a ) Q(s, a) ). Q(s, a) Q(s, a) + α ( r + γq(s, a ) Q(s, a) ), Uczenie aktywne SARSA (State-Action-Reward-State-Action) SARSA (State-Action-Reward-State-Action) Podobne do Q-Learning, ale uczenie jest wykonywane po krotce doświadczenia s, a, r, s, a. Q-Learning: SARSA: Q(s, a) Q(s, a) + α ( r + γmaxa Q(s, a ) Q(s, a) ). Q(s, a) Q(s, a) + α ( r + γq(s, a ) Q(s, a) ), gdzie a jest akcją, która została wykonana w stanie s. Jaka jest różnica dla strategii zachłannej względem Q? [zadanie 4] Różnica za to jest (i to niemała!), gdy mamy akcję eksploracyjną: Q-learning jest off-policy: używa najlepszej wartości Q ignorując aktualną politykę; SARSA jest on-policy. Q-learning nauczy się optymalnych akcji nawet, jeśli jest pełna eksploracja, SARSA nie. SARSA czasem jest lepsza (niestacjonarne, approksymacja funkcji).. Dla strategii zachłannej względem Q algorytmy te są identyczne.. SARSA zbiegnie do optimum, jeśli każda akcja jest wykonywana nieskończenie wiele razy a polityka zbiega do polityki zachłannej względem Q. Np. jeśli polityka jest ɛ-zachłanna, gdzie ɛ = /t a t jest krokiem algorytmu. gdzie a jest akcją, która została wykonana w stanie s. Jaka jest różnica dla strategii zachłannej względem Q? [zadanie 4] Różnica za to jest (i to niemała!), gdy mamy akcję eksploracyjną: Q-learning jest off-policy: używa najlepszej wartości Q ignorując aktualną politykę; SARSA jest on-policy. Q-learning nauczy się optymalnych akcji nawet, jeśli jest pełna eksploracja, SARSA nie. SARSA czasem jest lepsza (niestacjonarne, approksymacja
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Na podstawie: AIMA ch2 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 20 listopada 203 Problem decyzyjny Markova 3 + 2 0.8 START 0. 0. 2 3 4 MDP bez modelu przejść
Uczenie ze wzmocnieniem
Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 3 START 3
Uczenie ze wzmocnieniem aplikacje
Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 22 maja 2013 Problem decyzyjny Markova
Uczenie ze wzmocnieniem aplikacje
Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova
SPOTKANIE 11: Reinforcement learning
Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)
Problemy Decyzyjne Markowa
Problemy Decyzyjne Markowa na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2013 Sekwencyjne problemy decyzyjne Cechy sekwencyjnego
Problemy Decyzyjne Markowa
na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2015 na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki,
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Temporal Difference learning Uczenie oparte na różnicach czasowych Problemy predykcyjne (wieloetapowe) droga do
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja
Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie:
Spis treści 1 Uczenie ze wzmocnieniem 2 Proces decyzyjny Markowa 3 Jak wyznaczyć optymalną strategię? 3.1 Algorytm iteracji funkcji wartościującej 3.2 Algorytm iteracji strategii 4 Estymowanie modelu dla
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Przypomnienia (1) Do tych czas: stan X t u, gdzie u cel aktualizacji: MC : X t G t TD(0) : X y R t+1 + γˆv(x t,
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec
Systemy agentowe Uczenie ze wzmocnieniem Jędrzej Potoniec Uczenie ze wzmocnieniem (ang. Reinforcement learning) dane Środowisko, w którym można wykonywać pewne akcje, które są nagradzane lub karane, ale
Uczenie si e ze wzmocnieniem
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
Uczenie si e ze wzmocnieniem
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
Optymalizacja. Symulowane wyżarzanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne
Optymalizacja. Przeszukiwanie lokalne
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x
Uczenie si e ze wzmocnieniem wst ep 1 Uczenie si e ze wzmocnieniem wst ep 2. Agent wykonuje przebiegi uczace
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
RÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Schemat programowania dynamicznego (ang. dynamic programming)
Schemat programowania dynamicznego (ang. dynamic programming) Jest jedną z metod rozwiązywania problemów optymalizacyjnych. Jej twórcą (1957) był amerykański matematyk Richard Ernest Bellman. Schemat ten
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Algorytmy estymacji stanu (filtry)
Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
TEORIA GIER W EKONOMII WYKŁAD 6: GRY DWUOSOBOWE KOOPERACYJNE O SUMIE DOWOLNEJ
TEORIA GIER W EKONOMII WYKŁAD 6: GRY DWUOSOBOWE KOOPERACYJNE O SUMIE DOWOLNEJ dr Robert Kowalczyk Katedra Analizy Nieliniowej Wydział Matematyki i Informatyki UŁ Gry dwuosobowe z kooperacją Przedstawimy
Kurs z NetLogo - część 4.
Kurs z NetLogo - część 4. Mateusz Zawisza Zakład Wspomagania i Analizy Decyzji Instytut Ekonometrii Szkoła Główna Handlowa Seminarium Wieloagentowe Warszawa, 10.01.2011 Agenda spotkań z NetLogo 15. listopada
Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych
Pochodna i różniczka unkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją
Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11
Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość
Idea Niech θ oznacza parametr modelu statystycznego. Dotychczasowe rozważania dotyczyły metod estymacji tego parametru. Teraz zamiast szacować nieznaną wartość parametru będziemy weryfikowali hipotezę
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Kalibracja. W obu przypadkach jeśli mamy dane, to możemy znaleźć równowagę: Konwesatorium z Ekonometrii, IV rok, WNE UW 1
Kalibracja Kalibracja - nazwa pochodzi z nauk ścisłych - kalibrowanie instrumentu oznacza wyznaczanie jego skali (np. kalibrowanie termometru polega na wyznaczeniu 0C i 100C tak by oznaczały punkt zamarzania
Matematyka dyskretna. Andrzej Łachwa, UJ, /15
Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora
OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak
OpenAI Gym Adam Szczepaniak, Kamil Walkowiak Plan prezentacji Programowanie agentowe Uczenie przez wzmacnianie i problemy związane z rozwojem algorytmów Charakterystyka OpenAI Gym Biblioteka gym Podsumowanie
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 14 marca
Na podstawie: AIMA ch2 i slajdów S. Russel a i Na podstawie: AIMA ch2 i slajdów S. Russel a Instytut Informatyki, Politechnika Poznańska 14 marca 2014 Instytut Informatyki, Politechnika Poznańska 14 marca
Dokąd on zmierza? Przemieszczenie i prędkość jako wektory
A: 1 OK Muszę to powtórzyć... Potrzebuję pomocy Dokąd on zmierza? Przemieszczenie i prędkość jako wektory Łódź żegluje po morzu... Płynie z szybkością 10 węzłów (węzeł to 1 mila morska na godzinę czyli
Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 18 marca Inteligentne Agenty
Na podstawie: AIMA ch2 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 marca 2016 Na podstawie: AIMA ch2 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki,
Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2
Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.
Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu
Wykład 11-12 Centralne twierdzenie graniczne Statystyka matematyczna: Estymacja parametrów rozkładu Centralne twierdzenie graniczne (CTG) (Central Limit Theorem - CLT) Centralne twierdzenie graniczne (Lindenberga-Levy'ego)
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa
Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień
Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 6 Mikołaj Czajkowski Wiktor Budziński Metody symulacyjne Monte Carlo Metoda Monte-Carlo Wykorzystanie mocy obliczeniowej komputerów, aby poznać charakterystyki zmiennych losowych poprzez
Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
11. Gry Macierzowe - Strategie Czyste i Mieszane
11. Gry Macierzowe - Strategie Czyste i Mieszane W grze z doskonałą informacją, gracz nie powinien wybrać akcję w sposób losowy (o ile wypłaty z różnych decyzji nie są sobie równe). Z drugiej strony, gdy
Temat: Algorytmy zachłanne
Temat: Algorytmy zachłanne Algorytm zachłanny ( ang. greedy algorithm) wykonuje zawsze działanie, które wydaje się w danej chwili najkorzystniejsze. Wybiera zatem lokalnie optymalną możliwość w nadziei,
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Programowanie dynamiczne
Programowanie dynamiczne Patryk Żywica 5 maja 2008 1 Spis treści 1 Problem wydawania reszty 3 1.1 Sformułowanie problemu...................... 3 1.2 Algorytm.............................. 3 1.2.1 Prosty
5.1 Stopa Inflacji - Dyskonto odpowiadające sile nabywczej
5.1 Stopa Inflacji - Dyskonto odpowiadające sile nabywczej Stopa inflacji, i, mierzy jak szybko ceny się zmieniają jako zmianę procentową w skali rocznej. Oblicza się ją za pomocą średniej ważonej cząstkowych
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
1 Układy równań liniowych
II Metoda Gaussa-Jordana Na wykładzie zajmujemy się układami równań liniowych, pojawi się też po raz pierwszy macierz Formalną (i porządną) teorią macierzy zajmiemy się na kolejnych wykładach Na razie
Elementy modelowania matematycznego
Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny
Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński
Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków
Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.
Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Partition Search i gry z niezupełną informacją
MIMUW 21 stycznia 2010 1 Co to jest gra? Proste algorytmy 2 Pomysł Algorytm Przykład użycia 3 Monte Carlo Inne spojrzenie Definicja Co to jest gra? Proste algorytmy Grą o wartościach w przedziale [0, 1]
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/
Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/ Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, bud. CIW, p. 221 e-mail: zdzislaw.otachel@up.lublin.pl
Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r
Statystyka matematyczna Testowanie hipotez i estymacja parametrów Wrocław, 18.03.2016r Plan wykładu: 1. Testowanie hipotez 2. Etapy testowania hipotez 3. Błędy 4. Testowanie wielokrotne 5. Estymacja parametrów
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Metody statystyczne kontroli jakości i niezawodności Lekcja II: Karty kontrolne.
Metody statystyczne kontroli jakości i niezawodności Lekcja II: Karty kontrolne. Wydział Matematyki Politechniki Wrocławskiej Karty kontroli jakości: przypomnienie Załóżmy, że chcemy mierzyć pewną charakterystykę.
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
x 2 = a RÓWNANIA KWADRATOWE 1. Wprowadzenie do równań kwadratowych 2. Proste równania kwadratowe Równanie kwadratowe typu:
RÓWNANIA KWADRATOWE 1. Wprowadzenie do równań kwadratowych Przed rozpoczęciem nauki o równaniach kwadratowych, warto dobrze opanować rozwiązywanie zwykłych równań liniowych. W równaniach liniowych niewiadoma
Analiza stanów gry na potrzeby UCT w DVRP
Analiza stanów gry na potrzeby UCT w DVRP Seminarium IO na MiNI 04.11.2014 Michał Okulewicz based on the decision DEC-2012/07/B/ST6/01527 Plan prezentacji Definicja problemu DVRP DVRP na potrzeby UCB Analiza
Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD III: Problemy agenta
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD III: Problemy agenta To już było: AI to dziedzina zajmująca się projektowaniem agentów Określenie agenta i agenta racjonalnego Charakterystyka PAGE
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
weryfikacja hipotez dotyczących parametrów populacji (średnia, wariancja)
PODSTAWY STATYSTYKI. Teoria prawdopodobieństwa i elementy kombinatoryki. Zmienne losowe i ich rozkłady 3. Populacje i próby danych, estymacja parametrów 4. Testowanie hipotez 5. Testy parametryczne (na
Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Techniki optymalizacji
Techniki optymalizacji Symulowane wyżarzanie Maciej Hapke maciej.hapke at put.poznan.pl Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne zmniejszanie
10. Wstęp do Teorii Gier
10. Wstęp do Teorii Gier Definicja Gry Matematycznej Gra matematyczna spełnia następujące warunki: a) Jest co najmniej dwóch racjonalnych graczy. b) Zbiór możliwych dezycji każdego gracza zawiera co najmniej
W. Guzicki Próbna matura, grudzień 2014 r. poziom rozszerzony 1
W. Guzicki Próbna matura, grudzień 01 r. poziom rozszerzony 1 Próbna matura rozszerzona (jesień 01 r.) Zadanie 18 kilka innych rozwiązań Wojciech Guzicki Zadanie 18. Okno na poddaszu ma mieć kształt trapezu
Optymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Algorytmy metaheurystyczne Wykład 6. Piotr Syga
Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,
METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu
Kamil Figura Krzysztof Kaliński Bartek Kutera METODY SZTUCZNEJ INTELIGENCJI 2 Opis projektu Porównanie metod uczenia z rodziny TD z algorytmem Layered Learning na przykładzie gry w warcaby i gry w anty-warcaby
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Wykład 3 Hipotezy statystyczne
Wykład 3 Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu obserwowanej zmiennej losowej (cechy populacji generalnej) Hipoteza zerowa (H 0 ) jest hipoteza
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
PROBLEM: SORTOWANIE PRZEZ ODWRÓCENIA METODA: ALGORYTMY ZACHŁANNE
D: PROBLEM: SORTOWANIE PRZEZ ODWRÓCENIA METODA: ALGORYTMY ZACHŁANNE I. Strategia zachłanna II. Problem przetasowań w genomie III. Sortowanie przez odwrócenia IV. Algorytmy przybliżone V. Algorytm zachłanny
Metody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Adam Kirpsza Zastosowanie regresji logistycznej w studiach nad Unią Europejska. Anna Stankiewicz Izabela Słomska
Adam Kirpsza Zastosowanie regresji logistycznej w studiach nad Unią Europejska Anna Stankiewicz Izabela Słomska Wstęp- statystyka w politologii Rzadkie stosowanie narzędzi statystycznych Pisma Karla Poppera
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Metody niedyskontowe. Metody dyskontowe
Metody oceny projektów inwestycyjnych TEORIA DECYZJE DŁUGOOKRESOWE Budżetowanie kapitałów to proces, który ma za zadanie określenie potrzeb inwestycyjnych przedsiębiorstwa. Jest to proces identyfikacji
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1 Konrad Miziński, nr albumu 233703 1 maja 2015 Zadanie 1 Parametr λ wyestymowano jako średnia z próby: λ = X n = 3.73 Otrzymany w
Dr inż. Robert Wójcik, p. 313, C-3, tel Katedra Informatyki Technicznej (K-9) Wydział Elektroniki (W-4) Politechnika Wrocławska
Dr inż. Robert Wójcik, p. 313, C-3, tel. 320-27-40 Katedra Informatyki Technicznej (K-9) Wydział Elektroniki (W-4) Politechnika Wrocławska E-mail: Strona internetowa: robert.wojcik@pwr.edu.pl google: Wójcik
Algorytmy genetyczne jako metoda wyszukiwania wzorców. Seminarium Metod Inteligencji Obliczeniowej Warszawa 26 X 2005 mgr inż.
Algorytmy genetyczne jako metoda wyszukiwania wzorców Seminarium Metod Inteligencji Obliczeniowej Warszawa 26 X 2005 mgr inż. Marcin Borkowski Krótko i na temat: Cel pracy Opis modyfikacji AG Zastosowania
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej
7. Estymacja parametrów w modelu normalnym(14.04.2008) Pojęcie losowej próby prostej Definicja 1 n-elementowa losowa próba prosta nazywamy ciag n niezależnych zmiennych losowych o jednakowych rozkładach
MODELOWANIE RZECZYWISTOŚCI
MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/ Podręcznik Iwo Białynicki-Birula Iwona
FUNKCJA LINIOWA - WYKRES
FUNKCJA LINIOWA - WYKRES Wzór funkcji liniowej (Postać kierunkowa) Funkcja liniowa jest podstawowym typem funkcji. Jest to funkcja o wzorze: y = ax + b a i b to współczynniki funkcji, które mają wartości
B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.