W rozpatrywanym tu przyk ladowym zagadnieniu 4x3 b edziemy przyjmować. Uczenie si e ze wzmocnieniem pasywne 3. γ = 1.

Wielkość: px
Rozpocząć pokaz od strony:

Download "W rozpatrywanym tu przyk ladowym zagadnieniu 4x3 b edziemy przyjmować. Uczenie si e ze wzmocnieniem pasywne 3. γ = 1."

Transkrypt

1 Uczenie si e ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalaj ace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyj atkiem gdy osi agnie on stan docelowy. Zak ladamy, że w stanie docelowym agent z za lożenia zawsze otrzymuje obiektywn a ocen e swoich dzia lań, zwan a nagrod a lub wzmocnieniem. Wygodnie jest sformu lować zadanie agenta w taki sposób, aby musia l on sam nauczyć si e tak dzia lać, aby maksymalizować t e nagrod e (wzmocnienie). Nazywamy to zagadnieniem uczenia si e ze wzmocnieniem (reinforcement learning, RL). Jest to zadanie trudne. W ogólnym przypadku agent może nie mieć pe lnej informacji o swoim środowisku, jak również precyzyjnego (albo żadnego) opisu swoich dzia lań i ich skutków. Jego sytuacj e można rozumieć jako jedno ze sformu lowań pe lnego zadania sztucznej inteligencji. Agent zostaje umieszczony w środowisku, którego nie zna, i musi si e nauczyć skutecznie w nim dzia lać, aby maksymalizować pewne kryterium, dost epne mu w postaci wzmocnień. B edziemy rozważali probabilistyczny model skutków akcji agenta. Mówi ac dok ladniej, b edziemy zak ladali, że podstawowe zagadnienie jest dyskretnym procesem Markowa (MDP), jednak agent nie zna jego parametrów. Uczenie si e ze wzmocnieniem wst ep Uczenie si e ze wzmocnieniem wst ep Pasywne uczenie si e ze wzmocnieniem Na pocz atek rozważymy uczenie si e pasywne, gdzie zak ladamy, że polityka agenta π(s) jest z góry ustalona. Agent nie podejmuje żadnych decyzji, musi robić to co dyktuje mu polityka, a wyniki jego akcji s a probabilistyczne. Jednak może obserwować co si e dzieje, czyli wie do jakich stanów dociera i jakie otrzymuje w nich nagrody. Pami etajmy jednak, że nagrody otrzymywane w stanach nieterminalnych nie sa dla agenta istotnym kryterium liczy si e tylko suma nagród otrzymanych na drodze do stanu terminalnego, zwana wzmocnieniem. Zadaniem agenta jest nauczenie si e wartości użyteczności stanów U π (s), obliczanych zgodnie z równaniem: U π (s) = E [ t= γ t R(st) ] W rozpatrywanym tu przyk ladowym zagadnieniu 4x3 b edziemy przyjmować γ =. Uczenie si e ze wzmocnieniem pasywne 3 Przebiegi ucz ace Przypomnijmy rozważany wcześniej przyk lad agenta w świecie 4 3: Agent wykonuje przebiegi ucz ace (ang. trials) w których wykonuje akcje zgodne z posiadan a polityk a, aż do osi agni ecia stanu terminalnego. W każdym kroku otrzymuje percept wskazuj acy zarówno bież acy stan, jak i nagrod e. Przyk ladowe przebiegi: (,).4 (,).4 (,3).4 (,).4 (,3).4 (,3).4 (3,3).4 (4,3) + (,).4 (,).4 (,3).4 (,3).4 (3,3).4 (3,).4 (3,3).4 (4,3) + (,).4 (,).4 (3,).4 (3,).4 (4,) Uczenie si e ze wzmocnieniem pasywne 4

2 Obliczanie użyteczności metod a bezpośredni a Celem dzia lania agenta jest obliczenie użyteczności stanów U π (s) zwi azanych z posiadan a polityk a π(s). Użyteczności stanów zdefiniowane s a jako wartości oczekiwane sumy nagród (dyskontowanych) otrzymanych przez agenta startuj acego z danego stanu, i poruszaj acego si e zgodnie ze swoj a polityk a: U π (s) = E [ t= γ t R(st) ] Agent może nauczyć si e użyteczności obliczaj ac tzw. nagrod e pozosta l a (reward-to-go) w każdym stanie. Na koniec przebiegu agent oblicza nagrod e pozosta l a w stanie końcowym jako nagrod e otrzyman a w tym stanie. Nast epnie, cofaj ac si e wzd luż swojej drogi, oblicza nagrody pozosta le dla wcześniejszych stanów jako sumy nagród otrzymanych na końcowym odcinku przebiegu. Na przyk lad, dla przebiegu: (,).4 (,).4 (,3).4 (,).4 (,3).4 (,3).4 (3,3).4 (4,3) + otrzymujemy Rtg(4,3) =,Rtg(3,3) =.96,Rtg(,3) =.9,Rtg(,3) =.88,Rtg(,) =.84,Rtg(,3) =.8,Rtg(,) =.76,Rtg(,) =.7 Uczenie si e ze wzmocnieniem pasywne 5 Posiadaj ac wiele próbek (przebiegów) agent może przez proste uśrednianie określić kolejne przybliżenia wartości oczekiwanej użyteczności stanów, które w nieskończoności zbiegaj a si e do w laściwych wartości oczekiwanych. To podejście jest poprawne, lecz niezbyt efektywne wymaga dużej liczby przebiegów. Przedstawiona metoda określania użyteczności, stosuj ac proste uśrednianie użyteczności stanów, pomija ważn a w lasność procesów Markowa, tzn., że użyteczności stanów sa zwi azane z użytecznościami stanów sasiednich. (,).4 (,).4 (,3).4 (,).4 (,3).4 (,3).4 (3,3).4 (4,3) + (,).4 (,).4 (,3).4 (,3).4 (3,3).4 (3,).4 (3,3).4 (4,3) + (,).4 (,).4 (3,).4 (3,).4 (4,) Na przyk lad, w drugim przebiegu z powyższego przyk ladu algorytm określa użyteczność stanu (3,) jako pozosta l a nagrod e z tego przebiegu, ignoruj ac fakt, że kolejnym stanem w tym przebiegu jest stan (3,3), który ma wysok a (i już znan a) użyteczność. Równanie Bellmana pozwala zwi azać użyteczności nast epuj acych po sobie stanów, lecz to podejście nie potrafi ich wykorzystać. Uczenie si e ze wzmocnieniem pasywne 6 Adaptacyjne programowanie dynamiczne Adaptacyjnym programowaniem dynamicznym (ADP) nazywamy proces podobny do programowania dynamicznego w po l aczeniu z uczeniem si e modelu środowiska, czyli funkcji przejść stanów, i funkcji nagrody. Polega ono na zliczaniu przejść od pary stan-akcja do nast epnej akcji. Przebiegi ucz ace dostarczaj a nam serii ucz acej takich przejść. Agent może określać ich prawdopodobieństwa jako ich cz estotliwości wyst epuj ace w przebiegach. Na przyk lad, w podanych wcześniej przebiegach, w stanie (,3) trzy razy wykonana zosta la akcja (Right), po czym dwa razy wynikowym stanem by l (,3). Zatem agent powinien określić P((,3) (,3),Right) = 3. (,).4 (,).4 (,3).4 (,).4 (,3).4 (,3).4 (3,3).4 (4,3) + (,).4 (,).4 (,3).4 (,3).4 (3,3).4 (3,).4 (3,3).4 (4,3) + (,).4 (,).4 (3,).4 (3,).4 (4,) Po wykonaniu każdego kroku agent aktualizuje użyteczności stanów rozwi azuj ac równanie Bellmana (uproszczone) jednym z w laściwych algorytmów. Równanie jest uproszczone, ponieważ znamy tylko rozk lady skutków akcji należ acych do polityki, i nie możemy obliczać najlepszej akcji w każdym stanie. Ponieważ chcemy obliczyć U π to bierzemy w laśnie te akcje. Uczenie si e ze wzmocnieniem metoda ADP 7 Adaptacyjne programowanie dynamiczne algorytm Uczenie si e ze wzmocnieniem metoda ADP 8

3 Adaptacyjne programowanie dynamiczne efektywność Algorytm ADP aktualizuje wartości użyteczności najlepiej jak to jest możliwe, i stanowi w tym wzgl edzie standard do porównań dla innych algorytmów. Jednak procedura obliczania użyteczności przez rozwi azywanie uk ladu równań (liniowych) może być niewykonalna dla wielu zmiennych (np. 5 równań z 5 niewiadomymi dla gry backgammon)..8 Utility estimates. (4,3) (3,3) (,3) (,) (3,).5.3. RMS error in utility Powyższe wykresy ilustruj a zbieżność dla przyk ladowego uczenia w środowisku 4 3. Należy dodać, że w tym przyk ladzie przebieg kończ acy si e w z lym stanie terminalnym pojawia si e po raz pierwszy w przebiegu 78-ym, co skutkuje skokow a aktualizacj a niektórych użyteczności. Uczenie si e ze wzmocnieniem metoda ADP 9 Uczenie si e ze wzmocnieniem metoda ADP Metoda różnic czasowych Zamiast każdorazowo rozwi azywać pe len uk lad równań ze wzgl edu na wartości użyteczności, można aktualizować te wartości aktualnie obserwowanymi wartościami wzmocnień. Tak funkcjonuj acy algorytm nazywa si e metod a różnic czasowych TD (temporal difference learning): U π (s) U π (s)+α(r(s)+γu π (s ) U π (s)) W tym przypadku aktualizujemy użyteczność poprawk a obliczan a na podstawie jednego zaobserwowanego przejścia stanów, a nie wartości oczekiwanej wszystkich przejść. Dlatego też poprawk e różnic e pomi edzy użyteczności a ruchu a użyteczności a stanu bierzemy zredukowan a wspó lczynnikiem α <. Powoduje to wprowadzanie ma lych poprawek po każdym ruchu. Jednocześnie poprawka zmierza do zera gdy użyteczność stanu zrównuje si e z dyskontowan a użyteczności a ruchu. Zauważmy, że ta metoda nie wymaga posiadania modelu środowiska P(s s,a), ani sama go nie oblicza. Uczenie si e ze wzmocnieniem metoda TD Metoda różnic czasowych algorytm Uczenie si e ze wzmocnieniem metoda TD

4 Zbieżność metody różnic czasowych Istnieje zwi azek i podobieństwo pomi edzy algorytmami ADP i TD. O ile ten drugi dokonuje tylko lokalnych zmian w wartościach użyteczności, to ich średnie wartości zbiegaj a si e do tych samych wartości co dla algorytmu ADP. W przypadku uczenia wieloma przyk ladami przejść, cz estotliwości wyst epowania stanów zgadzaj a si e z rozk ladem prawdopodobieństw ich wyst epowania i można wykazać, że wartości użyteczności b ed a si e zbiegać do poprawnych wyników. W tym celu parametr uczenia si e α powinien zmniejszać si e wraz ze zwi ekszaniem si e liczby przetworzonych przebiegów. Dok ladniej, wartości tego parametru powinny spe lniać zależność: n= α(n) = oraz jednocześnie: n= α (n) < Uczenie si e ze wzmocnieniem metoda TD 3 Zbieżność przyk ladowego procesu uczenia dla środowiska 4 3:.8. (4,3) (3,3) (,3) (,) (,) Utility estimates RMS error in utility Uczenie si e ze wzmocnieniem metoda TD 4 Aktywne uczenie si e ze wzmocnieniem Co powinien zrobić agent, który nie posiada ustalonej polityki, albo który chcia lby określić polityk e optymaln a? Najpierw powinien wyznaczyć kompletny model przejść dla wszystkich akcji. Przedstawiony wyżej algorytm ADP daje t e możliwość. Nast epnie należy wyznaczyć polityk e optymaln a, spe lniaj ac a poniższe równanie Bellmana, jak w zwyk lym problemie decyzyjnym Markowa: U(s) = R(s)+γmax a s P(s s,a)u(s ) Agent może to zrobić algorytmem iteracji wartości lub iteracji polityki. Nast epnie, maj ac wyznaczon a optymaln a polityk e dla danego środowiska, może spokojnie przejść do jej realizacji. Ale czy powinien tak zrobić? Uczenie si e ze wzmocnieniem aktywne RMS error Policy loss 3 RMS error, policy loss Wykres po lewej pokazuje wynik uczenia si e w pewnym eksperymencie. Agent znalaz l bezpośredni a drog e do rozwi azania [+] w przebiegu nr 39, lecz by la to droga gorsza, wzd luż stanów: (,), (3,), (3,), (3,3). Zdeterminowa la jednak przyj et a przez agenta polityk e optymaln a po prawej. Okazuje si e, że jest to sytuacja typowa, agent z rzadka tylko znajduje optymaln a polityk e preferuj ac a drog a górn a: (,), (,3), (,3), (3,3). Uczenie si e ze wzmocnieniem aktywne 6

5 Eksploracja Niestety, jeśli agent nie nauczy si e poprawnego modelu środowiska w swoich pocz atkowych przebiegach, to b edzie nast epnie generowa l przebiegi zgodnie z polityk a optymaln a dla pewnego modelu, która może nie być globalnie optymalna dla danego środowiska. Pojawia si e tu kompromis pomi edzy eksploatacj a posiadanej wiedzy a eksploracj a środowiska. Agent nie może zbyt szybko zadowolić si e wyuczonym modelem środowiska, i obliczon a dla niego optymaln a strategi a. Powinien próbować różnych możliwości. Co wi ecej, musi wielokrotnie próbować wszystkich akcji we wszystkich stanach, jeśli chce unikn ać możliwości, że przypadkowa pechowa seria uniemożliwi mu odkrycie jakiegoś szczególnie dobrego ruchu. Jednak w końcu musi również zacz ać poruszać si e zgodnie z polityk a optymaln a, aby dostroić ja do specyficznych dla niej ścieżek. Uczenie si e ze wzmocnieniem eksploracja 7 Polityka eksploracji Aby po l aczyć skuteczn a eksploracj e świata z eksploatacj a posiadanej wiedzy agent powinien posiadać polityk e eksploracji. Ma ona zagwarantować, że agent b edzie on w stanie poznać wszystkie swoje możliwe akcje w stopniu wystarczaj acym do obliczenia swojej globalnie optymalnej polityki dla danego środowiska. Prost a polityk a eksploracji mog loby być wykonywanie przypadkowych akcji we wszystkich stanach, z pewnym ustalonym prawdopodobieństwem, a w pozosta lych przypadkach wykonywanie akcji uważanych za optymalne. Jest to podejście poprawne, lecz wolno zbieżne. Lepiej by loby preferować eksploracj e niezbyt dobrze jeszcze poznanych par stan-akcja, jednocześnie unikaj ac eksploracji par znanych już jako niezbyt korzystne. Uczenie si e ze wzmocnieniem eksploracja 8 Funkcja eksploracji Sensown a polityk e eksploracji można zbudować wprowadzaj ac optymistyczne oszacowania użyteczności U + (s): U + (s) R(s)+γmax a f ( s P(s s,a)u + (s ),N(a,s) ) gdzie N(a,s) jest liczb a wcześniej dokonanych wyborów akcji a w stanie s, natomiast f(u,n) jest funkcj a eksploracji, wyważaj ac a preferencje dla zysku (dużych wartości u) i ciekawości (ma lych wartości n). Oczywiście funkcja eksploracji f powinna być rosn aca ze wzgl edu na u i malej aca ze wzgl edu na n. Prostym przyk ladem funkcji f może być: { R + jeśli n < Ne f(u,n) = u w przeciwnym wypadku gdzie R + oznacza optymistyczne oszacowanie najlepszej nagrody możliwej do otrzymania w którymkolwiek ze stanów, a Ne jest minimaln a liczb a prób każdej pary stan-akcja, jak a agent b edzie si e stara l wykonać. Uczenie si e ze wzmocnieniem eksploracja 9 Fakt, że we wzorze na aktualizacj e U + po prawej stronie wyst epuje również U + jest istotny. Ponieważ stany i akcje wokó l stanu pocz atkowego b ed a wykonywane wiele razy, gdyby agent zastosowa l nieoptymistyczne obliczanie użyteczności, móg lby zacz ać unikać tych stanów, i w konsekwencji zniech ecić si e do wypuszczania si e dalej. Użycie wartości U + oznacza, że optymistyczne wartości generowane dla nowo eksplorowanych regionów b ed a propagowane wstecz, dzi eki czemu akcje prowadz ace do nieznanych jeszcze regionów b ed a szacowane wysoko, i tym samym preferowane. Uczenie si e ze wzmocnieniem eksploracja

6 (,) (,) (,3) (,3) (3,) (3,3) (4,3) Utility estimates RMS error, policy loss. RMS error Policy loss Na lewym wykresie widać przebieg uczenia si e agenta z eksploracj a. Polityka bliska optymalnej zosta la osi agni eta po 8 przebiegach. Zauważmy, że wartości użyteczności zbiegaj a si e wolniej (RMS error) niż zostaje wyznaczona optymalna polityka (policy loss). Uczenie si e ze wzmocnieniem eksploracja Aktywne uczenie si e różnic czasowych Metod e różnic czasowych można również zastosować do uczenia si e aktywnego. Agent może nie posiadać ustalonej polityki, i nadal obliczać użyteczności stanów wykorzystuj ac ten sam wzór co w przypadku pasywnym: U π (s) U π (s)+α(r(s)+γu π (s ) U π (s)) Dzi eki obliczanym użytecznościom agent może wyznaczać w laściwe akcje w każdym stanie korzystaj ac z użyteczności stanów sasiednich. Można wykazać, że aktywny agent TD osi agnie te same wynikowe wartości użyteczności co aktywny agent ADP. Uczenie si e ze wzmocnieniem TD-learning Metoda Q-learning Alternatywn a do poprzedniego wzoru metod a uczenia si e różnic czasowych jest metoda Q-learning, która zamiast użyteczności uczy si e reprezentacji akcja-wartość w postaci funkcji Q(s, a). Ta funkcja wyraża wartość wykonania akcji a w stanie s, i jest zwi azana z użytecznościami stanów wzorem: U(s) = max a Q(s, a) Docelowe wartości Q spe lniaj a równanie: Q(s,a) = R(s)+γ P(s s,a)max Q(s,a ) s a Powyższy wzór móg lby być wykorzystywany w procesie iteracyjnym jako wzór do aktualizacji wartości Q. Wymaga loby to jednak jednoczesnego uczenia si e wartości Q i modelu w postaci funkcji P, która wyst epuje we wzorze. Uczenie si e ze wzmocnieniem Q-learning 3 Q-learning aktualizacja metod a różnic czasowych Możliwa jest również aktualizacja lokalna funkcji Q b ed aca wariantem metody różnic czasowych i wyrażona poniższym wzorem aktualizacyjnym, obliczanym ilekroć akcja a jest wykonywana w stanie s prowadz ac do stanu wynikowego s : Q(s,a) Q(s,a)+α(R(s)+γmax Q(s,a ) Q(s,a)) a Algorytm Q-learning z metod a różnic czasowych zbiega si e do rozwi azania znacznie wolniej niż algorytm ADP, ponieważ nie wymusza obliczenia pe lnej spójności modelu (którego nie tworzy). Uczenie si e ze wzmocnieniem Q-learning 4

7 Pe lny algorytm Q-learning z eksploracj a W ogólności aktywny agent ucz acy si e metod a Q-learning wymaga zastosowania eksploracji tak samo jak w przypadku metody ADP. St ad w algorytmie wyst epuje funkcja eksploracji f i tablica cz estości wyst epowania akcji N. Przy zastosowaniu prostszej polityki eksploracji (np. wykonywanie określonej proporcji ruchów losowych) tablica N może nie być potrzebna. Uczenie si e ze wzmocnieniem Q-learning 5 SARSA State-Action-Reward-State-Action Istnieje pewien wariant algorytmu Q-learning z aktualizacj a metod a różnic czasowych zwany SARSA (State-Action-Reward-State-Action): Q(s,a) Q(s,a)+α(R(s)+γQ(s,a ) Q(s,a)) W SARSA aktualizacja bierze pod uwag e pi eć czynników: s,a,r,s,a. O ile algorytm Q-learning aktualizuje na podstawie najlepszej akcji wybranej dla stanu osi agni etego przez akcj e a, SARSA bierze pod uwag e to jaka akcja zosta la w rzeczywistości wybrana. Zatem np. dla zach lannego agenta realizuj acego wy l acznie eksploatacj e te dwie metody by lyby identyczne. Jednak w przypadku uczenia si e z eksploracj a różnica jest istotna. Metoda Q-learning jest metod a uczenia si e poza polityk a (off-policy), obliczaj ac a najlepsze możliwe wartości Q, niezależnie od tego gdzie prowadzi nas realizowana polityka. Natomiast SARSA jest metod a w polityce (on-policy), odpowiedni a dla agenta poruszaj acego si e zgodnie z posiadan a polityk a. Uczenie si e ze wzmocnieniem SARSA 6 Q-learning jest bardziej elastycznym algorytmem, ponieważ pozwala agentowi uczyć si e w laściwego zachowania si e nawet jeśli wykonuje on aktualnie polityk e niezgodn a z wyuczanymi wzorcami. Natomiast SARSA jest bardziej realistyczna, ponieważ na przyk lad, gdyby agent nie móg l w % kontrolować swojej polityki, to lepiej mu uczyć si e wzorców zgodnych z tym co rzeczywiście b edzie si e z nim dzia lo, zamiast uczyć si e zgodnie z najlepszymi dla agenta wzorcami. Zarówno Q-learning jak i SARSA sa w stanie nauczyć si e optymalnej polityki dla przyk ladowego środowiska 4x3, jednak wolniej niż ADP (w sensie liczby iteracji). Wynika to z faktu, że lokalne poprawki nie wymuszaj a spójności ca lej funkcji Q. Porównuj ac te metody można spojrzeć szerzej i zadać sobie pytanie, czy lepszym podejściem jest uczenie si e modelu środowiska i funkcji użyteczności, czy bezpośrednie wyznaczanie odwzorowania stanów do akcji bez ogl adania si e na model środowiska. Jest to w rzeczywistości jedno z fundamentalnych pytań jak budować sztuczn a inteligencj e. Przez wiele lat pocz atkowego rozwoju tej dziedziny wiedzy dominowa l paradygmat systemów opartych na wiedzy (knowledge-based), postuluj acych konieczność budowy modeli deklaratywnych. Fakt, że powstaj a metody bezmodelowe takie jak Q-learning sugeruje, że być może by lo to niepotrzebne. Jednak dla niektórych bardziej z lożonych zagadnień podejście z modelem sprawdza si e lepiej, zatem kwestia pozostaje nierozstrzygni eta. Uczenie si e ze wzmocnieniem SARSA 7 Uczenie si e ze wzmocnieniem SARSA 8

8 Uogólnianie w uczeniu si e ze wzmocnieniem Omówione powyżej algorytmy uczenia si e ze wzmocnieniem zak ladaj a jawn a reprezentacj e funkcji U(s) lub Q(s) tak a jak np. reprezentacja tablicowa. Może to być praktyczne tylko do pewnej wielkości zagadnienia. Na przyk lad, dla zagadnień o bardzo dużej liczbie stanów (np. dla gier takich jak szachy lub backgammon), trudno wyobrazić sobie wykonanie wystarczaj acej liczby przebiegów ucz acych aby odwiedzić każdy stan wiele razy. Konieczne jest zastosowanie jakiejś metody generalizacji (uogólniania), która pozwoli laby generować skuteczn a polityk e na podstawie ma lej cz eści przebadanej przestrzeni stanów. Uczenie si e ze wzmocnieniem uogólnianie 9 Uczenie si e ze wzmocnieniem uogólnianie 3 Aproksymacja funkcji Jedn a z takich metod jest aproksymacja funkcji, polegaj aca na zapisie badanej funkcji (np. U) w postaci nietablicowej, np. wyrażeniu jej jak aś formu l a skończon a. Podobnie jak w konstrukcji funkcji heurystycznych, można zastosować liniow a kombinacj e jakichś cech stanu (zwanych również atrybutami stanu): Ûθ(s) = θf(s)+θf(s)+...+θnfn(s) Algorytm uczenia si e ze wzmocnieniem uczy lby si e wektora wspó lczynników θ =< θ,θ,...,θn > tak by funkcja oceny Ûθ przybliża la możliwie dobrze rzeczywist a funkcj e użyteczności stanów. Podejście to nazywa si e aproksymacj a funkcji, ponieważ nie ma pewności, że rzeczywist a funkcj e oceny da si e wyrazić tego typu formu l a. Jakkolwiek wydaje si e w atpliwe by np. optymaln a polityk e dla gry w szachy da lo si e wyrazić funkcj a z kilkunastoma wspó lczynnikami, to jest zupe lnie możliwe by osi agn ać w ten sposób dobry poziom gry. Uczenie si e ze wzmocnieniem aproksymacja funkcji 3 Istot a podejścia jest jednak nie przybliżenie mniejsz a liczb a wspó lczynników funkcji, która w rzeczywistości być może wymaga ich wielokrotnie wi ecej, ale uogólnianie, czyli generowanie polityki dla wszystkich stanów na podstawie analizy ma lej ich cz eści. Np. w eksperymentach przeprowadzonych z gr a backgammon, uda lo si e nauczyć gracza poziomu gry porównywalnego z ludzkimi na podstawie prób analizuj acych jeden na stanów. Oczywiście, sukces uczenia si e ze wzmocnieniem w takich przypadkach zależy od trafnego wybrania funkcji aproksymuj acej. Jeśli żadna kombinacja wybranych cech nie może dać dobrej strategii gry, to żadna metoda uczenia jej nie wygeneruje. Z kolei, wybranie bardzo rozbudowanej funkcji z duż a liczb a cech i wspó lczynników zwi eksza szanse na sukces, ale kosztem wolniejszej zbieżności i zarazem wolniejszego procesu uczenia. Uczenie si e ze wzmocnieniem aproksymacja funkcji 3

9 Korekta parametrów funkcji Aby umożliwić uczenie si e na bież aco (on-line learning) niezb edna jest jakaś metoda korekty parametrów na podstawie wartości wzmocnień otrzymywanych po każdym przebiegu (albo po każdym kroku). Na przyk lad, jeśli uj(s) jest wartości a pozosta lej nagrody dla stanu s w j-tym przebiegu ucz acym, to b l ad aproksymacji funkcji użyteczności można obliczać jako: Ej = (Ûθ(s) uj(s)) Dynamika zmiany tego b l edu ze wzgl edu na parametr θi jest określona jako Ej/ θi, zatem aby skorygować ten parametr w kierunku zmniejszenia b l edu, w laściw a formu l a na poprawk e jest: θi θi α E j(s) = θi+α(uj(s) Ûθ(s)) Û θ(s) θi θi Powyższy wzór zwany jest regu l a Widrow a-hoff a albo regu l a delta. Uczenie si e ze wzmocnieniem aproksymacja funkcji 33 Przyk lad Na przyk lad, dla środowiska 4x3 funkcja użyteczności stanów mog laby być aproksymowana liniow a kombinacj a wspó lrz ednych: Ûθ(x,y) = θ+θx+θy Poprawki zgodne z regu l a delta b ed a teraz dane przez: θ θ+α(uj(s) Ûθ(s)) θ θ+α(uj(s) Ûθ(s))x θ θ+α(uj(s) Ûθ(s))y Przyjmuj ac przyk ladowo θ =< θ,θ,θ >=<.5,.,. > otrzymujemy pocz atkowe przybliżenie Ûθ(,) =.8. Jeśli po wykonaniu przebiegu ucz acego obliczylibyśmy np. uj(, ) =.7 to wszystkie wspó lczynniki θ, θ, θ zosta lyby obniżone o.8α, co zmniejszy loby b l ad dla stanu (,). Oczywiście, w ten sposób zmieni laby si e ca la funkcja Ûθ(s), co jest istot a uogólniania. Uczenie si e ze wzmocnieniem aproksymacja funkcji 34 Zastosowanie różnic czasowych Można również realizować poprawki metod a różnic czasowych. θi θi+α[r(s)+γûθ(s ) Ûθ(s)] Ûθ(s) θi θi θi+α[r(s)+γmax θi a ˆQθ(s,a ) ˆQθ(s,a)] ˆQθ(s,a) Uczenie si e ze wzmocnieniem aproksymacja funkcji 35

Uczenie si e ze wzmocnieniem wst ep 1 Uczenie si e ze wzmocnieniem wst ep 2. Agent wykonuje przebiegi uczace

Uczenie si e ze wzmocnieniem wst ep 1 Uczenie si e ze wzmocnieniem wst ep 2. Agent wykonuje przebiegi uczace Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.

Bardziej szczegółowo

Uczenie si e ze wzmocnieniem

Uczenie si e ze wzmocnieniem Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.

Bardziej szczegółowo

Uczenie si e ze wzmocnieniem

Uczenie si e ze wzmocnieniem Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.

Bardziej szczegółowo

Uczenie ze wzmocnieniem aplikacje

Uczenie ze wzmocnieniem aplikacje Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova

Bardziej szczegółowo

Uczenie ze wzmocnieniem aplikacje

Uczenie ze wzmocnieniem aplikacje Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 22 maja 2013 Problem decyzyjny Markova

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Na podstawie: AIMA ch2 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 20 listopada 203 Problem decyzyjny Markova 3 + 2 0.8 START 0. 0. 2 3 4 MDP bez modelu przejść

Bardziej szczegółowo

Dyskretne modele populacji

Dyskretne modele populacji Dyskretne modele populacji Micha l Machtel Adam Soboczyński 19 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których

Bardziej szczegółowo

Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010

Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010 R. Rȩbowski 1 WPROWADZENIE Metoda Simplex bez użycia tabel simplex 29 kwietnia 2010 1 Wprowadzenie Powszechnie uważa siȩ, że metoda simplex, jako uniwersalny algorytm pozwalaj acyznaleźć rozwi azanie optymalne

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06 3 START 3

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 3 START 3

Bardziej szczegółowo

SPOTKANIE 11: Reinforcement learning

SPOTKANIE 11: Reinforcement learning Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)

Bardziej szczegółowo

Dyskretne modele populacji

Dyskretne modele populacji Dyskretne modele populacji Micha l Machtel Adam Soboczyński 17 stycznia 2007 Typeset by FoilTEX Dyskretne modele populacji [1] Wst ep Dyskretny opis modelu matematycznego jest dobry dla populacji w których

Bardziej szczegółowo

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym.

Rozdzia l 11. Przestrzenie Euklidesowe Definicja, iloczyn skalarny i norma. iloczynem skalarnym. Rozdzia l 11 Przestrzenie Euklidesowe 11.1 Definicja, iloczyn skalarny i norma Definicja 11.1 Przestrzenia Euklidesowa nazywamy par e { X K,ϕ }, gdzie X K jest przestrzenia liniowa nad K, a ϕ forma dwuliniowa

Bardziej szczegółowo

Problemy Decyzyjne Markowa

Problemy Decyzyjne Markowa Problemy Decyzyjne Markowa na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2013 Sekwencyjne problemy decyzyjne Cechy sekwencyjnego

Bardziej szczegółowo

Normy wektorów i macierzy

Normy wektorów i macierzy Rozdzia l 3 Normy wektorów i macierzy W tym rozdziale zak ladamy, że K C. 3.1 Ogólna definicja normy Niech ψ : K m,n [0, + ) b edzie przekszta lceniem spe lniaj acym warunki: (i) A K m,n ψ(a) = 0 A = 0,

Bardziej szczegółowo

Sterowalność liniowych uk ladów sterowania

Sterowalność liniowych uk ladów sterowania Sterowalność liniowych uk ladów sterowania W zadaniach sterowania docelowego należy przeprowadzić obiekt opisywany za pomoc a równania stanu z zadanego stanu pocz atkowego ẋ(t) = f(x(t), u(t), t), t [t,

Bardziej szczegółowo

Grupy i cia la, liczby zespolone

Grupy i cia la, liczby zespolone Rozdzia l 1 Grupy i cia la, liczby zespolone Dla ustalenia uwagi, b edziemy używać nast epuj acych oznaczeń: N = { 1, 2, 3,... } - liczby naturalne, Z = { 0, ±1, ±2,... } - liczby ca lkowite, W = { m n

Bardziej szczegółowo

Pochodne cz ¾astkowe i ich zastosowanie.

Pochodne cz ¾astkowe i ich zastosowanie. Pochodne cz ¾astkowe i ich zastosowanie. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Pochodne cz ¾astkowe i ich zastosowanie. maj 2013 1 / 18 Zanim przejdziemy do omawiania pochodnych funkcji wielu zmiennych

Bardziej szczegółowo

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac:

SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ. Ewa Madalińska. na podstawie prac: SYSTEM DIAGNOSTYCZNY OPARTY NA LOGICE DOMNIEMAŃ Ewa Madalińska na podstawie prac: [1] Lukaszewicz,W. (1988) Considerations on Default Logic: An Alternative Approach. Computational Intelligence, 44[1],

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 29 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 31 marca 2014 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Wyk lad 7 Baza i wymiar przestrzeni liniowej

Wyk lad 7 Baza i wymiar przestrzeni liniowej Wyk lad 7 Baza i wymiar przestrzeni liniowej 1 Baza przestrzeni liniowej Niech V bedzie przestrzenia liniowa. Powiemy, że podzbiór X V jest maksymalnym zbiorem liniowo niezależnym, jeśli X jest zbiorem

Bardziej szczegółowo

Ekonomia matematyczna i dynamiczna optymalizacja

Ekonomia matematyczna i dynamiczna optymalizacja Ekonomia matematyczna i dynamiczna optymalizacja Ramy wyk ladu i podstawowe narz edzia matematyczne SGH Semestr letni 2012-13 Uk lady dynamiczne Rozwiazanie modelu dynamicznego bardzo czesto można zapisać

Bardziej szczegółowo

Sekwencyjne problemy decyzyjne

Sekwencyjne problemy decyzyjne Sekwencyjne problemy decyzyjne W sekwencyjnych problemach decyzyjnych użyteczność dzia lań agenta nie zależy od pojedynczej decyzji, wyrażonej stanem, do którego ta decyzja doprowadzi laby agenta, ale

Bardziej szczegółowo

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera

Wyk lad 7 Metoda eliminacji Gaussa. Wzory Cramera Wyk lad 7 Metoda eliminacji Gaussa Wzory Cramera Metoda eliminacji Gaussa Metoda eliminacji Gaussa polega na znalezieniu dla danego uk ladu a x + a 2 x 2 + + a n x n = b a 2 x + a 22 x 2 + + a 2n x n =

Bardziej szczegółowo

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera

Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Wyk lad 9 Podpierścienie, elementy odwracalne, dzielniki zera Określenie podpierścienia Definicja 9.. Podpierścieniem pierścienia (P, +,, 0, ) nazywamy taki podzbiór A P, który jest pierścieniem ze wzgledu

Bardziej szczegółowo

Sekwencyjne problemy decyzyjne

Sekwencyjne problemy decyzyjne Sekwencyjne problemy decyzyjne W sekwencyjnych problemach decyzyjnych użyteczność dzia lań agenta nie zależy od pojedynczej decyzji, wyrażonej stanem, do którego ta decyzja doprowadzi laby agenta, ale

Bardziej szczegółowo

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka

Zagadnienie Dualne Zadania Programowania Liniowego. Seminarium Szkoleniowe Edyta Mrówka Zagadnienie Dualne Zadania Programowania Liniowego Seminarium Szkoleniowe Edyta Mrówka Ogólne zagadnienie PL Znajdź taki wektor X = (x 1, x 2,..., x n ), który minimalizuje kombinacje liniow a przy ograniczeniach

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Temporal Difference learning Uczenie oparte na różnicach czasowych Problemy predykcyjne (wieloetapowe) droga do

Bardziej szczegółowo

Suma i przeciȩcie podprzestrzeń, suma prosta, przestrzeń ilorazowa Javier de Lucas

Suma i przeciȩcie podprzestrzeń, suma prosta, przestrzeń ilorazowa Javier de Lucas Suma i przeciȩcie podprzestrzeń suma prosta przestrzeń ilorazowa Javier de Lucas Ćwiczenie 1 W zależności od wartości parametru p podaj wymiar przestrzeni W = v 1 v v 3 gdzie p 0 v 1 = 1 + p 3 v = 5 3

Bardziej szczegółowo

Ekstrema funkcji wielu zmiennych.

Ekstrema funkcji wielu zmiennych. Ekstrema funkcji wielu zmiennych. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Ekstrema funkcji wielu zmiennych. kwiecień 2013 1 / 13 Niech dana b ¾edzie funkcja f (x, y) określona w pewnym otoczeniu punktu

Bardziej szczegółowo

Niech X bȩdzie dowolnym zbiorem. Dobry porz adek to relacja P X X (bȩdziemy pisać x y zamiast x, y P ) o w lasnościach:

Niech X bȩdzie dowolnym zbiorem. Dobry porz adek to relacja P X X (bȩdziemy pisać x y zamiast x, y P ) o w lasnościach: Teoria miary WPPT IIr semestr zimowy 2009 Wyk lad 4 Liczby kardynalne, indukcja pozaskończona DOBRY PORZA DEK 14/10/09 Niech X bȩdzie dowolnym zbiorem Dobry porz adek to relacja P X X (bȩdziemy pisać x

Bardziej szczegółowo

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach

(α + β) a = α a + β a α (a + b) = α a + α b (α β) a = α (β a). Definicja 4.1 Zbiór X z dzia laniami o wyżej wymienionych w lasnościach Rozdzia l 4 Przestrzenie liniowe 4.1 Przestrzenie i podprzestrzenie 4.1.1 Definicja i podstawowe w lasności Niech X z dzia laniem dodawania + b edzie grupa przemienna (abelowa). Oznaczmy przez 0 element

Bardziej szczegółowo

ANALIZA II 15 marca 2014 Semestr letni. Ćwiczenie 1. Czy dan a funkcjȩ da siȩ dookreślić w punkcie (0, 0) tak, żeby otrzymana funkcja by la ci ag la?

ANALIZA II 15 marca 2014 Semestr letni. Ćwiczenie 1. Czy dan a funkcjȩ da siȩ dookreślić w punkcie (0, 0) tak, żeby otrzymana funkcja by la ci ag la? Ci ag lość i norma Ćwiczenie. Czy dan a funkcjȩ da siȩ dookreślić w punkcie (0, 0) tak, żeby otrzymana funkcja by la ci ag la? f (x, y) = x2 y 2 x 2 + y 2, f 2(x, y) = x2 y x 2 + y 2 f 3 (x, y) = x2 y

Bardziej szczegółowo

Wyk lad 6 Podprzestrzenie przestrzeni liniowych

Wyk lad 6 Podprzestrzenie przestrzeni liniowych Wyk lad 6 Podprzestrzenie przestrzeni liniowych 1 Określenie podprzestrzeni Definicja 6.1. Niepusty podzbiór V 1 V nazywamy podprzestrzeni przestrzeni liniowej V, jeśli ma on nastepuj ace w lasności: (I)

Bardziej szczegółowo

Problemy Decyzyjne Markowa

Problemy Decyzyjne Markowa na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2015 na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki,

Bardziej szczegółowo

Liczby zespolone, liniowa zależność i bazy Javier de Lucas. a d b c. ad bc

Liczby zespolone, liniowa zależność i bazy Javier de Lucas. a d b c. ad bc Liczby zespolone, liniowa zależność i bazy Javier de Lucas Ćwiczenie. Dowieść, że jeśli µ := c d d c, to homografia h(x) = (ax+b)/(cx+d), a, b, c, d C, ad bc, odwzorowuje oś rzeczywist a R C na okr ag

Bardziej szczegółowo

Wyk lad 9 Baza i wymiar przestrzeni liniowej

Wyk lad 9 Baza i wymiar przestrzeni liniowej Wyk lad 9 Baza i wymiar przestrzeni liniowej 1 Operacje elementarne na uk ladach wektorów Niech α 1,..., α n bed dowolnymi wektorami przestrzeni liniowej V nad cia lem K. Wyróżniamy nastepuj ace operacje

Bardziej szczegółowo

Pierwsze kolokwium z Matematyki I 4. listopada 2013 r. J. de Lucas

Pierwsze kolokwium z Matematyki I 4. listopada 2013 r. J. de Lucas Pierwsze kolokwium z Matematyki I 4. listopada 03 r. J. de Lucas Uwagi organizacyjne: Każde zadanie rozwi azujemy na osobnej kartce, opatrzonej imieniem i nazwiskiem w lasnym oraz osoby prowadz acej ćwiczenia,

Bardziej szczegółowo

20PLN dla pierwszych 50 sztuk oraz 15PLN dla dalszych. Zysk ze sprzedaży biurka wynosi 40PLN dla pierwszych 20 sztuk oraz 50PLN dla dalszych.

20PLN dla pierwszych 50 sztuk oraz 15PLN dla dalszych. Zysk ze sprzedaży biurka wynosi 40PLN dla pierwszych 20 sztuk oraz 50PLN dla dalszych. Z1. Sformu lować model dla optymalnego planowania produkcji w nast epujacych warunkach: Wytwórca mebli potrzebuje określić, ile sto lów, krzese l i biurek powinien produkować, aby optymalnie wykorzystać

Bardziej szczegółowo

Indeks odwzorowania zmiennej zespolonej wzgl. krzywej zamknietej

Indeks odwzorowania zmiennej zespolonej wzgl. krzywej zamknietej Indeks odwzorowania zmiennej zespolonej wzgl edem krzywej zamkni etej 1. Liczby zespolone - konstrukcja Hamiltona 2. Homotopia odwzorowań na okr egu 3. Indeks odwzorowania ciag lego wzgledem krzywej zamknietej

Bardziej szczegółowo

Wyznaczniki, macierz odwrotna, równania macierzowe

Wyznaczniki, macierz odwrotna, równania macierzowe Wyznaczniki, macierz odwrotna, równania macierzowe Adam Kiersztyn Katolicki Uniwersytet Lubelski Jana Paw a II Lublin 013 Adam Kiersztyn (KUL) Wyznaczniki, macierz odwrotna, równania macierzowe marzec

Bardziej szczegółowo

Przestrzenie wektorowe, liniowa niezależność Javier de Lucas

Przestrzenie wektorowe, liniowa niezależność Javier de Lucas Przestrzenie wektorowe, liniowa niezależność Javier de Lucas Ćwiczenie 1. W literaturze można znaleźć pojȩcia przestrzeni liniowej i przestrzeni wektorowej. Obie rzeczy maj a tak a sam a znaczenie. Nastȩpuj

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja

Bardziej szczegółowo

P. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF

P. Urzyczyn: Materia ly do wyk ladu z semantyki. Uproszczony 1 j. ezyk PCF 29 kwietnia 2013, godzina 23: 56 strona 1 P. Urzyczyn: Materia ly do wyk ladu z semantyki Uproszczony 1 j ezyk PCF Sk ladnia: Poniżej Γ oznacza otoczenie typowe, czyli zbiór deklaracji postaci (x : τ).

Bardziej szczegółowo

Uczenie nienadzorowane

Uczenie nienadzorowane Uczenie nienadzorowane Nadzorowane, klasyfikacja: Nienadzorowane, analiza skupień (clustering): Zbiór uczacy: { (x 1 1,x1 2 ),c1, (x 2 1,x2 2 ),c2,... (x N 1,xN 2 ),cn } Zbiór uczacy: { (x 1 1,x1 2 ),

Bardziej szczegółowo

ci agi i szeregi funkcji Javier de Lucas Ćwiczenie 1. Zbadać zbieżność (punktow a i jednostajn a) ci agu funkcji nx 2 + x

ci agi i szeregi funkcji Javier de Lucas Ćwiczenie 1. Zbadać zbieżność (punktow a i jednostajn a) ci agu funkcji nx 2 + x ci agi i szeregi funkcji Javier de Lucas Ćwiczenie 1 Zbadać zbieżność (punktow a i jednostajn a) ci agu funkcji f n : [, [ x nx + x nx + 1, Rozwi azanie: Mówi siȩ, że ci ag funkcji f n zd aży punktowo

Bardziej szczegółowo

Wyk lad 9 Przekszta lcenia liniowe i ich zastosowania

Wyk lad 9 Przekszta lcenia liniowe i ich zastosowania Wyk lad 9 Przekszta lcenia liniowe i ich zastosowania 1 Przekszta lcenia liniowe i ich w lasności Definicja 9.1. Niech V i W bed przestrzeniami liniowymi. Przekszta lcenie f : V W spe lniajace warunki:

Bardziej szczegółowo

Po wprowadzeniu zmiennych uzupe lniaj acych otrzymamy równoważny mu problem w postaci kanonicznej:

Po wprowadzeniu zmiennych uzupe lniaj acych otrzymamy równoważny mu problem w postaci kanonicznej: ROZDZIA L Metoda sympleksowa Motto: Matematyka nie może wype lnić życia ale jej nieznajomość już niejednemu je wype lni la H Steinhaus Tablica sympleksowa Rozważmy ZPL w postaci klasycznej maksymalizować

Bardziej szczegółowo

Jak matematyka pomaga w wyszukiwanie wzorca

Jak matematyka pomaga w wyszukiwanie wzorca Jak matematyka pomaga w wyszukiwanie wzorca Artur Jeż 28 września 2011 Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 1 / 18 Wiek nauki Artur Jeż Matematyka i wyszukiwanie wzorca 28 IX 2011 2 /

Bardziej szczegółowo

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ

WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ WNIOSKOWANIE W MODELU REGRESJI LINIOWEJ Dana jest populacja generalna, w której dwuwymiarowa cecha (zmienna losowa) (X, Y ) ma pewien dwuwymiarowy rozk lad. Miara korelacji liniowej dla zmiennych (X, Y

Bardziej szczegółowo

Rozdzia l 10. Formy dwuliniowe i kwadratowe Formy dwuliniowe Definicja i przyk lady

Rozdzia l 10. Formy dwuliniowe i kwadratowe Formy dwuliniowe Definicja i przyk lady Rozdzia l 10 Formy dwuliniowe i kwadratowe 10.1 Formy dwuliniowe 10.1.1 Definicja i przyk lady Niech X K b edzie przestrzenia liniowa nad cia lem K, dim(x K ) = n. Definicja 10.1 Przekszta lcenie ϕ : X

Bardziej szczegółowo

Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym

Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym Sprowadzanie zadań sterowania optymalnego do zadań wariacyjnych metod a funkcji kary i mnożników Lagrange a - zadania sterowania optymalnego

Bardziej szczegółowo

Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym

Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym Mnożniki funkcyjne Lagrange a i funkcje kary w sterowaniu optymalnym Sprowadzanie zadań sterowania optymalnego do zadań wariacyjnych metod a funkcji kary i mnożników Lagrange a - zadania sterowania optymalnego

Bardziej szczegółowo

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL

1 Praktyczne metody wyznaczania podstawowych miar przy zastosowaniu programu EXCEL Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 9.03.2014-3 godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar

Bardziej szczegółowo

Analiza zrekonstruowanych śladów w danych pp 13 TeV

Analiza zrekonstruowanych śladów w danych pp 13 TeV Analiza zrekonstruowanych śladów w danych pp 13 TeV Odtwarzanie rozk ladów za pomoc a danych Monte Carlo Jakub Cholewiński, pod opiek a dr hab. Krzysztofa Woźniaka 31 lipca 2015 r. Jakub Cholewiński, pod

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 22 marca 2011 Przestrzeń statystyczna - podstawowe zadania statystyki Zdarzeniom losowym określonym na pewnej przestrzeni zdarzeń elementarnych Ω można zazwyczaj na wiele różnych sposobów przypisać jakieś

Bardziej szczegółowo

Aproksymacja kraw. Od wielu lokalnych cech (edge elements) do spójnej, jednowymiarowej. epnej aproksymacji

Aproksymacja kraw. Od wielu lokalnych cech (edge elements) do spójnej, jednowymiarowej. epnej aproksymacji Aproksymacja kraw edzi Od wielu lokalnych cech (edge elements) do spójnej, jednowymiarowej cechy (edge). Różne podejścia: szukanie w pobliżu wst epnej aproksymacji transformacja Hough a. Wiedza o obiektach:

Bardziej szczegółowo

Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie:

Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie: Spis treści 1 Uczenie ze wzmocnieniem 2 Proces decyzyjny Markowa 3 Jak wyznaczyć optymalną strategię? 3.1 Algorytm iteracji funkcji wartościującej 3.2 Algorytm iteracji strategii 4 Estymowanie modelu dla

Bardziej szczegółowo

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji

Bardziej szczegółowo

Niesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka

Niesimpleksowe metody rozwia zywania zadań PL. Seminarium Szkoleniowe Edyta Mrówka Niesimpleksowe metody rozwia zywania zadań PL Seminarium Szkoleniowe Metoda Simplex: wady i zalety Algorytm SIMPLEX jest szeroko znany i stosowany do rozwi azywania zadań programowania liniowego w praktyce.

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Suma i przeciȩcie podprzestrzeni, przestrzeń ilorazowa Javier de Lucas

Suma i przeciȩcie podprzestrzeni, przestrzeń ilorazowa Javier de Lucas Suma i przeciȩcie podprzestrzeni, przestrzeń ilorazowa Javier de Lucas Ćwiczenie 1. Dowieść, że jeśli U i V s a podprzestrzeniami n-wymiarowej przestrzeni wektorowej oraz dim U = r i dim V = s, to max(0,

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 10 marca 2014 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

POCHODNA KIERUNKOWA. DEFINICJA Jeśli istnieje granica lim. to granica ta nazywa siȩ pochodn a kierunkow a funkcji f(m) w kierunku osi l i oznaczamy

POCHODNA KIERUNKOWA. DEFINICJA Jeśli istnieje granica lim. to granica ta nazywa siȩ pochodn a kierunkow a funkcji f(m) w kierunku osi l i oznaczamy POCHODNA KIERUNKOWA Pochodne cz astkowe funkcji f(m) = f(x, y, z) wzglȩdem x, wzglȩdem y i wzglȩdem z wyrażaj a prȩdkość zmiany funkcji w kierunku osi wspó lrzȩdnych; np. f x jest prȩdkości a zmiany funkcji

Bardziej szczegółowo

WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3

WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 WYK LAD 5: GEOMETRIA ANALITYCZNA W R 3, PROSTA I P LASZCZYZNA W PRZESTRZENI R 3 Definicja 1 Przestrzenia R 3 nazywamy zbiór uporzadkowanych trójek (x, y, z), czyli R 3 = {(x, y, z) : x, y, z R} Przestrzeń

Bardziej szczegółowo

Wyk lad 4 Dzia lania na macierzach. Określenie wyznacznika

Wyk lad 4 Dzia lania na macierzach. Określenie wyznacznika Wyk lad 4 Dzia lania na macierzach Określenie wyznacznika 1 Określenie macierzy Niech K bedzie dowolnym cia lem oraz niech n i m bed a dowolnymi liczbami naturalnymi Prostokatn a tablice a 11 a 12 a 1n

Bardziej szczegółowo

y 1 y 2 = f 2 (t, y 1, y 2,..., y n )... y n = f n (t, y 1, y 2,..., y n ) f 1 (t, y 1, y 2,..., y n ) y = f(t, y),, f(t, y) =

y 1 y 2 = f 2 (t, y 1, y 2,..., y n )... y n = f n (t, y 1, y 2,..., y n ) f 1 (t, y 1, y 2,..., y n ) y = f(t, y),, f(t, y) = Uk lady równań różniczkowych Pojȩcia wsȩpne Uk ladem równań różniczkowych nazywamy uk lad posaci y = f (, y, y 2,, y n ) y 2 = f 2 (, y, y 2,, y n ) y n = f n (, y, y 2,, y n ) () funkcje f j, j =, 2,,

Bardziej szczegółowo

Sterowanie optymalne dla uk ladów nieliniowych. Zasada maksimum Pontriagina.

Sterowanie optymalne dla uk ladów nieliniowych. Zasada maksimum Pontriagina. Sterowanie optymalne dla uk ladów nieliniowych. Zasada maksimum Pontriagina. Podstawowy problem sterowania optymalnego dla uk ladów nieliniowych W podstawowym problemie sterowania optymalnego minimalizacji

Bardziej szczegółowo

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1

STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1 1 STYSTYSTYKA dla ZOM II dr inż Krzysztof Bryś Wykad 1 Klasyczny Rachunek Prawdopodobieństwa. 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany. Posiadamy

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Testowanie hipotez statystycznych Wyk lad 9 Natalia Nehrebecka Stanis law Cichocki 28 listopada 2018 Plan zaj eć 1 Rozk lad estymatora b 2 3 dla parametrów 4 Hipotezy l aczne - test F 5 Dodatkowe za lożenie

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 23 kwietnia 2014 Korelacja - wspó lczynnik korelacji 1 Gdy badamy różnego rodzaju rodzaju zjawiska (np. przyrodnicze) możemy stwierdzić, że na każde z nich ma wp lyw dzia lanie innych czynników; Korelacja

Bardziej szczegółowo

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x)

po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Stan czastki określa funkcja falowa Ψ zależna od wspó lrzȩdnych określaj acych po lożenie cz astki i od czasu (t). Dla cz astki, która może poruszać siȩ tylko w jednym wymiarze (tu x) Wartości funkcji

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu

Statystyka w analizie i planowaniu eksperymentu 21 marca 2011 Zmienna losowa - wst ep Przeprowadzane w praktyce badania i eksperymenty maja bardzo różnorodny charakter, niemniej jednak wiaż a sie one z rejestracja jakiś sygna lów (danych). Moga to być

Bardziej szczegółowo

1 Rekodowanie w podgrupach i obliczanie wartości w podgrupach

1 Rekodowanie w podgrupach i obliczanie wartości w podgrupach 1 Rekodowanie w podgrupach i obliczanie wartości w podgrupach Czasami chcemy rekodować jedynie cz ¾eść danych zawartych w pewnym zbiorze. W takim przypadku stosujemy rekodowanie z zastosowaniem warunku

Bardziej szczegółowo

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change Raport 4/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych

Bardziej szczegółowo

w teorii funkcji. Dwa s lynne problemy. Micha l Jasiczak

w teorii funkcji. Dwa s lynne problemy. Micha l Jasiczak Równania różniczkowe czastkowe w teorii funkcji. Dwa s lynne problemy. Micha l Jasiczak Horyzonty 2014 Podstawowy obiekt wyk ladu: funkcje holomorficzne wielu zmiennych Temat: dwa problemy, których znane

Bardziej szczegółowo

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 2 Tablice trwania życia

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 2 Tablice trwania życia Wst ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 2 Tablice trwania życia 1 Cele (na dzisiaj): Zrozumieć w jaki sposób można wyznaczyć przysz ly czas życia osoby w wieku x. Zrozumieć parametry

Bardziej szczegółowo

Jeden przyk lad... czyli dlaczego warto wybrać MIESI.

Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Jeden przyk lad... czyli dlaczego warto wybrać MIESI. Micha l Ramsza Szko la G lówna Handlowa Micha l Ramsza (Szko la G lówna Handlowa) Jeden przyk lad... czyli dlaczego warto wybrać MIESI. 1 / 13 Dlaczego

Bardziej szczegółowo

wykorzystywania analogii. Komputery natomiast maj a trudności z rozpoznawaniem odmiennych sytuacji,

wykorzystywania analogii. Komputery natomiast maj a trudności z rozpoznawaniem odmiennych sytuacji, Sztuczna inteligencja Mianem sztucznej inteligencji (ang. Artificial Intelligence AI) można określić dziedzin e wiedzy zajmuj ac a si e poszukiwaniem technik rozwi azywania i ich formalnym sformu lowaniem

Bardziej szczegółowo

1 Praktyczne metody wyznaczania podstawowych miar bez zastosowania komputerów

1 Praktyczne metody wyznaczania podstawowych miar bez zastosowania komputerów Kurs w zakresie zaawansowanych metod komputerowej analizy danych Podstawy statystycznej analizy danych 8.03.014 - godziny ćwiczeń autor: Adam Kiersztyn 1 Praktyczne metody wyznaczania podstawowych miar

Bardziej szczegółowo

Wyk lad 3 Wielomiany i u lamki proste

Wyk lad 3 Wielomiany i u lamki proste Wyk lad 3 Wielomiany i u lamki proste 1 Konstrukcja pierścienia wielomianów Niech P bedzie dowolnym pierścieniem, w którym 0 1. Oznaczmy przez P [x] zbiór wszystkich nieskończonych ciagów o wszystkich

Bardziej szczegółowo

CHEMIA KWANTOWA MONIKA MUSIA L METODA HÜCKLA. Ćwiczenia. http://zcht.mfc.us.edu.pl/ mm

CHEMIA KWANTOWA MONIKA MUSIA L METODA HÜCKLA. Ćwiczenia. http://zcht.mfc.us.edu.pl/ mm CHEMIA KWANTOWA MONIKA MUSIA L METODA HÜCKLA Ćwiczenia Zwi azki organiczne zawieraj ace uk lady π-elektronowe Sprzȩżony uk lad wi azań podwójnych: -C=C-C=C-C=C-C=C- Skumulowany uk lad wi azań podwójnych:

Bardziej szczegółowo

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 3 Tablice trwania życia 2

ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 3 Tablice trwania życia 2 Wst ep do matematyki aktuarialnej Micha l Jasiczak Wyk lad 3 Tablice trwania życia 2 1 Przypomnienie Jesteśmy już w stanie wyznaczyć tp x = l x+t l x, gdzie l x, l x+t, to liczebności kohorty odpowiednio

Bardziej szczegółowo

Paradygmaty programowania. Paradygmaty programowania

Paradygmaty programowania. Paradygmaty programowania Paradygmaty programowania Paradygmaty programowania Dr inż. Andrzej Grosser Cz estochowa, 2013 2 Spis treści 1. Zadanie 2 5 1.1. Wprowadzenie.................................. 5 1.2. Wskazówki do zadania..............................

Bardziej szczegółowo

Wprowadzenie do równań ró znicowych i ró zniczkowych.

Wprowadzenie do równań ró znicowych i ró zniczkowych. Wprowadzenie do równań ró znicowych i ró zniczkowych. Adam Kiersztyn Lublin 2013 Adam Kiersztyn () Wprowadzenie do równań ró znicowych i ró zniczkowych. maj 2013 1 / 11 Przyjmijmy nast ¾epuj ¾ace oznaczenia:

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

Pisemny egzamin dyplomowy. na Uniwersytecie Wroc lawskim. na kierunku matematyka. zadania testowe. 22czerwca2009r. 60 HS-8-8

Pisemny egzamin dyplomowy. na Uniwersytecie Wroc lawskim. na kierunku matematyka. zadania testowe. 22czerwca2009r. 60 HS-8-8 EGZAMIN DYPLOMOWY, cze ść I (testowa) 22.06.2009 INSTRUKCJE DOTYCZA CE WYPE LNIANIA TESTU 1. Nie wolno korzystać z kalkulatorów. 2. Sprawdzić, czy wersja testu podana na treści zadań jest zgodna z wersja

Bardziej szczegółowo

z n n=1 S n nazywamy sum a szeregu. Szereg, który nie jest zbieżny, nazywamy rozbieżnym. n=1

z n n=1 S n nazywamy sum a szeregu. Szereg, który nie jest zbieżny, nazywamy rozbieżnym. n=1 3 Szeregi zespolone 3. Szeregi liczbowe Mówimy, że szereg o wyrazach zespolonych jest zbieżny, jeżeli ci ag jego sum czȩściowych {S n }, gdzie S n = z + z +... + jest zbieżny do granicy w laściwej. Granicȩ

Bardziej szczegółowo

Statystyka w analizie i planowaniu eksperymentu lista nr 7

Statystyka w analizie i planowaniu eksperymentu lista nr 7 Statystyka w analizie i planowaniu eksperymentu lista nr 7 1 B l edy pomiaru Wskutek niedoskona lości przyrzadów jak również niedoskona lości naszych zmys lów - wszystkie pomiary sa dokonywane z określonym

Bardziej szczegółowo

Matematyka A, klasówka, 24 maja zania zadań z kolokwium z matematyki A w nadziei, że pope lni lem wielu b le. rozwia

Matematyka A, klasówka, 24 maja zania zadań z kolokwium z matematyki A w nadziei, że pope lni lem wielu b le. rozwia Matematyka A, klasówka, 4 maja 5 Na prośbe jednej ze studentek podaje zania zadań z kolokwium z matematyki A w nadziei, że pope lni lem wielu b le dów Podać definicje wektora w lasnego i wartości w lasnej

Bardziej szczegółowo

Cia la i wielomiany Javier de Lucas

Cia la i wielomiany Javier de Lucas Cia la i wielomiany Javier de Lucas Ćwiczenie 1. Za lóż, że (F, +,, 1, 0) jest cia lem i α, β F. w laściwości s a prawd a? Które z nastȩpuj acych 1. 0 α = 0. 2. ( 1) α = α. 3. Każdy element zbioru F ma

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA

STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA 1 STATYSTYKA MATEMATYCZNA dla ZPM I dr inż Krzysztof Bryś wyk lad 1,2 KLASYCZNY RACHUNEK PRAWDOPODOBIEŃSTWA 1. Pojȩcia wstȩpne. Doświadczeniem losowym nazywamy doświadczenie, którego wynik nie jest znany.

Bardziej szczegółowo

Wyk ad II. Stacjonarne szeregi czasowe.

Wyk ad II. Stacjonarne szeregi czasowe. Wyk ad II. Stacjonarne szeregi czasowe. W wi ekszości przypadków poszukiwanie modelu, który dok adnie by opisywa zachowanie sk adnika losowego " t, polega na analizie pewnej klasy losowych ciagów czasowych

Bardziej szczegółowo

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie:

Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: Ciągi rekurencyjne Zadanie 1 Znaleźć wzór ogólny i zbadać istnienie granicy ciągu określonego rekurencyjnie: w dwóch przypadkach: dla i, oraz dla i. Wskazówka Należy poszukiwać rozwiązania w postaci, gdzie

Bardziej szczegółowo

EXCEL Prowadzący: dr hab. inż. Marek Jaszczur Poziom: początkujący

EXCEL Prowadzący: dr hab. inż. Marek Jaszczur Poziom: początkujący EXCEL Prowadzący: dr hab. inż. Marek Jaszczur Poziom: początkujący Laboratorium 3: Macierze i wykresy Cel: wykonywanie obliczeń na wektorach i macierzach, wykonywanie wykresów Czas wprowadzenia 25 minut,

Bardziej szczegółowo

Programowanie generyczne w C++

Programowanie generyczne w C++ Bardzo szablonowa prezentacja Zak lad Metod Obliczeniowych Chemii UJ 1 wrzesnia 2005 1 2 3 4 Co to jest? Przyk lad Zastosowania 5 S lowniczek Plan Programowanie generyczne Polega na mo_zliwosci deniowania

Bardziej szczegółowo

Zadania. kwiecień 2009. Ćwiczenia III. Zadanie 1. Uk lad A o energii E A skontaktowano termicznie z uk ladem B o energii E B.

Zadania. kwiecień 2009. Ćwiczenia III. Zadanie 1. Uk lad A o energii E A skontaktowano termicznie z uk ladem B o energii E B. kwiecień 009 Ćwiczenia III Zadania Zadanie 1 Uk lad A o energii E A skontaktowano termicznie z uk ladem B o energii E B Udowodnić że jeżeli ln Ω A (E A < ln Ω B(E B E A E B to energia przep lynie z uk

Bardziej szczegółowo

Metody oceny opãlacalno sci inwestycji

Metody oceny opãlacalno sci inwestycji Metody oceny opãlacalno sci inwestycji Podstawowym warunkiem sukcesu rmy jest jej rozw oj. Do rozwoju rmy konieczne s a, wãla sciwe decyzje inwestycyjne. Jednymi z najwa_zniejszych s a, inwestycje polegaj

Bardziej szczegółowo

CHEMIA KWANTOWA MONIKA MUSIA L. Ćwiczenia. mm

CHEMIA KWANTOWA MONIKA MUSIA L. Ćwiczenia.   mm CHEMIA KWANTOWA MONIKA MUSIA L Ćwiczenia METODY PRZYBLIŻONE ROZWIA ZYWANIA RÓWNANIA SCHRÖDINGERA METODA WARIACYJNA metoda wariacyjna ĤΨ n = E n Ψ n Ψ n ortonormalne Szukamy rozwi azań dla stanu podstawowego,

Bardziej szczegółowo