Uczenie ze wzmocnieniem
|
|
- Zofia Andrzejewska
- 6 lat temu
- Przeglądów:
Transkrypt
1 Uczenie ze wzmocnieniem Na podstawie: AIMA ch2 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 20 listopada 203
2 Problem decyzyjny Markova START
3 MDP bez modelu przejść P(s s, a) START 0.?? ? Jak się nazywa takie środowisko? [zadanie ]
4 MDP bez funkcji nagrody R(s) 3???? 2??? START???
5 MDP bez f. nagrody i bez modelu przejść 3???? 2??? START??? 0.?? ? 2 3 4
6 Wstęp Uczenie Pasywne Uczenie aktywne Uczenie ze wzmocnieniem Problem uczenia ze wzmocnieniem = MDP bez modelu przejść i bez funkcji nagrody = nieznany MDP Agent (gracz) musi nauczyć się: 2 czy ruch jest dobry czy zły dokąd prowadzą jego akcje (model przejść) przewidywać ruchy przeciwnika
7 Wzmocnienie Bez żadnej informacji ze środowiska agent nie ma podstaw, aby decydować, który jaki ruch wykonać Musi wiedzieć, że coś dobrego się stało, gdy zaszachował przeciwnika nagroda (reward), wzmocnienie (reinforcement) Wzmocnienie: W szachach tylko na końcu gry. W ping pongu: za każde odbicie W nauce pływania za przesuwanie się do przodu Cel: optymalna polityka
8 Aplikacje i przykłady W wielu domenach RL jest jedyną drogą, np. gry (kary/nagrody za wygraną/przegraną) kontroler helikoptera (kary/nagrody za rozbicie się/chybotanie się/nietrzymanie kierunku) Robot uczący się ruchu:
9 Podejścia do RL Równanie Bellman a: Trzy podejścia do RL: U(s) = R(s) + γ max U(s )P(s s, a) a A s agent odruchowy (ang. direct policy search) Uczy się polityki π : S A 2 agent z funkcją użyteczności uczy się f. użyteczności U(s) i używa jej, aby wybierać akcje, które maksymalizują wartość oczekiwaną nagród 3 agent z funkcją Q Uczy się funkcji Q(s, a), która zwraca oczekiwaną użyteczność podjęcia danej akcji w danym stanie Który agent potrzebuje modelu świata?[zadanie 2]
10 Typy uczenia ze wzmocnieniem Typy uczenia ze wzmocnieniem: pasywne. Polityka π jest dana. Uczymy się tylko użyteczności stanów funkcja U (lub par: (stan, akcja): funkcja Q) aktywne. Musimy również nauczyć się polityki ( co mam robić? ) Eksploracja
11 Pasywne uczenie ze wzmocnieniem Znane: Środowisko całkowicie obserwowalne polityka π (agent w stanie s wykonuje akcję π(s)) Nieznane: model przejść P(s s, a). funkcja nagrody R(s) Cel: Jak dobra jest ta polityka? znaleźć wartości funkcji użyteczności U π (s).
12 Pasywne uczenie ze wzmocnieniem (c.d) Jak policzyć użyteczność polityki? Czy wystarczy skorzystać z rekurencyjnego wzoru, który już widzieliśmy (gdzie? [zadanie 3] )? U π (s) = R(s) + γ s U π (s )P(s s, π(s))
13 Pasywne uczenie ze wzmocnieniem (c.d) Agent wykonuje serię eksperymentów (ang. trial) używając polityki π. Przykładowe eksperymenty (zebrane doświadczenie): (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (4, 3) + 2 (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (3, 2) 0.04 (3, 3) 0.04 (4, 3) + 3 (, ) 0.04 (2, ) 0.04 (3, ) 0.04 (3, 2) 0.04 (4, 2)
14 Pasywne uczenie ze wzmocnieniem (c.d) gdzie: Czyli: (Przypomnienie) użyteczność polityki w stanie s jest zdefiniowana jako: [ ] U π (s) = E γ t R(S t ), t=0 S t zmienna losowa w czasie t jestem w danym stanie γ współczynnik dyskontowy (przyjmiemy ) Użyteczność stanu = oczekiwana całkowita nagroda z tego stanu dalej (oczekiwana reward-to-go).
15 Algorytm: Bezpośrednia estymacja użyteczności (Widrow and Hoff, 960) Zauważmy: Próbka daje informację o reward-to-go dla danego stanu Wiele próbek estymacja U π (s) dla każdego stanu Przykład: (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (4, 3) + 2 (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (3, 2) 0.04 (3, 3) 0.04 (4, 3) + 3 (, ) 0.04 (2, ) 0.04 (3, ) 0.04 (3, 2) 0.04 (4, 2) Dla (3, 3) mamy próbki, czyli U π (3, 3) = ( )/ Ile jest próbek i jakie mają wartości dla (, 3)? [zadanie 4]
16 Bezpośrednia estymacja użyteczności (c.d.) Bezpośrednia estymacja użyteczności: sprowadza problem (pasywgnego) RL do problemu uczenia nadzorowanego: stan: nagroda Nie uwzględnia informacji o zależnościach pomiędzy stanami. Użyteczności sąsiednich stanów nie są niezależne! Użyteczność stanu = nagroda w tym stanie + oczekiwana użyteczność jego następników, czyli: U π (s) = R(s) + γ s U π (s )P(s s, π(s)) Stracona okazja do nauki algorytm wolno zbiega.
17 Algorytm: Adaptatywne Programowanie Dynamiczne (ADP) Bierze pod uwagę zależności pomiędzy użytecznościami stanów. Bezpośrednio uczy się: modelu przejść P(s s, a) funkcji nagrody R(s)
18 Algorytm: Adaptatywne Programowanie Dynamiczne Agent ze stanu s wykonał akcję π[s] =a. dotarł do stanu s i otrzymał nagrodę r. procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U Policy-Evaluation (π, P, U) return π[s ] Policy-Evaluation: układ równań lub iteracyjnie.
19 ADP Przykład Przykład: (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (4, 3) + 2 (, ) 0.04 (, 2) 0.04 (, 3) 0.04 (2, 3) 0.04 (3, 3) 0.04 (3, 2) 0.04 (3, 3) 0.04 (4, 3) + 3 (, ) 0.04 (2, ) 0.04 (3, ) 0.04 (3, 2) 0.04 (4, 2) Wykonaj ADP[zadanie 5] : R((, 3)) =? R((4, )) =? P((, 3) (, 2), góra) =? P((, 3) (, 2), dó l) =? P((2, 3) (, 3), prawo) =?
20 ADP wykresy Utility estimates (4,3) (3,3) (,3) (,) (3,2) RMS error in utility Number of trials Number of trials Uwagi: ADP implementuje ideę Oszacowania Maksymalnego Prawdopodobieństwa (Maximum Likelihood Estimation) Znajduje najbardziej prawdopodobny model (najlepiej pasujący do danych) ADP zbiega całkiem szybko (jest tylko ograniczony tym jak szybko potrafi nauczyć się modelu przejść). Policy-Evaluation jest dość wolne.
21 Uczenie różnicowe (TDL) ang. temporal difference (TD) learning (TDL) Pomysł: Użyj obserwacji (s a s ), aby zmodyfikować bezpośrednio użyteczności stanów, tak aby one współgrały z ograniczeniami. Przykład: Załóżmy, że U π (, 3) = 0.84 i U π (2, 3) = Obserwacja: (, 3) góra (2, 3). Jeżeli to przejście zawsze ma miejsce, to oczekiwalibyśmy, że U π (, 3) = γu π (2, 3) = 0.90 Wniosek: U π (, 3) = 0.84 jest za małe o = 0.06 Zwiększmy je trochę (α = 0.0), tzn. U π (, 3) = U π (, 3) + α0.06 = 0.846
22 Uczenie różnicowe (TDL) ogólnie Próbka: s a s i nagroda w stanie s to R(s). Początkowo U π (s) Oczekujemy, że U π (s) = R(s) + γu π (s ) Modyfikujemy U π (s) o ważoną (α) różnicę pomiędzy oczekiwanym U π a starym U π. Różnica: = U π (s) U π (s) Nowe U π (s): Uczenie różnicowe U π (s) = U π (s) + α U π (s) U π (s) + α ( R(s) + γu π (s ) U π (s) ) α współczynnik uczenia
23 Uczenie różnicowe (TDL) procedure passive-td(s, a, s, r ) if s jest nowym stanem then U[s ] r Uwagi: U[s] U[s] + α(r[s] + γu[s ] U[s]) return π[s ] Aktualizacja U[s] nie uwzględnia akcji dostępnych i modelu przejść, ale to się uśredni się. TDL nie potrzebuje modelu przejść, aby uaktualniać użyteczności stanów (rodzina metod model-free). jeżeli α w odpowiedni sposób zmniejsza się w czasie, to TDL gwarantuje zbieżność do optimum globalnego.
24 Uczenie różnicowe algorytm Utility estimates (4,3) (3,3) (,3) (,) (2,) RMS error in utility Number of trials Number of trials Uwagi: TD potrzebuje więcej obserwacji niż ADP i ma spore wahania, ale: TD jest prostszy i potrzebuje mniej obliczeń na obserwację
25 TD vs. ADP TD i ADP są podobne: oba dokonują lokalnych zmian, po to, aby użyteczność stanu z jego następnikami zgadzały się. Różnica : TD bierze pod uwagę tylko jednego następnika ADP bierze pod uwagę wszystkich następników (waży ich prawdopodobieństwami) Różnica 2: TD zmienia tylko jedną wartość użyteczności na obserwację ADP zmienia użyteczności tylu stanów, ile potrzeba, aby równania się zgadzały = TD można traktować jako aproksymację ADP. Z p. widzenia TD, ADP używa pseudodoświadczenia wygenerowanego na podstawie aktualnej wiedzy o środowisku.
26 TD vs. ADP c.d. Stąd: możliwe są rozwiązania pośrednie: np. TD, który generuje pewne pseudodoświadczenia (czyli aktualizuje więcej użyteczności stanów) lub ADP, który nie aktualizuje wszystkich użyteczności Prioritized sweeping (Moore i Atkeson, 993) aktualizuj użyteczności tylko niektórych stanów (tych, które prawd. najbardziej tego wymagają) Sens: skoro i tak model nie jest poprawny, to po co dokładnie liczyć użyteczności?
27 Aktywne uczenie ze wzmocnieniem START Polityka π jest nieznana.
28 ADP (przypomnienie) procedure passive-adp(s, a, s, r ) if s jest nowym stanem then U[s ] r ; R[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U Policy-Evaluation (π, P, U) return π[s ]
29 ADP dla uczenia aktywnego Jak zmodyfikować ADP? Musimy nauczyć się całego modelu przejść, a nie tylko przejść określonych przez π. ADP sobie poradzi 2 Agent nie ma danej polityki, więc Policy-Evaluation musi skorzystać z pełnego wzoru Bellman a: U(s) = R(s) + γmax a s P(s s, a)u(s ) Można użyć Iteracji Wartości (albo Iteracji Polityki) 3 Jaką akcję powinien wybierać w każdym kroku?
30 Eksploracja RMS error, policy loss RMS error Policy loss Number of trials Agent zachłanny utknął. Powód: model świata, dla którego wyznaczył optymalna politykę nie jest modelem prawdziwym. Akcje służą: Osiąganiu nagród (eksploatacja) Ulepszaniu modelu środowiska (eksploracja) Czysta eksploatacja = ryzyko wpadnięcia w rutynę W każdym kroku decyzja: eksploracja czy eksploatacja?
31 Problem wielorękiego bandyty Czy istnieje optymalna metoda eksploracji? co to znaczy optymalny? n automatów do gry. gra możliwa wypłata próbować inne automaty czy eksploatować ten, który daje rozsądne wyniki? oczekiwana wartość dla wszystkich możliwych światów (P(s s, a)) jest najlepsza
32 Gittins index rozwiązania są zwykle obliczeniowo bardzo trudne ( statystyczna teoria decyzji) jeśli wypłaty są niezależne od siebie i są dyskontowane w czasie, to rozwiązaniem jest Gittins index. Określa jak wartościowy jest wybór danej maszyny Dla sekwencyjnych problemów decyzyjnych Gittins indeks nie działa
33 Metoda ɛ-zachłanna Rozwiązanie rozsądne zapewniają, że każda akcja z każdego stanu jest wykonywana nieograniczoną liczbę razy. = gwarancja, że użyteczność U(s) zbiegnie w granicy do prawdziwej użyteczności stanów. Prostym przykładem jest metoda ɛ-zachłanna: z prawd. ɛ użyj optymalnej (zachłannej) akcji z prawd. ɛ użyj losowej akcji
34 Ciekawość i optymistyczna f. użyteczności Powyższe się zbiegnie, ale jest wolne. Lepiej w praktyce: użyj prostej funkcji eksploracji i optymistycznej wersji f. użyteczności np: ( ) U + (s) R(s) + γmax a f P(s s, a)u + (s ), N(s, a), s gdzie funkcja eksploracji waży użyteczność stanu i ciekawość (niewiedzę) { R + n < N e f (u, n) = u w przeciwnym wypadku R + optymistyczna nagroda (np. R + = max s R(s)) N e stała
35 Aktywny ADP z f. eksploracji (R + = 2, N e = 5) Utility estimates (,) (,2) (,3) (2,3) (3,2) (3,3) (4,3) Number of trials RMS error, policy loss RMS error Policy loss Number of trials
36 Aktywne TD Jak pasywne, ale: Musimy uczyć się modelu P(s s, a) tak jak ADP Potrzebna jakaś funkcja eksploracji do wyboru akcji. procedure active-td(s, a, r, s, r ) if s is new then U[s ] r N[s, a] N[s, a] + M[s, s, a] M[s, s, a] + for w in znane następniki stanu s (tzn. M[w, s, a] > 0) do P(w s, a) M[w, s, a]/n[s, a] U[s] U[s] + α(r + γu[s ] U[s]) return argmax a f (R(t) + γ w P(w s, a )U[w], N[w, a ])
37 Q-Learning (Watkins, 989) Zamiast U(s) uczymy się funkcji Q(s, a) użyteczność wykonania akcji a w stanie s. Zależność: U(s) = max a Q(s, a) Istotna zaleta: Nie trzeba uczyć się modelu przejść P(s s, a)! (metoda model-free) Ograniczenia do spełnienia: Q(s, a) = R(s) + γ s P(s s, a)max a Q(s, a ) Moglibyśmy użyć tego bezpośrednio konieczna nauka modelu przejść
38 Q-Learning Mamy przejście s a s z nagrodą r. Znamy aktualne wartości Q(s, a) oraz Q(s, a ) dla wszystkich a A(s). Oczekujemy, że spełnione będzie równanie: Q (s, a) = R(s) + γmax a Q(s, a ) Skoro jednak nie jest spełnione, to modyfikujemy Q(s, a) w stronę Q (s, a) Reguła modyfikacji Q-Learning Analogicznie jak w TD otrzymujemy Q(s, a) Q(s, a) + α ( R(s) + γmax a Q(s, a ) Q(s, a) ) Przykład [zadanie 6]
39 (TD) Q-Learning algorytm procedure active-td(s, a, r, s, r ) if s jest stanem terminalnym then Q[s, None] r N[s, a] N[s, a] + Q[s, a] Q[s, a] + α (r + γmax a Q[s, a ] Q[s, a]) return argmax a f (Q[s, a ], N[s, a ])
Uczenie ze wzmocnieniem
Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 5 maja 04 3 START 3
Uczenie ze wzmocnieniem
Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06 Na podstawie: AIMA ch Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 6 maja 06 3 START 3
Uczenie ze wzmocnieniem aplikacje
Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 22 maja 2013 Problem decyzyjny Markova
Uczenie ze wzmocnieniem aplikacje
Uczenie ze wzmocnieniem aplikacje Na podstawie: AIMA ch21 oraz Reinforcement Learning (Sutton i Barto) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 23 maja 2014 Problem decyzyjny Markova
Problemy Decyzyjne Markowa
Problemy Decyzyjne Markowa na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2013 Sekwencyjne problemy decyzyjne Cechy sekwencyjnego
Problemy Decyzyjne Markowa
na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 kwietnia 2015 na podstawie AIMA ch17 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki,
SPOTKANIE 11: Reinforcement learning
Wrocław University of Technology SPOTKANIE 11: Reinforcement learning Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.edu.pl 19.01.2016 Uczenie z nadzorem (ang. supervised learning)
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Temporal Difference learning Uczenie oparte na różnicach czasowych Problemy predykcyjne (wieloetapowe) droga do
Optymalizacja. Przeszukiwanie lokalne
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Idea sąsiedztwa Definicja sąsiedztwa x S zbiór N(x) S rozwiązań, które leżą blisko rozwiązania x
Aby mówić o procesie decyzyjnym Markowa musimy zdefiniować następujący zestaw (krotkę): gdzie:
Spis treści 1 Uczenie ze wzmocnieniem 2 Proces decyzyjny Markowa 3 Jak wyznaczyć optymalną strategię? 3.1 Algorytm iteracji funkcji wartościującej 3.2 Algorytm iteracji strategii 4 Estymowanie modelu dla
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 O projekcie nr 2 roboty (samochody, odkurzacze, drony,...) gry planszowe, sterowanie (optymalizacja; windy,..) optymalizacja
Uczenie si e ze wzmocnieniem
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
Uczenie si e ze wzmocnieniem
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
Uczenie si e ze wzmocnieniem wst ep 1 Uczenie si e ze wzmocnieniem wst ep 2. Agent wykonuje przebiegi uczace
Uczenie sie ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalajace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyjatkiem gdy osiagnie on stan docelowy.
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec
Systemy agentowe Uczenie ze wzmocnieniem Jędrzej Potoniec Uczenie ze wzmocnieniem (ang. Reinforcement learning) dane Środowisko, w którym można wykonywać pewne akcje, które są nagradzane lub karane, ale
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Uczenie ze wzmocnieniem
Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Przypomnienia (1) Do tych czas: stan X t u, gdzie u cel aktualizacji: MC : X t G t TD(0) : X y R t+1 + γˆv(x t,
Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
Schemat programowania dynamicznego (ang. dynamic programming)
Schemat programowania dynamicznego (ang. dynamic programming) Jest jedną z metod rozwiązywania problemów optymalizacyjnych. Jej twórcą (1957) był amerykański matematyk Richard Ernest Bellman. Schemat ten
RÓWNANIA NIELINIOWE Maciej Patan
RÓWNANIA NIELINIOWE Maciej Patan Uniwersytet Zielonogórski Przykład 1 Prędkość v spadającego spadochroniarza wyraża się zależnością v = mg ( 1 e c t) m c gdzie g = 9.81 m/s 2. Dla współczynnika oporu c
B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.
Wybrane podstawowe rodzaje algorytmów
Wybrane podstawowe rodzaje algorytmów Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii informatycznych
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
Optymalizacja. Symulowane wyżarzanie
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Maciej Hapke Wyżarzanie wzrost temperatury gorącej kąpieli do takiej wartości, w której ciało stałe topnieje powolne
ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH
Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym
W rozpatrywanym tu przyk ladowym zagadnieniu 4x3 b edziemy przyjmować. Uczenie si e ze wzmocnieniem pasywne 3. γ = 1.
Uczenie si e ze wzmocnieniem W wielu dziedzinach trudno jest sformu lować precyzyjne funkcje oceny, pozwalaj ace agentowi ocenić skuteczność, lub poprawność jego akcji, z wyj atkiem gdy osi agnie on stan
Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2
Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.
Algorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Wprowadzenie Metoda bisekcji Metoda regula falsi Metoda siecznych Metoda stycznych RÓWNANIA NIELINIOWE
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Zazwyczaj nie można znaleźć
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I
Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje:
Programowanie dynamiczne
Programowanie dynamiczne Patryk Żywica 5 maja 2008 1 Spis treści 1 Problem wydawania reszty 3 1.1 Sformułowanie problemu...................... 3 1.2 Algorytm.............................. 3 1.2.1 Prosty
Kurs z NetLogo - część 4.
Kurs z NetLogo - część 4. Mateusz Zawisza Zakład Wspomagania i Analizy Decyzji Instytut Ekonometrii Szkoła Główna Handlowa Seminarium Wieloagentowe Warszawa, 10.01.2011 Agenda spotkań z NetLogo 15. listopada
Optymalizacja. Wybrane algorytmy
dr hab. inż. Instytut Informatyki Politechnika Poznańska www.cs.put.poznan.pl/mkomosinski, Andrzej Jaszkiewicz Problem optymalizacji kombinatorycznej Problem optymalizacji kombinatorycznej jest problemem
1 S t r o n a. Teoria Gier Praca domowa 1 - rozwiązania
1 S t r o n a Teoria Gier Praca domowa 1 - rozwiązania Zadanie 1 Gdy korzystamy z toalet publicznych dominującą strategią jest: nie sprzątać po sobie. Skorzystanie z toalety przynosi dodatnią wypłatę,
Optymalizacja ciągła
Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1
Algorytmy estymacji stanu (filtry)
Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014 Problem lokalizacji Obserwowalność? Determinizm?
Partition Search i gry z niezupełną informacją
MIMUW 21 stycznia 2010 1 Co to jest gra? Proste algorytmy 2 Pomysł Algorytm Przykład użycia 3 Monte Carlo Inne spojrzenie Definicja Co to jest gra? Proste algorytmy Grą o wartościach w przedziale [0, 1]
Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa
Systemy uczace się 2009 1 / 32 Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa Hung Son Nguyen Wydział Matematyki, Informatyki i Mechaniki Uniwersytet Warszawski email: son@mimuw.edu.pl Grudzień
METODA SYMPLEKS. Maciej Patan. Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski
METODA SYMPLEKS Maciej Patan Uniwersytet Zielonogórski WSTĘP Algorytm Sympleks najpotężniejsza metoda rozwiązywania programów liniowych Metoda generuje ciąg dopuszczalnych rozwiązań x k w taki sposób,
OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak
OpenAI Gym Adam Szczepaniak, Kamil Walkowiak Plan prezentacji Programowanie agentowe Uczenie przez wzmacnianie i problemy związane z rozwojem algorytmów Charakterystyka OpenAI Gym Biblioteka gym Podsumowanie
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Sztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm F-LEM1 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm F LEM 1. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu F LEM1
Elementy modelowania matematycznego
Elementy modelowania matematycznego Łańcuchy Markowa: zagadnienia graniczne. Ukryte modele Markowa. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ KLASYFIKACJA STANÓW Stan i jest osiągalny
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Programowanie dynamiczne i algorytmy zachłanne
Programowanie dynamiczne i algorytmy zachłanne Tomasz Głowacki tglowacki@cs.put.poznan.pl Zajęcia finansowane z projektu "Rozwój i doskonalenie kształcenia na Politechnice Poznańskiej w zakresie technologii
Pochodna i różniczka funkcji oraz jej zastosowanie do obliczania niepewności pomiarowych
Pochodna i różniczka unkcji oraz jej zastosowanie do obliczania niepewności pomiarowych Krzyszto Rębilas DEFINICJA POCHODNEJ Pochodna unkcji () w punkcie określona jest jako granica: lim 0 Oznaczamy ją
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ
ZADANIA OPTYMALIZCJI BEZ OGRANICZEŃ Maciej Patan Uniwersytet Zielonogórski WSTEP Zadanie minimalizacji bez ograniczeń f(ˆx) = min x R nf(x) f : R n R funkcja ograniczona z dołu Algorytm rozwiazywania Rekurencyjny
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Wykład 7 i 8. Przeszukiwanie z adwersarzem. w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach
(4g) Wykład 7 i 8 w oparciu o: S. Russel, P. Norvig. Artificial Intelligence. A Modern Approach P. Kobylański Wprowadzenie do Sztucznej Inteligencji 177 / 226 (4g) gry optymalne decyzje w grach algorytm
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova
Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova M. Czoków, J. Piersa 2010-12-21 1 Definicja Własności Losowanie z rozkładu dyskretnego 2 3 Łańcuch Markova Definicja Własności Losowanie z rozkładu
Metody probabilistyczne
Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy
Obliczenia iteracyjne
Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej
Dokąd on zmierza? Przemieszczenie i prędkość jako wektory
A: 1 OK Muszę to powtórzyć... Potrzebuję pomocy Dokąd on zmierza? Przemieszczenie i prędkość jako wektory Łódź żegluje po morzu... Płynie z szybkością 10 węzłów (węzeł to 1 mila morska na godzinę czyli
1 Równania nieliniowe
1 Równania nieliniowe 1.1 Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym jest numeryczne poszukiwanie rozwiązań równań nieliniowych, np. algebraicznych (wielomiany),
Elementy inteligencji obliczeniowej
Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych
Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie
Rozwiązywanie równań nieliniowych
Rozwiązywanie równań nieliniowych Marcin Orchel 1 Wstęp Przykłady wyznaczania miejsc zerowych funkcji f : f(ξ) = 0. Wyszukiwanie miejsc zerowych wielomianu n-tego stopnia. Wymiar tej przestrzeni wektorowej
Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11
Modele DSGE Jerzy Mycielski Maj 2008 Jerzy Mycielski () Modele DSGE Maj 2008 1 / 11 Modele DSGE DSGE - Dynamiczne, stochastyczne modele równowagi ogólnej (Dynamic Stochastic General Equilibrium Model)
Matematyka dyskretna. Andrzej Łachwa, UJ, /15
Matematyka dyskretna Andrzej Łachwa, UJ, 2013 andrzej.lachwa@uj.edu.pl 7/15 Rachunek różnicowy Dobrym narzędziem do obliczania skończonych sum jest rachunek różnicowy. W rachunku tym odpowiednikiem operatora
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
Wstęp do Informatyki zadania ze złożoności obliczeniowej z rozwiązaniami
Wstęp do Informatyki zadania ze złożoności obliczeniowej z rozwiązaniami Przykład 1. Napisz program, który dla podanej liczby n wypisze jej rozkład na czynniki pierwsze. Oblicz asymptotyczną złożoność
9.9 Algorytmy przeglądu
14 9. PODSTAWOWE PROBLEMY JEDNOMASZYNOWE 9.9 Algorytmy przeglądu Metody przeglądu dla problemu 1 r j,q j C max były analizowane między innymi w pracach 25, 51, 129, 238. Jak dotychczas najbardziej elegancka
1 Całki funkcji wymiernych
Całki funkcji wymiernych Definicja. Funkcją wymierną nazywamy iloraz dwóch wielomianów. Całka funkcji wymiernej jest więc postaci: W (x) W (x) = an x n + a n x n +... + a x + a 0 b m x m + b m x m +...
Matematyka stosowana i metody numeryczne
Ewa Pabisek Adam Wosatko Piotr Pluciński Matematyka stosowana i metody numeryczne Konspekt z wykładu 6 Rozwiązywanie równań nieliniowych Rozwiązaniem lub pierwiastkiem równania f(x) = 0 lub g(x) = h(x)
TEORIA GIER W EKONOMII WYKŁAD 6: GRY DWUOSOBOWE KOOPERACYJNE O SUMIE DOWOLNEJ
TEORIA GIER W EKONOMII WYKŁAD 6: GRY DWUOSOBOWE KOOPERACYJNE O SUMIE DOWOLNEJ dr Robert Kowalczyk Katedra Analizy Nieliniowej Wydział Matematyki i Informatyki UŁ Gry dwuosobowe z kooperacją Przedstawimy
Programowanie od pierwszoklasisty do maturzysty. Grażyna Koba
Programowanie od pierwszoklasisty do maturzysty Grażyna Koba Krąg trzydziestolecia nauki programowania C++, Java Scratch, Baltie, Logo, Python? 2017? Informatyka SP, GIMN, PG 1987 Elementy informatyki
Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD II: Agent i jego środowisko
Elementy kognitywistyki II: Sztuczna inteligencja WYKŁAD II: Agent i jego środowisko Agent racjonalny Agent jednostka traktowana jakby postrzegała swoje środowisko dzięki pewnym czujnikom oraz działająca
Aukcje groszowe. Podejście teoriogrowe
Aukcje groszowe Podejście teoriogrowe Plan działania Aukcje groszowe Budowa teorii Sprawdzenie teorii Bibliografia: B. Platt, J. Price, H. Tappen, Pay-to-Bid Auctions [online]. 9 lipca 2009 [dostęp 3.02.2011].
WYKŁAD 9 METODY ZMIENNEJ METRYKI
WYKŁAD 9 METODY ZMIENNEJ METRYKI Kierunki sprzężone. Metoda Newtona Raphsona daje dobre przybliżenie najlepszego kierunku poszukiwań, lecz jest to okupione znacznym kosztem obliczeniowym zwykle postać
Weryfikacja hipotez statystycznych
Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta
Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 14 marca
Na podstawie: AIMA ch2 i slajdów S. Russel a i Na podstawie: AIMA ch2 i slajdów S. Russel a Instytut Informatyki, Politechnika Poznańska 14 marca 2014 Instytut Informatyki, Politechnika Poznańska 14 marca
Optimizing Programs with Intended Semantics
Interaktywna optymalizacja programów 26 kwietnia 2010 Spis treści Spis treści Wstęp Omówienie zaproponowanego algorytmu na przykładzie Wewnętrzna reprezentacja reguł dotyczących optymalizacji Wybrane szczegóły
Stanisław Cichocki. Natalia Nehrebecka. Wykład 9
Stanisław Cichocki Natalia Nehrebecka Wykład 9 1 1. Dodatkowe założenie KMRL 2. Testowanie hipotez prostych Rozkład estymatora b Testowanie hipotez prostych przy użyciu statystyki t 3. Przedziały ufności
Bisymulacja. Niezawodność systemów współbieżnych i obiektowych. Grzegorz Maj Grzegorz Maj Bisymulacja
Niezawodność systemów współbieżnych i obiektowych 18.03.2009 Plan prezentacji Przypomnienie: Plan prezentacji Przypomnienie: Gra bisymulacyjna Plan prezentacji Przypomnienie: Gra bisymulacyjna Definicje
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1
Modele i wnioskowanie statystyczne (MWS), sprawozdanie z laboratorium 1 Konrad Miziński, nr albumu 233703 1 maja 2015 Zadanie 1 Parametr λ wyestymowano jako średnia z próby: λ = X n = 3.73 Otrzymany w
Algorytm simplex i dualność
Algorytm simplex i dualność Łukasz Kowalik Instytut Informatyki, Uniwersytet Warszawski April 15, 2016 Łukasz Kowalik (UW) LP April 15, 2016 1 / 35 Przypomnienie 1 Wierzchołkiem wielościanu P nazywamy
Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem.
1 Wektory Co to jest wektor? Jest to obiekt posiadający: moduł (długość), kierunek wraz ze zwrotem. 1.1 Dodawanie wektorów graficzne i algebraiczne. Graficzne - metoda równoległoboku. Sprowadzamy wektory
Metody numeryczne w przykładach
Metody numeryczne w przykładach Bartosz Ziemkiewicz Wydział Matematyki i Informatyki UMK, Toruń Regionalne Koło Matematyczne 8 kwietnia 2010 r. Bartosz Ziemkiewicz (WMiI UMK) Metody numeryczne w przykładach
Analiza stanów gry na potrzeby UCT w DVRP
Analiza stanów gry na potrzeby UCT w DVRP Seminarium IO na MiNI 04.11.2014 Michał Okulewicz based on the decision DEC-2012/07/B/ST6/01527 Plan prezentacji Definicja problemu DVRP DVRP na potrzeby UCB Analiza
Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0
Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Podstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.
Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki
Algorytmy metaheurystyczne Wykład 6. Piotr Syga
Algorytmy metaheurystyczne Wykład 6 Piotr Syga 10.04.2017 Wprowadzenie Inspiracje Wprowadzenie ACS idea 1 Zaczynamy z pustym rozwiązaniem początkowym 2 Dzielimy problem na komponenty (przedmiot do zabrania,
Inteligentne Agenty. Na podstawie: AIMA ch2 i slajdów S. Russel a. Wojciech Jaśkowski. 18 marca Inteligentne Agenty
Na podstawie: AIMA ch2 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 18 marca 2016 Na podstawie: AIMA ch2 i slajdów S. Russel a Wojciech Jaśkowski Instytut Informatyki,
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Algorytmy mrówkowe. P. Oleksyk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne
y mrówkowe P. Oleksyk Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Inteligentne systemy informatyczne 14 kwietnia 2015 1 Geneza algorytmu - biologia 2 3 4 5 6 7 8 Geneza
Uczenie sieci typu MLP
Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik
Metody numeryczne. Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski
Metody numeryczne Instytut Sterowania i Systemów Informatycznych Wydział Elektrotechniki, Informatyki i Telekomunikacji Uniwersytet Zielonogórski Elektrotechnika stacjonarne-dzienne pierwszego stopnia
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
PROBLEM: SORTOWANIE PRZEZ ODWRÓCENIA METODA: ALGORYTMY ZACHŁANNE
D: PROBLEM: SORTOWANIE PRZEZ ODWRÓCENIA METODA: ALGORYTMY ZACHŁANNE I. Strategia zachłanna II. Problem przetasowań w genomie III. Sortowanie przez odwrócenia IV. Algorytmy przybliżone V. Algorytm zachłanny
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
Iteracyjne rozwiązywanie równań
Elementy metod numerycznych Plan wykładu 1 Wprowadzenie Plan wykładu 1 Wprowadzenie 2 Plan wykładu 1 Wprowadzenie 2 3 Wprowadzenie Metoda bisekcji Metoda siecznych Metoda stycznych Plan wykładu 1 Wprowadzenie
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy
Program nauczania informatyki w gimnazjum Informatyka dla Ciebie. Modyfikacja programu klasy w cyklu 2 godzinnym
Modyfikacja programu klasy 2 nym Cele modyfikacji Celem modyfikacji jest poszerzenie zakresu wiedzy zawartej w podstawie programowej które pomoże uczniom uzmysłowić sobie treści etyczne związane z pracą
Wyszukiwanie binarne
Wyszukiwanie binarne Wyszukiwanie binarne to technika pozwalająca na przeszukanie jakiegoś posortowanego zbioru danych w czasie logarytmicznie zależnym od jego wielkości (co to dokładnie znaczy dowiecie
Modelowanie Niepewności
Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca 2014 Na podstawie: AIMA, ch13 Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 marca
Zofia Kruczkiewicz, Algorytmu i struktury danych, Wykład 14, 1
Wykład Algorytmy grafowe metoda zachłanna. Właściwości algorytmu zachłannego:. W przeciwieństwie do metody programowania dynamicznego nie występuje etap dzielenia na mniejsze realizacje z wykorzystaniem