Algorytmy estymacji stanu (filtry)

Podobne dokumenty
Fuzja sygnałów i filtry bayesowskie

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Metody systemowe i decyzyjne w informatyce

ALHE Z11 Jarosław Arabas wykład 11

Rozpoznawanie obrazów

Rozpoznawanie obrazów

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Na podstawie: AIMA, ch13. Wojciech Jaśkowski. 15 marca 2013

SPOTKANIE 3: Regresja: Regresja liniowa

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Komputerowa analiza danych doświadczalnych

Komputerowa analiza danych doświadczalnych

Centralne twierdzenie graniczne

Metody systemowe i decyzyjne w informatyce

Metoda największej wiarygodności

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 13 i 14 - Statystyka bayesowska

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

Modele zapisane w przestrzeni stanów

Komputerowa Analiza Danych Doświadczalnych

1 Klasyfikator bayesowski

Modele DSGE. Jerzy Mycielski. Maj Jerzy Mycielski () Modele DSGE Maj / 11

Roboty Manipulacyjne i Mobilne Budowanie mapy, lokalizacja, SLAM

Komputerowa analiza danych doświadczalnych

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Modelowanie Niepewności

INFORMATYKA W CHEMII Dr Piotr Szczepański

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Metody probabilistyczne

Komputerowa analiza danych doświadczalnych. Wykład dr inż. Łukasz Graczykowski

Filtracja pomiarów z głowic laserowych

Filtr Kalmana. Struktury i Algorytmy Sterowania Wykład 1-2. prof. dr hab. inż. Mieczysław A. Brdyś mgr inż. Tomasz Zubowicz

Optymalizacja optymalizacji

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

PSO Rój cząsteczek - Particle Swarm Optimization. Michał Szopiak

g) wartość oczekiwaną (przeciętną) i wariancję zmiennej losowej K.

Ważne rozkłady i twierdzenia c.d.

Podstawowe modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

zadania z rachunku prawdopodobieństwa zapożyczone z egzaminów aktuarialnych

Strategie ewolucyjne (ang. evolu4on strategies)

KARTA MODUŁU / KARTA PRZEDMIOTU

ALGORYTMY EWOLUCYJNE W OPTYMALIZACJI JEDNOKRYTERIALNEJ

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

Prawdopodobieństwo i statystyka

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

Uczenie sieci radialnych (RBF)

Sieci Mobilne i Bezprzewodowe laboratorium 2 Modelowanie zdarzeń dyskretnych

O ŚREDNIEJ STATYSTYCZNEJ

Geometryczna zbieżność algorytmu Gibbsa

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 3 - model statystyczny, podstawowe zadania statystyki matematycznej

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Rozkłady wielu zmiennych

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Metoda największej wiarygodności

Optymalizacja ciągła

Superdyfuzja. Maria Knorps. Wydział Fizyki Technicznej i Matematyki stosowanej, Politechnika Gdańska

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

Układy stochastyczne

Współczesna technika inwersyjna - dokad zmierzamy? Wojciech Dȩbski

WYKŁAD 6. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki

1.1 Wstęp Literatura... 1

Statystyka aktuarialna i teoria ryzyka, rozkłady szkód

Politechnika Gdańska Wydział Elektrotechniki i Automatyki. Automatyka i Robotyka Systemy Sterowania i Wspomagania Decyzji

Proces rezerwy w czasie dyskretnym z losową stopą procentową i losową składką

Zadania z Rachunku Prawdopodobieństwa III - 1

ZAJĘCIA II. Zmienne losowe, sygnały stochastyczne, zakłócenia pomiarowe

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

Zmienne losowe. Powtórzenie. Dariusz Uciński. Wykład 1. Instytut Sterowania i Systemów Informatycznych Universytet Zielonogórski

Komputerowa analiza danych doświadczalnych

Hipotezy statystyczne

STATYSTYKA MATEMATYCZNA WYKŁAD października 2009

Rozkłady prawdopodobieństwa zmiennych losowych

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Wprowadzenie do uczenia maszynowego. Jakub Tomczak

Statystyka matematyczna

Procesy stochastyczne

Zmienne losowe, statystyki próbkowe. Wrocław, 2 marca 2015

Szkice do zajęć z Przedmiotu Wyrównawczego

Prawdopodobieństwo Odp. Odp. 6 Odp. 1/6 Odp. 1/3. Odp. 0, 75.

Problemy Decyzyjne Markowa

METODY ESTYMACJI PUNKTOWEJ. nieznanym parametrem (lub wektorem parametrów). Przez X będziemy też oznaczać zmienną losową o rozkładzie

Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński

SMOP - wykład. Rozkład normalny zasady przenoszenia błędów. Ewa Pawelec

Wielowymiarowy próbnik Gibbsa

Kwantyle. Kwantyl rzędu p rozkładu prawdopodobieństwa to taka liczba x p. , że. Możemy go obliczyć z dystrybuanty: P(X x p.

Zmienne losowe ciągłe i ich rozkłady

Procesy stochastyczne

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

1 Wykład 3 Generatory liczb losowych o dowolnych rozkładach.

Wykorzystanie symetrii przy pomiarze rozkładu kąta rozproszenia w procesie pp pp

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Wykład z analizy danych: powtórzenie zagadnień z rachunku prawdopodobieństwa

Weryfikacja hipotez statystycznych

Transkrypt:

Algorytmy estymacji stanu (filtry) Na podstawie: AIMA ch15, Udacity (S. Thrun) Wojciech Jaśkowski Instytut Informatyki, Politechnika Poznańska 21 kwietnia 2014

Problem lokalizacji Obserwowalność? Determinizm?

Problem lokalizacji

Filtr Histogramowy

Filtr Histogramowy

Filtr Histogramowy

Filtr Histogramowy

Filtr Histogramowy

Pomiar

Pomiar

Pomiar [zadanie 1]

Pomiar wynik

Ruch agenta Jak wygląda stan wiedzy (ang. belief) po ruchu o 1 pozycję w prawo?[zadanie 2]

Ruch agenta

(Niedokładny) ruch agenta P(X i+2 X i ) = 0.8 P(X i+1 X i ) = 0.1 P(X i+3 X i ) = 0.1 Jak wygląda rozkład po wykonaniu ruchu o 2 pola w prawo? [zadanie3]

(Niedokładny) ruch agenta P(X i+2 X i ) = 0.8 P(X i+1 X i ) = 0.1 P(X i+3 X i ) = 0.1 Jak wygląda rozkład po wykonaniu ruchu o 2 pola w prawo? [zadanie4]

Ruch agenta Jak wygląda rozkład w? [zadanie 5]

Lokalizacja

Lokalizacja

Lokalizacja podsumowanie Stan wiedzy: rozkład prawdopodobieństwa Obserwacja: iloczyn (stan wiedzy, pomiar) + normalizacja Ruch: konwolucja (stan wiedzy, model ruchu)

Lokalizacja podstawy matematyczne (obserwacja) Zmienne losowe: X robot jest na danym polu (X = x i znaczy, że jest na polu i-tym) Z wynik pomiaru P(X Z) = P(Z X )P(X ) P(Z) P(X ) rozkład a priori P(Z X ) rozkład prawd. pomiaru P(Z) normalizacja P(Z) = i P(Z xi)p(xi) = α

Lokalizacja podstawy matematyczne (ruch) Konwolucja: P(x t i ) = j P(x t 1 j )P(x i x j ) P(X t 1 ) rozkład prawd. a priori (np. P(x t 1 i ) P(X X ) rozkład prawd. związanych z wiedzą na temat ruchu (np. P(x i x j ))

Porównanie estymacji stanu Metoda stanowość rozkład Filtr histogramowy dyskretny multimodalny Filtr Kalmana ciągły unimodalny

Funkcja gaussowska

Funkcja gaussowska 1.0 0.8 μ= 0, μ= 0, μ= 0, μ= 2, 2 σ = 0.2, 2 σ = 1.0, 2 σ = 5.0, 2 σ = 0.5, φ μ,σ 2( x) 0.6 0.4 0.2 0.0 5 4 3 2 1 0 1 2 3 4 5 x f (x) = 1 1 (x µ) 2 2πσ 2 e 2 σ 2

Pomiar i ruch Pomiar: (iloczyn/bayes czy konwolucja/prawd. całkowite?)[zadanie 6] Ruch: (iloczyn/bayes czy konwolucja/prawd. całkowite?)

Pomiar rozkład a priori oraz pomiar

Pomiar Gdzie jest średnia f. gausowskiej (stanu wiedzy) po pomiarze? [zadanie 7]

Pomiar Gdzie jest amplituda f. gausowskiej (stanu wiedzy) po pomiarze? [zadanie 8]

Pomiar

Pomiar wzory Aktualizacja stanu wiedzy po pomiarze (mnożenie f. gaussowskich): µ = r 2 µ + σ 2 ν r 2 + σ 2

Zadanie na pobudkę µ = 10 ν = 12 σ 2 = 4 r 2 = 4 [zadanie 9] µ = r 2 µ + σ 2 ν r 2 + σ 2 σ 2 = 1 1 r 2 + 1 σ 2

Pomiar wzory P(X ) rozkład a priori P(Z X ) pomiar P(X Z) rozkład a posteriori

Pomiar pytanie na koniec Jak będzie wyglądał rozkład a posteriori?[zadanie 10]

Ruch wzory Aktualizacja stanu wiedzy po ruchu: µ = µ + ν σ 2 = σ 2 + r 2

Wielowymiarowy filtr Kalmana Potrafi przewidywać pozycję na podstawie wiedzy o prędkości (bez jej pomiarów)

Wielowymiarowa f. gaussowska µ =... Σ = µ 0. µ D...... f (x) = (2π) D 2 Σ 1 2 exp( 1 2 (x µ)t Σ 1 (x µ))

Wielowymiarowa f. gaussowska

Wielowymiarowy filtr Kalmana

Wielowymiarowy filtr Kalmana Gdzie byśmy byli, gdyby prędkość wynosiła 0? A jeśli 1? A jeśli 2?

Wielowymiarowy filtr Kalmana (predykcja)

Wielowymiarowy filtr Kalmana x - obserwowane

Projektowanie filtru Kalmana F funkcja przejścia H funkcja pomiaru ( co obserwujemy )

Projektowanie filtru Kalmana równania x estymata P macierz kowariancji (niepewność) F funkcja przejścia u wektor ruchu z pomiar H funkcja pomiaru R niepewnośc pomiaru 1 macierz jednostkowa Ruch: x = Fx + u P = FPF T Pomiar: y = z Hx S = HPH T + R K = PH T S 1 x = x + (Ky) P = (1 KH)P

Porównanie Metoda przestrzeń stanów rozkład efektywność Filtr histogramowy dyskretna multimodalny Filtr Kalmana ciągła unimodalny

Porównanie Metoda przestrzeń stanów rozkład efektywność Filtr histogramowy dyskretna multimodalny Filtr Kalmana ciągła unimodalny Filtr cząsteczkowy ciągła multimodalny

Porównanie Metoda przestrzeń stanów rozkład efektywność Filtr histogramowy dyskretna multimodalny wykładniczy Filtr Kalmana ciągła unimodalny O(D 2 ) Filtr cząsteczkowy ciągła multimodalny szybki

Zalety filtru cząsteczkowego Filtr cząsteczkowy: bardzo prosty w implementacji bardzo elastyczny Przykład działania: http://youtu.be/crt1tkff-ds (autor: Szymon Kaliski)

Robot

Robot

Filtr cząsteczkowy Krok algorytmu 1 (inicjalizacja) Inicjalizuj N cząstek losowo

Filtr cząsteczkowy Krok algorytmu 2 (ruch robota) Wykonaj ruch zgodnie z (zamierzonym) ruchem robota. Do ruchu dodaj trochę szumu, aby algorytm nie zbiegł do punktu. Szum odgrywa rolę mutacji.

Filtr cząsteczkowy

Filtr cząsteczkowy

Filtr cząsteczkowy (wagi cząsteczek) w i = Π L j=1f µi,σ(dist(p i, L j ))

Filtr cząsteczkowy Krok algorytmu 3 (przydział wag) Przydziel wagi cząsteczkom (prawd. pomiaru). Dla każdej cząsteczki p i : gdzie: f funkcja gaussowska w i = Π L j=1f µi,σ(dist(p i, L j )) µ i pomiar dla punktu orientacyjnego i σ niepewność pomiaru (sensorów) dist(p i, L j ) odległość pomiędzy pozycją i-tej cząsteczki a j-tym punktem orientacyjnym

Selekcja (ponowne próbkowanie) Krok algorytmu 4 (próbkowanie) Próbkuj populację cząstek

Selekcja przykład N = 5 w = {w 1 = 0.6, w 2 = 1.2, w 3 = 2.4, w 4 = 0.6, w 5 = 1.2} Jakie jest prawd niewylosowania p 3? [zadanie 11] Jakie jest prawd niewylosowania p 1? [zadanie 12]

Selekcja ruletkowa

Selekcja (szybsza) mx = max(w) b = 0 idx = randint(0,n) for i in range(n): b += random(0, 2*mx) while w[idx] < b: b -= w[idx] idx = (idx + 1) % N resampled.append(idx)

Podsumowanie

Zadanie Czy orientacja cząstek ma znaczenie?[zadanie 13]

Wady i zalety Przykład: http://youtu.be/8-vfuhayuci (autor: Sebastian Thrun) Zalety: Wady: Proste w implementacji Zwykle działają bardzo dobrze Niewymagające obliczeniowo Działają dobrze nawet, gdy rozkłady: niemonotoniczne skomplikowane (niegaussowskie) Przekleństwo wymiarowości = rozszerzenia (np. filtry Rao-Blackwellized) Zbyt mało cząstek = kłopoty Mało szumów = kłopoty