Widzenie komputerowe. Widzenie komputerowe i stereoskopia. Dysparycja siatkówkowa uwagi. Układ wzrokowy naczelnych



Podobne dokumenty
Widzenie komputerowe i stereoskopia

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 12 AiR III

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Kalibracja kamery. Kalibracja kamery

Rodzaje obrazów. Obraz rzeczywisty a obraz pozorny. Zwierciadło. Zwierciadło. obraz rzeczywisty. obraz pozorny

Laboratorium optycznego przetwarzania informacji i holografii. Ćwiczenie 6. Badanie właściwości hologramów

Laboratorium optycznego przetwarzania informacji i holografii. Ćwiczenie 4. Badanie optycznej transformaty Fouriera

Akademia Górniczo-Hutnicza

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Skanowanie trójwymiarowej przestrzeni pomieszczeñ

Grafika Komputerowa Wykład 4. Synteza grafiki 3D. mgr inż. Michał Chwesiuk 1/30

Grafika Komputerowa Wykład 5. Potok Renderowania Oświetlenie. mgr inż. Michał Chwesiuk 1/38

Elektrofizjologiczne podstawy lokalizacji ogniska padaczkowego. Piotr Walerjan

Ćwiczenie 4. Część teoretyczna

Bartosz Bazyluk SYNTEZA GRAFIKI 3D Grafika realistyczna i czasu rzeczywistego. Pojęcie sceny i kamery. Grafika Komputerowa, Informatyka, I Rok

Rys. 1 Schemat układu obrazującego 2f-2f

Ćw.6. Badanie własności soczewek elektronowych

KP, Tele i foto, wykład 3 1

Elektrofizjologiczne podstawy lokalizacji ogniska padaczkowego. Piotr Walerjan PWSIM MEDISOFT

Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy

Laboratorium Optyki Falowej

Temat ćwiczenia: Zasady stereoskopowego widzenia.

Mobilne Aplikacje Multimedialne

Automatyczne nastawianie ostrości

Grafika 2D. Animacja - wstęp. Wykład obejmuje podstawowe pojęcia związane z animacja komputerową. opracowanie: Jacek Kęsik

Filtracja obrazu operacje kontekstowe

Reprezentacja i analiza obszarów

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Akwizycja obrazów. Zagadnienia wstępne

PRZETWARZANIE SYGNAŁÓW

Mikroskop teoria Abbego

Wstęp do fotografii. piątek, 15 października ggoralski.com

Ćwiczenie 11. Wprowadzenie teoretyczne

WYMAGANIA EDUKACYJNE NIEZBĘDNE DO UZYSKANIA POSZCZEGÓLNYCH ŚRÓDROCZNYCH I ROCZNYCH OCEN KLASYFIKACYJNYCH Z MATEMATYKI POLITECHNICZNEJ KLASA 2

Akademia Górniczo-Hutnicza

Filtracja obrazu operacje kontekstowe

OPTYKA GEOMETRYCZNA I INSTRUMENTALNA

Optyka. Wykład XI Krzysztof Golec-Biernat. Równania zwierciadeł i soczewek. Uniwersytet Rzeszowski, 3 stycznia 2018

WYMAGANIA EDUKACYJNE Z MATEMATYKI DLA KLASY III

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Segmentacja przez detekcje brzegów

Akwizycja i przetwarzanie sygnałów cyfrowych

Wykład 12. Widzenie przestrzenne i głębia ostrości widzenia

Analizy Ilościowe EEG QEEG

Układy stochastyczne

Elektroniczne systemy percepcji otoczenia dla niewidomych

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10

WYDZIAŁ FIZYKI I INFORMATYKI STOSOWANEJ

Zaawansowane metody analizy EEG: lokalizacja wzorów zapisu w przestrzeni 2D i 3D. Piotr Walerjan

Analiza ruchu. Marek Wnuk < > ZPCiR I-6 PWr. MW: SyWizE p.1/22

Metody analizy zapisu EEG. Piotr Walerjan

Komunikacja Człowiek-Komputer

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Różne reżimy dyfrakcji

klasa III technikum I. FIGURY I PRZEKSZTAŁCENIA Wiadomości i umiejętności

Ćwiczenie 12/13. Komputerowy hologram Fouriera. Wprowadzenie teoretyczne

LUBELSKA PRÓBA PRZED MATURĄ

PDF created with FinePrint pdffactory Pro trial version

AKWIZYCJA I PRZETWARZANIE WSTĘPNE

Analiza obrazów - sprawozdanie nr 2

W poszukiwaniu sensu w świecie widzialnym

ANALIZA HIERARCHICZNA PROBLEMU W SZACOWANIU RYZYKA PROJEKTU INFORMATYCZNEGO METODĄ PUNKTOWĄ. Joanna Bryndza

SYSTEMY PROJEKCJI STEREOSKOPOWEJ W ANIMACJACH KOMPUTEROWYCH. Techniki projekcji Generowanie wizyjnego sygnału stereoskopowego Instalacje mobilne

POMIARY OPTYCZNE 1. Wykład 1. Dr hab. inż. Władysław Artur Woźniak

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

rozpoznawania odcisków palców

Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania.

Ćwiczenie Nr 11 Fotometria

Zastosowanie metody interpolacji warstwic do tworzenia NMT. dr inż. Ireneusz Wyczałek Zakład Geodezji POLITECHNIKA POZNAŃSKA

Optyka instrumentalna

4 Zasoby językowe Korpusy obcojęzyczne Korpusy języka polskiego Słowniki Sposoby gromadzenia danych...

Modele (graficznej reprezentacji) danych przestrzennych postać danych przestrzennych

Technologia informacyjna

6. Algorytmy ochrony przed zagłodzeniem dla systemów Linux i Windows NT.

Podstawy grafiki komputerowej

SZCZEGÓLNE ROZWAśANIA NAD UŚREDNIONYMI POMIARAMI Special Considerations for Averaged Measurements

WideoSondy - Pomiary. Trzy Metody Pomiarowe w jednym urządzeniu XL G3 lub XL Go. Metoda Porównawcza. Metoda projekcji Cienia (ShadowProbe)

KSZTAŁTOWANIE KLIMATU AKUSTYCZNEGO PROJEKTOWANYCH STANOWISK PRACY Z WYKORZYSTANIEM NARZĘDZI WSPOMAGAJĄCYCH

Układy równań liniowych. Ax = b (1)

RAFAŁ MICHOŃ. Zespół Szkół Specjalnych nr 10 im. ks. prof. Józefa Tischnera w Jastrzębiu Zdroju O r.

Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia. Mgr inż.

Przetwarzanie obrazu

Grafika Komputerowa Wykład 2. Przetwarzanie obrazów. mgr inż. Michał Chwesiuk 1/38

Przewaga klasycznego spektrometru Ramana czyli siatkowego, dyspersyjnego nad przystawką ramanowską FT-Raman

GRAKO: ŚWIATŁO I CIENIE. Modele barw. Trochę fizyki percepcji światła. OŚWIETLENIE: elementy istotne w projektowaniu

Detekcja punktów zainteresowania

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Przetwarzanie obrazów wykład 6. Adam Wojciechowski

Rekonstrukcja obrazu (Image restoration)

0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do

Metody Optyczne w Technice. Wykład 5 Interferometria laserowa

Wstęp posiadaczem lustrzanki cyfrowej

Kalibracja Obrazów w Rastrowych

Modelowanie pola akustycznego. Opracowała: prof. dr hab. inż. Bożena Kostek

Projektowanie naziemnego pomiaru fotogrametrycznego. Dokładność - specyfikacja techniczna projektu

Wymagania edukacyjne z matematyki Klasa III zakres podstawowy

Oświetlenie obiektów 3D

Transkrypt:

Widzenie komputerowe i stereoskopia Rozpoznawanie Obrazów Krzysztof Krawiec Instytut Informatyki, Politechnika Poznańska Na podstawie: B. Cyganek: Komputerowe przetwarzanie obrazów trójwymiarowych, EXIT 2002. Widzenie komputerowe Widzenie komputerowe (ang. computer vision) dziedzina zajmująca się interpretacją obrazów trójwymiarowych główny problem: mapowanie 3D->2D => utrata informacji (głębi) bardziej formalnie: wszystkie punkty leŝące na jednej prostej przechodzącej przez ognisko kamery mapowane są na jeden piksel cel: uzyskanie mapy głębi (ang. depth map) (obraz 2.5 wymiarowy) 1 Krzysztof Krawiec IDSS Wednesday, June 10, 2009 2 3 Układ wzrokowy naczelnych Główne źródła informacji o głębi: dysparycja siatkówkowa (ang. retinal disparity) -> wzajemne przysłanianie obiektów Te dwa źródła informacji uzupełniają się: dysparycja umoŝliwia ekstrakcję głębi dla części obrazu widocznych dla obu oczu, przysłanianie wspomaga segmentację obrazu na obiekty i krawędzie. Inne źródła informacji: ruch gałek ocznych Co jeszcze wiemy: informacja o kolorze ma znikomy wpływ na percepcję głębi 4 Dysparycja siatkówkowa uwagi formalnie: dysparycja siatkówkowa jest zerowa tylko dla punktów obrazu rzutowanych na tzw. Ŝółtą plamkę ( centralny element siatkówki). Dla innych punktów dysparycja jest zawsze niezerowa. w OUN (obszar V1 kory wzrokowej) istnieją neurony zwane detektorami dysparycji, reagujące na dysparycję. Jakie cechy obrazu mają zasadniczy wpływ na percepcję dysparycji? druga pochodna luminancji (jasności) przecina zero (zero-crossings) [Marr&Poggio79] składowe częstotliwościowe sygnału luminancji [Mayhew&Frisby] cechy bardziej globalne [Mallot] wykazano Ŝe jesteśmy w stanie skutecznie rekonstruować głębię nawet gdy luminancja zmienia się bardzo powoli. najnowsze badania wskazują na charakter hybrydowy, zaleŝny od zawartości obrazu. Powiązane zagadnienia: Stereogramy losowe [Julesz60]

Stereoskopia wykorzystanie dwóch obrazów tej samej sceny (tzw. stereopara) zalety: Tania Analogiczna do postrzegania człowieka (w obszarze korowym V1 mózgu wykazano istnienie neuronów detektorów dysparycji, których pobudzenie jest proporcjonalne do niezgodności obrazów pochodzących z lewego i prawego oka) wady: wymaga dwóch kamer (zazwyczaj) konieczność kalibracji kamer ograniczona dokładność wysoki koszt obliczeniowy Model kamery perspektywicznej 5 6 Krzysztof Krawiec IDSS Wednesday, June 10, 2009 Model kamery perspektywicznej f O c Z Y c c X c x T p o Y w O w X w Rzutowanie punktu Dany jest punkt P=(X,Y,Z) w układzie współrzędnych kamery. Współrzędne jego obrazu p=(x,y,z) w detektorze kamery moŝna wywieść z podobieństwa trójkątów O c po i O c PO c. X Y x = f, y = f, z = Z Z f O c punkt ogniskowy (centralny) kamery o punkt główny (ang. principal point) f długość ogniskowa O c O c oś optyczna y Π P c O c Z w P Wniosek: współrzędna Z (głębia) wpływa na współrzędne x i y => uzasadnienie sensowności stereoskopii. 7 8

Kamera o uproszczonej perspektywie Gdy załoŝymy Ŝe X i Y << średnie Z (czyli Ŝe rozmiary obiektu są znacząco mniejsze od jego odległości od kamery, co jest zazwyczaj prawdą), wcześniejszy wzór moŝna sprowadzić do: Parametry kamery Dzielą się na: zewnętrzne wewnętrzne f f x = X, y = Y, z = f Z Z czyli jest to de facto skalowanie przez czynnik f/(z średnie). [Pokrewny model: model kamery afinicznej] 9 10 Parametry zewnętrzne Parametry wewnętrzne 11 W prostych przypadkach układ współrzędnych kamery i zewnętrzny moŝna utoŝsamiać. Jednak gdy mamy więcej niŝ jedną kamerę lub kamera się porusza, nie da się tego zrobić. Przejście od zewnętrznego układu współrzędnych do układu współrzędnych kamery: złoŝenie translacji T i rotacji R: P c = R( P T ) gdzie: P c połoŝenie punktu P w układzie współrzędnych kamery P w połoŝenie punktu P w zewnętrznym układzie współrzędnych T macierz translacji R macierz rotacji (3x3) Tx w T = O w O c = T T y z 12 kamera perspektywiczna o obiektywie punktowym ma jeden parametr ogniskową f, translacja pomiędzy współrzędnymi kamery a współrzędnymi obrazu: zazwyczaj wybiera się punkt środkowy siatki o=(o x,o y ) oraz pewne rozmiary pixeli s x i s y ; wówczas: zniekształcenia geometryczne wprowadzane przez układ optyczny kamery wynikają z nieliniowości układu optycznego oraz zmienności parametrów w funkcji długości fali: aberracja sferyczna, koma, astygmatyzm, zakrzywienie pola widzenia, zniekształcenia poduszkowe i beczkowe aberracja chromatyczna x = ( x o ) s, y = ( y o ) s u dla porównania: kamera ortograficzna nie ma Ŝadnych parametrów wewnętrznych x x u y y

Kanoniczny układ kamer Kanoniczny układ kamer to dwie kamery perspektywiczne o równoległych osiach optycznych umieszczone w odległości b (baza) od siebie. Kanoniczny układ kamer P Π L o L p L p R Z o R Π R x L x R X f O L b O R 14 Definicja dysparycji Oznaczenia: P punkt w przestrzeni 3D p L i p R jego obrazy w kamerach, odpowiednio lewej i prawej Korzystając z podobieństwa trójkątów p L o L O L oraz PXO L, jak równieŝ p R o R O R oraz PXO R,dysparycję (horyzontalną) moŝna zdefiniować jako: Dx ( pl, pr ) = xl xr = bf Z Gdzie b odległość między punktami ogniskowymi obu kamer Metody stereoskopowego przetwarzania obrazów MoŜna teŝ definiować dysparycję wertykalną D y, a następnie zagregować D x i D y do dysparycji całkowitej. 15 16 Krzysztof Krawiec IDSS Wednesday, June 10, 2009

Podstawowy problem Mając obrazy z lewej i prawej kamery, znajdź w nich takie pary punktów które z duŝym prawdopodobieństwem są obrazem tego samego punktu sceny. Podstawowy podział Metody: bezpośrednie (ang. direct) -> : Dysparycja obliczana bezpośrednio z jasności (ewentualnie przefiltrowanej w celu eliminacji szumów). Wynik: gęsta mapa dysparycji (estymata dysparycji dla kaŝdego punktu obrazu). metody bazujące na detekcji cech (ang. feature based methods) -> : Podstawą obliczania dysparycji są pewne cechy wyekstrahowane z obrazu (np. linie, naroŝniki). Wynik: rzadka mapa dysparycji (estymata dysparycji tylko w tych miejscach gdzie obecna jest analizowana cecha). Typ otrzymanej mapy dysparycji determinuje obszary zastosowań. 18 Metody bezpośrednie dopasowujące obszarami (area-based), inaczej blokowe lub korelacyjne podstawowa operacja: korelowanie (zgodnie z wybranym kryterium) wybranych obszarów. relaksacyjne korelowanie wybranych obszarów + rozwiązywanie problemów niejednoznaczności dopasowań. wprowadza się funkcję energetyczną, opisującą siłę dopasowania punktów. bazujące na programowaniu dynamicznym problem stereowizji sprowadza się do problemu optymalizacyjnego z uŝyciem pewnej funkcji rozbieŝności dopasowań. zakładają zachowanie kolejności punktów. gradientowe bazują na obliczeniu pola gradientowego w kaŝdym punkcie obrazu. Metody bezpośrednie c.d. neuronowe wykorzystuje się m.in. modele Hopfielda, Hamminga, RBF. probabilistyczne budowa statystycznego modelu rozkładu dysparycji w pewnym oknie. model pozwala na obliczenie stopnia niepewności dopasowania. reguła Bayesa pozwala na znalezienie okna minimalizującego tę niepewność. dyfuzyjne funkcja energetyczna i dyskretne równanie dyfuzyjne. symulacja pewnego procesu energetycznego. obecność wielu lokalnych minimów funkcji energii -> stosuje się m.in. symulowane wyŝarzanie. 19 20

Metody bazujące na cechach metoda Marr-Poggio-Grimson detekcja róŝnego typu krawędzi na róŝnych skalach szczegółowości, detektorem LoG (Laplacian of Gaussian), metoda Shirai dopasowywanie wyłącznie punktów krawędziowych, z pewnym uwzględnieniem ich otoczenia metoda tensora strukturalnego polega na detekcji lokalnych struktur w obrazie i dopasowywaniu miejsc charakteryzujących się silną strukturalnością Aspekty techniczne algorytmów Algorytmy: kroczące po punktach priorytet dla przestrzeni : przeglądaj podokna, a wewnątrz kaŝdego podokna doszukuj się róŝnych dysparycji (zazwyczaj począwszy od najmniejszych) kroczące po dysparycjach priorytet dla dysparycji : odwrotne zagnieŝdŝenie pętli: dla róŝnych oczekiwanych dysparycji przeglądaj całe obrazy 21 22 Grupy zastosowań rekonstrukcja obiektów 3D rozpoznawanie obiektów 3D zazwyczaj oparte na modelu -> pomiar podobieństwa mapy głębi i modelu w 3 wymiarach kartografia, analiza terenu, w tym zastosowania militarne ciekawy przykład: analiza fal morskich systemy nawigacyjne, w tym robotyka multimedia synteza obrazów, np. nakładanie obrazów syntetycznych na rzeczywiste generowanie nieznanych widoków obiektów na podstawie widoków znanych Stosowanie metod 1. W zaleŝności od charakteru obrazów/zastosowania: poziom szumów np. wysoki poziom szumów dyskwalifikuje metody bezpośrednie, odległość od obrazowanych obiektów i, w konsekwencji, zakres dysparycji np. w obrazach kartograficznych obiekty znajdują się bardzo daleko od kamer[y], dysparycja jest niewielka -> wskazanie na metody bezpośrednie (choć z drugiej strony moŝe wystąpić szum) 23 24

Stosowanie metod c.d. 2. W zaleŝności od stawianych wymagań konieczność pracy w czasie rzeczywistym wymagana precyzja rekonstrukcji głębi np. często bardzo wysoka w rekonstrukcji obiektów 3D wymaga dokładnej kalibracji kamer Najnowsze tendencje Ostatnie badania neurofizjologiczne wskazują na większą niŝ dotychczas przypuszczano rolę (częściowego) przesłaniania obiektów. Uwzględnienie tej roli mogłoby w końcu doprowadzić do konstrukcji uniwersalnego systemu stereoskopowego 25 26 Inne metody pomiaru głębi Metody pomiaru głębi wykorzystujące jeden obraz Stereoskopia nie jest jedyną metodą pomiaru głębi. Istnieją metody wykorzystujące jedną kamerę: aktywne wykorzystują osobne źródło promieniowania pasywne wykorzystują oświetlenie naturalne sceny 28

Pomiar głębi - Metody aktywne oświetlenie strukturalne (najczęściej regularna krata), interferometr (siatka interferencyjna za źródłem promieniowania i przed kamerą), laser, radar, sonar pomiar czasu powrotu sygnału odbitego lub zmiany jego fazy Pomiar głębi Metody aktywne Zaleta: dokładne i często szybkie Wady: konieczność zastosowania źródła promieniowania: kosztowne, w przypadku niektórych pasm widma niebezpieczne dla zdrowia koszt energetyczny, w niektórych zastosowaniach wykluczone: zbyt duŝa odległość od obserwowanych obiektów, wojskowe, bezpieczeństwo (ang. homeland security) 29 30 Pomiar głębi Metody pasywne Mogą być wspólnie zatytułowane: depth from X strukturalna analiza cienia (depth from shading) wykorzystanie charakterystyki odbicia/rozpraszania światła do pozyskania informacji o głębi Wady: wymaga silnych załoŝeń, duŝa złoŝoność obliczeniowa. głębia/kształt z ruchu (depth from motion) wykorzystanie zmian zawartości obrazu przy przemieszczaniu się kamery w pewnym sensie uogólnienie stereoskopii Pomiar głębi Metody pasywne głębia z ogniskowania (depth from focus) znajdowanie odległości od obiektu przez zmianę ogniskowej i testowanie ostrości ostrość w lokalnym wycinku obrazu moŝna zmierzyć mierząc udział składowych o wysokich częstotliwościach przestrzennych (nawet np. filtrami krawędziowymi) wady: wymaga kontroli ogniskowej, czasochłonne (nieakceptowalne w wideo) głębia z rozogniskowania (ang. depth from defocus): korzysta ze spostrzeŝenia, Ŝe niezogniskowany punkt obrazu ma kształt dysku; dysk ten moŝna opisać pewnym modelem, a pozyskując parametry tego modelu moŝna poznać odległość punktu (pod warunkiem znajomości parametrów optycznych kamery). Matematyczna analiza pokazuje, Ŝe wystarczą zaledwie dwa obrazy (o róŝnym rozogniskowaniu) aby otrzymać mapę głębi 31 32

Metody pasywne Zaleta: brak wymagania źródła promieniowania Wada: produkują wyniki częściowe, niepełne (np. tzw. rzadka mapa głębi) Lytro Light field photography (plenoptic photography) Wykorzystuje matrycę mikrosoczewek, które rzutują obraz na matryce detektorów. Rekonstrukcja obrazu odbywa się poprzez transformatę Fouriera. Cechy: MoŜliwość zmiany ustawienia ostrości po wykonaniu zdjęcia. Brak konieczności ustawiania ostrości przed wykonaniem zdjęcia, zatem krótszy czas reakcji. MoŜliwość ekstrakcji standardowych obrazów. Wysoka czułość (wynikająca z duŝej apertury). MoŜliwość rekonstrukcji obrazów 3D. case\lytro\cm Movie 2.mov