2. Zarys metody SIFT (Scale Invariant Feature Transform)

Podobne dokumenty
Wyszukiwanie punktów charakterystycznych na potrzeby ³¹czenia zdjêæ lotniczych***

Detekcja punktów zainteresowania

Rozpoznawanie obiektów z użyciem znaczników

COMPARISON OF THE ACCURACY OF SELECTED METHOD OF AIR IMAGE MATCHING. Piotr Pawlik 1, Sławomir Mikrut 2

Implementacja filtru Canny ego

Porównanie dok³adnoœci metod wyznaczania punktów charakterystycznych na parach zdjêæ lotniczych***

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Deskryptory punktów charakterystycznych

Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Aerotriangulacja. 1. Aerotriangulacja z niezależnych wiązek. 2. Aerotriangulacja z niezależnych modeli

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Wstęp do Informatyki zadania ze złożoności obliczeniowej z rozwiązaniami

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change

Ocena możliwości wykorzystania deskryptorów cech lokalnych obrazu twarzy w zadaniu automatycznej identyfikacji osób

Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.

W poszukiwaniu sensu w świecie widzialnym

Przetwarzanie obrazów rastrowych macierzą konwolucji

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 9 AiR III

METODY INŻYNIERII WIEDZY

Pattern Classification

Jakość danych pomiarowych. Michalina Bielawska, Michał Sarafin Szkoła Letnia Gdańsk

10. Redukcja wymiaru - metoda PCA

Akademia Górniczo - Hutnicza im. Stanisława Staszica w Krakowie. Projekt. z przedmiotu Analiza i Przetwarzanie Obrazów

Wykrywanie twarzy na zdjęciach przy pomocy kaskad

SYSTEM BIOMETRYCZNY IDENTYFIKUJĄCY OSOBY NA PODSTAWIE CECH OSOBNICZYCH TWARZY. Autorzy: M. Lewicka, K. Stańczyk

Hierarchiczna analiza skupień

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

METODY INŻYNIERII WIEDZY

Wyższa Szkoła Informatyki Stosowanej i Zarządzania

Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D

Zadanie 3: Liczenie winogron

Podstawy programowanie systemów wizyjnych InSight firmy Cognex. Środowisku InSight Explorer / Spreadshee

Ćw. 18: Pomiary wielkości nieelektrycznych II

Optymalizacja ciągła

W OPARCIU JEDNOWIĄZKOWY SONDAŻ HYDROAKUSTYCZNY

Komunikacja Człowiek-Komputer

Przetwarzanie obrazu

Zastosowanie zobrazowań SAR w ochronie środowiska. wykład IV

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Ćw. 18: Pomiary wielkości nieelektrycznych II

Rozkład Gaussa i test χ2

LI OLIMPIADA FIZYCZNA ETAP II Zadanie doświadczalne

Przekształcenia punktowe

Weryfikacja hipotez statystycznych

Metody systemowe i decyzyjne w informatyce

Diagnostyka obrazowa

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia. Mgr inż.

Kalibracja kamery. Kalibracja kamery

Ćw. 18: Pomiary wielkości nieelektrycznych II

CYFROWA METODA BUDOWY NUMERYCZNEGO MODELU TERENU.

Ćwiczenie: "Pomiary rezystancji przy prądzie stałym"

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

AUTOMATYCZNA IDENTYFIKACJA ELEMENTÓW LINIOWYCH NA OBRAZACH CYFROWYCH *

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

PRÓBA SUBPIKSELOWEJ LOKALIZACJI LINII KONTUROWYCH Z WYKORZYSTANIEM DRUGIEJ POCHODNEJ OBRAZU CYFROWEGO

POLITECHNIKA OPOLSKA

Ćwiczenie 6. Transformacje skali szarości obrazów

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

Sztuczna inteligencja i inżynieria wiedzy. laboratorium

LABORATORIUM 9 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

SYLABUS/KARTA PRZEDMIOTU

Testowanie hipotez statystycznych

Przetwarzanie obrazów wykład 4

POLITECHNIKA OPOLSKA

Filtracja obrazu operacje kontekstowe

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

EGZAMIN MATURALNY W ROKU SZKOLNYM 2017/2018 INFORMATYKA

Akwizycja obrazów HDR

10.3. Typowe zadania NMT W niniejszym rozdziale przedstawimy podstawowe zadania do jakich może być wykorzystany numerycznego modelu terenu.

Rozdział 7 ZARZĄDZANIE PROJEKTAMI

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 12 AiR III

Podstawy Przetwarzania Sygnałów

i ruchów użytkownika komputera za i pozycjonujący oczy cyberagenta internetowego na oczach i akcjach użytkownika Promotor: dr Adrian Horzyk

Wtyczka Crop3D. Wstęp. Implementacja. Sprawozdanie z realizacji projektu Bartłomiej Trzewiczek Kraków,

Œledzenie obszarów zainteresowania w sekwencjach obrazów bronchoskopowych za pomoc¹ metody SIFT***

Szacowanie wartości monet na obrazach.

KADD Minimalizacja funkcji

IMPLEMENTACJA I TESTOWANIE PROCEDURY AUTOMATYCZNEGO ŚLEDZENIA KRAWĘDZI NA OBRAZACH CYFROWYCH

9. Podstawowe narzędzia matematyczne analiz przestrzennych

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10

1. Tilt-shift. TEMAT PROJEKTU Tilt-shift - aplikacja na system mobilny ios

AUTOMATYCZNE ROZPOZNAWANIE PUNKTÓW KONTROLNYCH GŁOWY SŁUŻĄCYCH DO 3D MODELOWANIA JEJ ANATOMII I DYNAMIKI

KOREKCJA OBRAZÓW CYFROWYCH DLA OPTYMALIZACJI ICH AUTOMATYCZNEGO POMIARU 1

X Y 4,0 3,3 8,0 6,8 12,0 11,0 16,0 15,2 20,0 18,9

Agnieszka Nowak Brzezińska

W PŁYW R O Z D Z IELCZO ŚC I SK A NOW ANIA ZDJĘĆ L O TN IC ZY C H NA D O K Ł A D N O ŚĆ O DW ZO RO W ANIA SZC ZEG Ó ŁÓ W

Filtrowanie tekstur. Kinga Laurowska

Analiza obrazów - sprawozdanie nr 2

Proste pomiary na pojedynczym zdjęciu lotniczym

PRÓBA SUBPIKSELOWEJ LOKALIZACJI LINII KONTUROWYCH Z WYKORZYSTANIEM DRUGIEJ POCHODNEJ OBRAZU CYFROWEGO

Ćwiczenie M-2 Pomiar przyśpieszenia ziemskiego za pomocą wahadła rewersyjnego Cel ćwiczenia: II. Przyrządy: III. Literatura: IV. Wstęp. l Rys.

Wyższa Szkoła Informatyki Stosowanej i Zarządzania

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Transkrypt:

PIOTR PAWLIK *, SŁAWOMIR MIKRUT ** WYSZUKIWANIE PUNKTÓW CHARAKTERYSTYCZNYCH NA POTRZEBY ŁĄCZENIA ZDJĘĆ LOTNICZYCH *** 1.Wstęp Artykuł dotyczy problemu dopasowania fotogrametrycznych zdjęć lotniczych. Istotą zagadnienia jest znalezienie i pomiar odpowiednich punktów charakterystycznych na dwóch zdjęciach lotniczych (fotogrametrycznych), wykonanych z odpowiedniej bazy. Pomiar tych punktów jest niezbędny do opracowań fotogrametrycznych (wykonywania map cyfrowych, cyfrowych modeli terenu itp.). Wyszukiwanie i pomiar tych punktów w sposób automatyczny pozwoli na podniesienie efektywności opracowań mapowych. W literaturze podanych jest kilka podejść pozwalających na wykonywanie tego typu prac [4]. W niniejszym artykule podjęto próbę wykorzystania metody Scale Invariant Feature Transform (SIFT) [1][2][3]. Metoda SIFT należy do metod detekcji stabilnych cech lokalnych i jest wykorzystywana m.in. do automatycznego tworzenia zdjęć panoramicznych, wyszukiwania wzorcowych obiektów na obrazach cyfrowych, nawigacji robotów (również w zastosowaniach przemysłowych). Przewagę tej metody nad innymi sposobami opisu punktów charakterystycznych potwierdzają m.in. badania Mikolajczyka i Schmid [5]. W celu rozwiązania problemu znalezienia odpowiadających sobie punktów na parze zdjęć lotniczych opracowano celu opracowano algorytm oparty na metodzie SIFT oraz dokonano jego wstępnej implementacji i weryfikacji. 2. Zarys metody SIFT (Scale Invariant Feature Transform) Metoda SIFT, zaproponowana przez Davida Lowe [1][2], znajduje stabilne cechy lokalne (punkty charakterystyczne) bazując na stworzeniu piramidy obrazów o coraz mniejszej rozdzielczości. Obrazy tworzące piramidę są obrazami różnicowymi. Są one uzyskiwane w wyniku odjęcia dwóch obrazów powstałych przez przefiltrowanie obrazu początkowego filtrami Gaussa o różnych parametrach Operacja ta jest zatem rodzajem filtracji górnoprzepustowej, a uzyskane obrazy są obrazami gradientowymi. Piramida jest podzielona na tzw. oktawy. Obrazy składające się na jedną oktawę posiadają tą samą rozdzielczość, a różnią się wielkością zastosowanego filtru Gaussa. W kolejnej oktawie znajdują się obrazy o zmniejszonej rozdzielczości przefiltrowane tymi samymi filtrami. * * Katedra Automatyki., AGH, Kraków, e-mail: piotrus@agh.edu.pl * ** Zakład Fotogrametrii i Informatyki Teledetekcyjnej AGH, Kraków, smikrut@agh.edu.pl *** Pracę wykonano w ramach grantu KBN nr 4 T12E 001 27

Cechami lokalnymi są minima i maksima wyszukiwane w obrazach piramidy, poddane następującym ograniczeniom: jasność punktów musi przekraczać zadany próg punkty nie mogą leżeć wzdłuż linii prostej Dla tak wyznaczonych punktów oblicza się wektor cech, będący rodzajem histogramu gradientów liczonych w ich otoczeniu. Takie cechy są w dużej mierze niewrażliwe na natężenie oświetlenia (ze względu na użycie gradientów), obrót (kierunek gradientów zapisuje się względem kierunku gradientu punktu charakterystycznego) i skalę (dzięki stosowaniu piramidy DOG Difference of Gaussian). Tak uzyskane wektory cech stanowią pewien opis obrazu. Porównując opisy dwóch obrazów można (np. metodą najbliższego sąsiada) znaleźć wspólne cechy (punkty charakterystyczne) obu obrazów. 3. Algorytm wyszukiwania najlepszych punktów wspólnych pary zdjęć lotniczych Proponowany algorytm bazuje na fakcie, iż metoda SIFT znajduje wiele wspólnych punktów charakterystycznych pary zdjęć lotniczych. Pozwala to na ich dokładną analizę statystyczną w celu odrzucenia (niewielu) błędnych detekcji metody SIFT oraz umożliwia wybór najlepszych punktów spośród wielu kandydatów (rys.1). Warto zwrócić uwagę na fakt, iż zdecydowana większość znalezionych punktów leży poza obiektami o znacznej wysokości (np. budynki). Ma to niebagatelne znaczenie dla algorytmu łączącego zdjęcia, gdyż nie wprowadza zniekształceń spowodowanych kątem widzenia tych obiektów.

Rys.1..Fragmenty porównywanych zdjęć lotniczych wraz z wyznaczonymi metodą SIFT punktami charakterystycznymi W pierwszej fazie algorytmu następuje ocena przesunięcia kątowego obu zdjęć. Pozwala to wstępnie odrzucić punkty, które zostały błędnie wykryte przez metodę SIFT (wykazujące dużą niezgodność kąta obrotu). Druga faza polega na sprawdzeniu dokładności wyznaczenia współrzędnych proponowanych przez SIFT par punktów za pomocą korelacji ich otoczeń. Warto zauważyć, że korelacja ta może zostać znacznie uproszczona ze względu na znajomość przesunięcia kątowego obu zdjęć wyznaczonego w pierwszej fazie algorytmu. Jeżeli przesunięcie to jest niewielkie (a tak zazwyczaj jest w wypadku zdjęć lotniczych), to wystarczy sprawdzić korelację otoczeń pary punktów. W przeciwnym wypadku należałoby dokonać korekty jednego z otoczeń (maski korelacji), obracając go o wyliczony kąt. W obu przypadkach unika się czasochłonnej korelacji uwzględniającej wszystkie możliwe obroty maski. Realizacja pierwszej fazy polegała na obliczeniu dyspersji kąta obrotu dla wszystkich par punktów charakterystycznych. Wektor utworzony przez współrzędne punktów z pierwszej wyznaczonej przez metodę SIFT pary był brany jako wektor przesunięcia pomiędzy oboma obrazami. Natomiast współrzędne pierwszego punktu pary stanowiły środek obrotu. Dane te posłużyły do wyliczenia kątów obrotu w pozostałych parach punktów charakterystycznych i policzenia wartości oczekiwanej kąta obrotu oraz odchylenia standardowego. Duża dyspersja świadczyła o błędnym sparowaniu punktów przez metodę SIFT. Taka para została odrzucana, a obliczenia ponawiano dla kolejnej pary punktów. Powyższa metoda pozwala na skuteczne wyeliminowanie błędnych par punktów charakterystycznych.

W implementacji drugiej fazy algorytmu zdecydowano się na prostą korelację otoczeń odpowiadających sobie punktów charakterystycznych obu obrazów. Ze względu na to, że wzajemny obrót testowanych zdjęć nie przekraczał 3 stopni zdecydowano się nie wprowadzać korekty obrotu do maski korelacji. Użyto maski korelacji o rozmiarze 10x10 pikseli. 4. Wyniki testowania poprawności wyznaczenia współrzędnych punktów charakterystycznych. Dla przetestowania algorytmu opisanego w poprzednim punkcie użyto danych pozyskanych z kilku par zdjęć lotniczych, z których wycięto fragmenty pokrywające się w około 60 procentach. Wycięcie fragmentów było spowodowane chęcią sprawdzenia algorytmu na obrazach testowych (zdjęć) w ich naturalnej rozdzielczości (tzn. 600 dpi, w wypadku użytych zdjęć lotniczych oznaczało to obrazy o rozdzielczościach około 5400x5400 pikseli). Do wyznaczania punktów charakterystycznych użyto oryginalnego oprogramowania autora metody SIFT, które nie posiada możliwości przetwarzania tak dużych obrazów. Z tego względu konieczny był podział zdjęć na fragmenty. Użycie własnej implementacji metody SIFT, pozbawionej tego ograniczenia, jest planowane w trakcie dalszych badań. W sumie uzyskano 102 pary obrazów o rozdzielczości 3980x200 pikseli. Iloœæ punktó 18000 16000 14000 12000 10000 8000 6000 4000 2000 0 0 1 2 3 4 5 6 7 8 9 ¹ cznie 15570 10620 856 309 155 129 50 6 0 0 Do 2 oktaw y 10811 6840 219 62 29 27 10 1 0 0 Pow. 2 okt. 4759 3780 637 247 126 102 40 5 0 0 Odleg³oœæod maksimum korelacji Rys.2.. Histogramy odległości pomiędzy punktami wyznaczonymi przez metodę SIFT, a punktami maksimum korelacji

Jak to zostało opisane, poprawność dopasowania wykrytych par punktów sprawdzono przy pomocy korelacji. Rysunek 2 przedstawia histogramy różnic pomiędzy współrzędnymi punktów wyznaczonymi przez metodę SIFT, a współrzędnymi maksimum korelacji. Histogramy zostały liczone osobno dla oktaw do 2 (wysokie rozdzielczości) i pozostałych (niższe rozdzielczości). Widać tu gwałtowny spadek liczby punktów o odległościach od maksimum korelacji większych niż dwa piksele. Analizując otrzymane rezultaty (por. Tab. 1) można zauważyć, że współrzędne większości punktów znajdowane są przez metodę SIFT poprawnie (odległość jest mniejsza niż dwa piksele). Pozostałe punkty, dla których odległości przekraczają dwa piksele stanowią 5,75% liczby wszystkich punktów. Tabela 1. Sumaryczne zestawienie punktów (par) o odległościach do 2 pikseli od maksimum korelacji Łączna liczba par Liczba par odl. do 2 pikseli Procent par odl. do 2 pikseli Do 2 oktawy 17651 348 1,93 Pow. 2 okt. 8539 1157 11,93 Łącznie 26190 1505 5,43 Jeżeli jednak uwzględni się podział punktów w zależności od oktawy, dla której zostały wyznaczone, okazuje się, że liczba punktów o odległości przekraczającej dwa piksele stanowi jedynie niespełna 2% liczby wszystkich punktów niskich oktaw. W przypadku oktaw wyższych (powyżej drugiej) liczba punktów przekraczających graniczną odległość rośnie do 13,55%. Uzyskany wynik sugeruje, że dla wyznaczenia par punktów przydatnych do łączenia dwóch zdjęć lotniczych bardziej odpowiednie są pary wyznaczone dla niskich oktaw (wyznaczone w wysokich rozdzielczościach). W takich przypadkach wyznaczone pary powinny w zupełności wystarczyć do wyliczenia wzajemnego położenia dwóch zdjęć lotniczych. 5.Zakończenie Dalsze prace skupią się na dokładnej analizie par punktów celem wyznaczenia tych par, które zajmują korzystne położenie (na obrzeżach wspólnego obszaru obu zdjęć) oraz zawierają w swoim otoczeniu unikalne wzorce pozwalające na dokładne wyznaczenie współrzędnych podpikselowych. Duża liczba pozostałych kandydatów powinna także pozwolić na dalszą, dokładniejszą analizę statystyczną celem wychwycenia par leżących na

podobnym poziomie ziemi. Planuje się również własną implementację metody SIFT ze względu na wspomniane ograniczenia oryginalnego programu dotyczące przetwarzania zdjęć dużej rozdzielczości. Własna implementacja pozwoli na skupienie się na parach wyznaczanych w niskich oktawach (co jest bezpośrednim wnioskiem z niniejszego artykułu) Ponadto będzie w niej można zastosować sieci neuronowe celem przyspieszenia znajdowania par punktów charakterystycznych. Literatura [1] Lowe D.G., Object recognition from local scale-invariant features, International Conference on Computer Vision, str. 1150-1157, 1999. [2] Lowe D.G., Distinctive image features from scale-invariant keypoints, International Journal of Computer Vision, 60, 2, str. 91-110, 2004. [3] Ke Y., Sukthankar R., PCA-SIFT: A More Distinctive Representation for Local Image Descriptors, Computer Vision and Pattern Recognition, 2004. [4] Kraus K., Photogrammetry, Photogrammetry, Ferd. Dümmlers Verlag, Bonn, 1997. [5] Mikolajczyk K., Schmid C., A performance evaluation of local descriptors, Proceedings of the 2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2003.