Podstawy Geomatyki Wykład X Image Processing I Platformy do obserwacji Ziemi i satelitarnych systemów globalnego pozycjonowania z odniesieniem do operacyjnej wysokości orbitalnej
Analogowe (fotograficzne) i cyfrowe (skanowanie) procesy uzyskiwania obrazów; Oba podejścia mają elementy wspólne Procesor realizuje cztery podstawowe funkcje: przyjęcie obrazu zapamiętanie obrazu właściwą obróbkę (przetwarzanie i analizę) obrazu wyświetlenie obrazu. Moduł wejściowy zamienia obraz na jego cyfrową reprezentację, akceptowaną przez procesor obrazu. Popularne są: kamery telewizyjne, które na wyjściu mają sygnał analogowy (najpowszechniej stosowane) kamery pracujące w innych standardach mające na wyjściu sygnał cyfrowy, gotowe do podłączenia bezpośrednio do magistrali systemów cyfrowych. Dodatkowo obraz wprowadzany bywa do procesora obrazu bezpośrednio z pamięci zewnętrznej (na przykład z pamięci cyfrowego aparatu fotograficznego). Do urządzeń wyjściowych należą wszelkiego rodzaju monitory oraz drukarki i inny sprzęt do tworzenia trwałych kopii (wydruków, fotografii, slajdów).
Zakres przetwarzanego promieniowania stosowanych przetworników CCD wynika z zastosowania w nich krzemu (Si) jako podstawowego materiału półprzewodnikowego. Rozciąga się on od 300 nm(ultrafiolet) do 1300 nm(bliska podczerwień) z maksimum w okolicach 750 nm. W celu dostosowania tej charakterystyki do czułości spektralnej oka ludzkiego (350 750 nmz maksymalną wartością 555 nm) stosuje się odpowiednie filtry optyczne. Wykres czułości spektralnej typowego elementu CCD. filtr Padająca energia Pojedynczy sensor Czujnik liniowy zasilanie obudowa Materiał fotoczuły Analogowe wyjście napięcia Czujnik matrycowy
Układ elektroniczny skanuje macierz wzdłuż wierszy i kolumn, podając na wyjściu elektryczny sygnał zawierający punkt po punkcie natężenie prądu dla każdej fotodiody. Generowanie obrazu cyfrowego 1. Obraz analogowy 2. Rozkład odcieni szarości na linii AB (ciągły skan obrazu analogowego) 3. Próbkowanie i kwantyzacja 4. Liniowy skan cyfrowy
rozdzielczość radiometryczna, w obraz o 2-, 3-i 4-bitowej skali szarości Ciągły obraz rzutowany na matrycę czujników i rezultat próbkowania i kwantyzacji. f ( x, y) Często przyjmowana konwencja dotycząca współrzędnych piksli analizowanego obrazu cyfrowego. f f = f ( 0,0) f ( 0,1) f ( 0, N 1) ( 1,0 ) f ( 1,1 ) f ( 1, N 1) ( M 1,0 ) f ( M 1,0) f ( M 1, N 1)
Ilość poziomów szarości k L = 2 Ilość bitów wymaganych do zapamiętania obrazu lub dla zdjęcia kwadratowego b = N 2 k b = M N k Liczba bitów koniecznych do zapamiętania obrazu dla różnych N i k. Systemy akwizycji danych Akwizycja centralna (macierzowa) W czujniku matrycowym detektory mają strukturę siatki w kształcie kwadratu lub prostokąta. Czujnik uzyskuje obraz tylko w jednej ekspozycji (więcej ekspozycji może być konieczne do uzyskania obrazów wielospektralnych). Tryb operacyjny jest podobny do tradycyjnych instrumentów fotogrametrycznych, ponieważ scena jest pozyskiwana jako całość, a nie punkt po punkcie lub linia po linii.
Akwizycja skanerem punktowym (ang. whiskbroom). Zbieranie danych i cyfrowa restytucja optyczno-mechanicznego urządzenia do skanowania punkt po punkcie (ang. whiskbroom). Satelity Landsati powietrzny hiperspektralnymivis wykorzystują tę technologię Akwizycja liniowym systemem skanowania. Trzy liniowe skanery cyfrowe Czujnik liniowy jest wykonany z ułożonych w szereg detektorów CCD. Skanowanie obiektu jest przeprowadzana linia po linii. Aby umożliwić pełne uzyskanie chromatycznego RGB w jednym kroku, stosuje się trzy liniowe matryce CCD, w których każda tablica detektorów ma odpowiednio filtry czerwony (R), zielony (G) i niebieski (B)
Akwizycja liniowym systemem skanowania (pushbroom). Macierz liniowa składa się z kilku CCD (Charge-CoupledDevice), które działają jednocześnie wzdłuż linii skanowania Geometria pushbroom: czujnik jest zwykle prostopadły do kierunku ruchu platformy. Obraz jest rejestrowany linia po linii (wzdłuż kierunku prostopadłego do ruchu platformy) umożliwiając uzyskiwanie obrazu ortograficznego (złożonego z linii równoległych) w kierunku lotu. Każda linia tworzy niezależny obraz charakteryzujący się własnym centrum akwizycji i postawy. SPOT, IRS i inne satelity komercyjne są wyposażone w tego typu systemy. Geometria panoramiczna: czujnik liniowy jest prostopadły do kierunku lot i skanuje prostopadle do ziemi. Takie systemy pozwalają na zachowanie wysokiej rozdzielczości dla dużych obszarów unikając złożonych systemów soczewek. Skanowanie każdej linii należy wykonać w czasie na tyle małym by nie przekroczyć pole widzenia określonego fragmentu obszaru w kierunku lotu. Geometria obrazu wyjściowego jest bardzo złożona (patrz rys obok): -skala obrazu zmienia się ze względu na dużą zmienność odległości czujnika między pozycjami nadir i horyzontalnej; -poprzeczny ruch skanowania dopasowany do postępu platformy indukuje dalsze deformacje; -systemy kompensacji ruchu przyczyniają się również do złożoności geometrii.
Korekcja radiometryczna Komórki lub piksele (element obrazu) są modelem obrazu wielospektralnego. Do podstawowych wielkości fotometrycznych zalicza się: strumień świetlny, światłość, natężenie oświetlenia i luminancję. Pierwsze dwa parametry związane są z źródłem światła, kolejne z samym światłem, a ostatnie z odbiorcą światła.
Światłość jest ilorazem strumienia świetlnego wysyłanego przez źródło w danym kierunku, w stożku o nieskończenie małym kącie rozwarcia obejmującym ten kierunek, do kąta bryłowego Ω tego stożka 1 cd płomień świecy 100 cd -żarówka 100 W, 500 cd -lampa sodowa wysokoprężna 70 W, 3 10 27 cd -Słońce na granicy atmosfery ziemskiej. Jednostką światłości jest kandela Kandela (z łac. candela świeca) jest to światłość, jaką ma w określonym kierunku źródło emitujące promieniowanie monochromatyczne o częstotliwości 5,4 1014 Hz(długość fali 555,17 nm) i o natężeniu energetycznym wynoszącym w tym kierunku Luminancja jest miarą jaskrawości postrzeganych obiektów. Luminancja jest oczywiście odpowiednikiem luminancji energetycznej (radiancji). Czasami luminancję określa się mianem jasności wizualnej. Jednostką luminancji jest nit (nt) : Luminancja L v danego elementu powierzchni świecącej w określonym kierunku jest to iloraz światłości elementarnego pola powierzchni w tym kierunku do pola powierzchni pozornej tego elementu Zależność pomiędzy luminancją (w wybranym kanale) a wartością rejestrowaną przez czujnik: L 0 (λ) = DN(λ) gain(λ) + offset(λ) L 0 (λ) : luminancja widmowa (W m -2 sr -1 μm -1 ) (spectralradiance) DN(λ) : liczba rejestrowana na czujniku [0,2 8 ] gain(λ):współczynnik wzmocnienia systemu(w m -2 sr -1 μm -1 DN -1 ) offset(λ) : współczynnik ruchu (W m -2 sr -1 μm -1 ) λ :długość fali lub zakres widmowy (μm)
(a) Idealny detektor ma liniową zależność między promieniowaniem a sygnałem. (b) W razie niedopasowania radiometrycznego między pasmami 1, 2, 3 i 4, wymagane są konkretne poprawki by uzyskać jednolite sygnały. Współczynnik kalibracji, wzmocnienia i przesunięcia są używane do konwersji cyfrowej sygnału określonego pasma widmowego (w fizycznych jednostkach promieniowania) Kalibracja czujnika: polowa, przed startem (w lab.); na pokładzie platformy kosmicznej, w trakcie lotu i pośrednim pobraniu danych w trakcie lotu (wew. system do kalibracji, układ lamp i filtrów); korzystanie z naziemnych elementów odniesienia (w trakcie lotu). Błędy skanowania (prążkowanie stripping, linebreak-brak linii, brak pikseli skip pixel) Efekt prążkowania otaczający wyspę Elba, Morze Tyrreńskie, Włochy, LandsatTM1, niebieski zakres 0,45 0,52 μm; a: poprawna kalibracja czujnika; b: striping z powodu utraty sygnału przez system; c: błąd radiometryczny czujnika LISS-III satelity IRS- 1C, rozdzielczość gruntu 5,6 m i 6 bitów interwału dynamicznego; paski nie są pionowe, ponieważ obraz jest korygowany geometrycznie
Zniekształcenia w zależności od wysokości, prędkości i postawy platformy Obrazy uzyskane przez kamery umieszczone na pokładzie samolotu podlegają silniejszym zniekształceniom niż te uzyskane z pokładu satelity w związku z niestabilnością postawy platformy (toczenie, nachylenie, obrót, odchylenie i zmiany wysokości względnej lotu) w odniesieniu do wysokości lotu samolotu. Samoloty są podatne na zjawiska atmosferyczne, takie jak prądy powietrzne, powodując nagłą wysokość i ogólne zmiany postawy, powodując zniekształcenia rejestrowanych obrazów. Zniekształcenie panoramiczne Skanery używane do akwizycji przestrzennych w pionie mają stałe natychmiastowe pole widzenia (IFOV) zależne od odległości h. W każdym innym systemie akwizycji IFOV obejmuje większe obszary daleko od pionu (nadir), stąd występuje utrata informacji przez kompresję i zniekształcenie relacji między pikselem naziemnym a odtwarzanym pikselem obrazu (efekt panoramiczny) Zależność kąta skanowania od rozmiaru piksela dla stałego IFOV
Zniekształcenia geometryczne na skutek obrotu Ziemi i jej zakrzywienia Skanery punktowe i liniowe wymagają określonego czasu na uzyskanie danych w każdej linii skanowania. Akwizycja odbywa się wzdłuż kierunku północ-południe Ziemia obraca się z zachodu na wschód, a więc jest konieczne jest stopniowe skracanie linii skanowania w stosunku do podłoża ruch. x = ν T t cos α Wielkość przesunięcia się linii na zachód x zależy od czasu skanowania pojedynczej sceny t, prędkości względne Ziemi i satelity v T i sredniejszerokości geograficznej α. Istotne dla satelitów na wyższych orbitach Envisat, Spot-Vegetation, NOAA-AVHRR (ok 800km). Na zdjęciach NOAA obejmujących 2700 km 2 uzyskanych z wysokości 833 km, piksel na granicy sceny ma obszar 2,89 razy większy niż w nadir (bez uwzględniania zakrzywienia Ziemi). Jeśli ziemski efekt krzywizny nie jest ignorowany i brany jest pod uwagę razem z efektem zniekształcenia panoramicznego, to obszar piksela na brzegach jest 4,94 razy większy niż w nadir. Porównanie zdalnie rejestrowanych obrazów satelitarnych uzyskanych przez różne czujniki z różnych pozycji jest możliwe tylko w wypadku zdefiniowania wspólnego systemu odniesienia Celem jest osiągnięcie prawidłowej relacji geometrycznej przy: rejestracji dwóch obrazów tego samego obszaru uzyskanych w innym czasie; georeferencja map i obrazów: obraz i referencyjna mapa topograficzna. Każda transformacja geometryczna jest przeprowadzana w dwóch fazach: identyfikacja matematyczno-geometrycznego modelu transformacji i ocena parametrów tego modelu (analiza) aplikacja (synteza) modelu strukturalnego z wykorzystaniem resamplinguradiometrycznego (procedura przypisywania tonów radiometrycznych do nowego przekształconego obrazu). Georeferencja obrazu w oparciu o zdefiniowany układ współrzędnych przy użyciu punktów kontroli naziemnej (GCP). N, E: współrzędne geograficzne; x, y: współrzędne obrazu
Resampling (ponowne próbkowanie) - proces używany do oszacowania wartości obrazu w miejscu między pikselami obrazu lub w nowych pikselach. Interpolacja najbliższego sąsiada. Pikselom są przypisywane wartości najbliższych (w sensie geometrycznym) pikseli. Żadne inne piksele nie są brane pod uwagę. Interpolacja dwuliniowa Wyjściowe wartości pikseli są obliczane ze średniej ważonej pikseli w najbliższej okolicy 2 na 2. Interpolacja dwukwadratowa Wyjściowe wartości pikseli są obliczane ze średniej ważonej pikseli w najbliższym sąsiedztwie 4 na 4. Resampling Resamplingtrzema algorytmami: (a) najbliższego sąsiada (ang. nearestneighbour), (b) dwuliniowy (ang. bilinear) i (c) dwukwadratowy (ang. bicubic)
Transformacja projekcji z położenia centralnego (P ) do ortogonalnego (P ) dla punktu P umieszczonego na stoku wzniesienia. korekta