Teledetekcja w ochronie środowiska Wykład 2
TELEDETEKCJA teledetekcja «dziedzina nauk technicznych zajmująca się pozyskiwaniem wiarygodnych informacji o obiektach fizycznych i ich otoczeniu drogą rejestracji pomiaru i interpretacji obrazów lub ich reprezentacji numerycznych otrzymanych z sensorów nie będących w bezpośrednim kontakcie z tymi obiektami.» [Międzynarodowe Towarzystwo Fotogrametrii i Teledetekcji, definicja podana na XVI Kongresie w Kioto w 1988r] teledetekcja «Dziedzina zajmująca się pozyskiwaniem i przetwarzaniem geoinformacji uzyskanych na podstawie rejestracji odbitego lub emitowanego promieniowania elektromagnetycznego. Teledetekcja wykorzystuje urządzenia naziemne lub umieszczone na satelitach.» [www.karto.pl] http://www.nature.com/nclimate/journal/v3/n10/fig_tab/nclimate1908_f1.html?foxtrotcallback=true
TELEDETEKCJA Nie wszystkie długości fal mają zastosowanie w teledetekcji. Dla niektórych długości fal znaczna część promieniowania ulega absorpcji i/lub rozproszeniu w atmosferze.
TELEDETEKCJA okna atmosferyczne https://commons.wikimedia.org/wiki/file:atmosph%c3%a4rische_absorption.png
TELEDETEKCJA Metody aktywne Metody pasywne
TELEDETEKCJA metody pasywne Metody pasywne: umożliwiają monitoring Ziemi tylko w ciągu dnia; są bardzo czułe na warunki atmosferyczne;
Fragment spektrum elektromagnetycznego [1] światło widzialne (długość fali od 4x10-7 m do około 7x10-7 m) [2] promieniowanie podczerwone (długość fali od 7x10-7 m do 2x10-3 m)
Rozdzielczość spektralna Rozdzielczość spektralna określa liczbę kanałów spektralnych oraz ich rozpiętość, które rejestrowane są przez satelitę. Im większa rozdzielczość spektralna tym więcej informacji możemy uzyskać o obrazowanej powierzchni. Wyróżniamy: Dane multispektralne (kilka kanałów) Dane hiperspektralne (do kilkuset kanałów) Dane ultraspektralne (tysiące kanłów) http://www.markelowitz.com/hyperspectral.html Opis ilościowy (stopień wilgotności) Poznanie charakterystyki (badanie zmienności parametru np. wilgotności) Identyfikacja (np. rozpoznanie materiału, z którego zbudowany jest obiekt) Klasyfikacja (pogrupowanie obiektów na podstawie pewnych cech) Detekcja obiektów (stwierdzenie występowania obiektu)
Rozdzielczość przestrzenna Rozdzielczość przestrzenna określa wielkość piksela, czyli pojedynczego elementu obrazu. Decyduje ona o wielkości najmniejszego obiektu rozróżnialnego na zdjęciu. Często zdarza się, że jeden piksel pokrywa więcej niż jeden typ pokrycia terenu. Mamy wtedy do czynienia z mixed pixel. Im więcej mixed pixel znajduje się na analizowanym zdjęciu tym trudniejsza jest jego interpretacja. Rozdzielczość przestrzenna Zawartość mixed pixel A (wysoka) 12% B 26% C 34% D (niska) 47%
Mixed pixels
Rozdzielczość czasowa Rozdzielczość czasowa określa, dla danego satelity, samego obszaru. co ile dni można uzyskać zdjęcie satelitarne tego Początkowo rozdzielczość czasowa wynosiła kilkanaście dni (16 dni dla satelity Landsat). Obecnie istnieje możliwość pozyskiwania zobrazowań z sąsiednich orbit co znacznie skraca czas rewizyty. Dodatkowo pojawiają się systemy składające się z kilku satelitów podobnego typu umieszczonych na zsynchronizowanych orbitach (np. 3 satelity SPOT, 5 satelitów RapidEye). Dzięki lepszej rozdzielczości czasowej, niekorzystane warunki atmosferyczne nie stanowią już tak dużego problemu. Istnieje też możliwość lepszego monitoringu krótkotrwałych zjawisk takich jak powodzie, czy pożary. RapidEye (www.dlr.de)
Rozdzielczość radiometryczna Rozdzielczość radiometryczna opisuje cyfrowy sposób zapisu informacji. Zdjęcia w odcieniach szarości rejestrowane są zwykle jako obrazy 8-bitowe (256 tonów szarości). Istnieją również wysokorozdzielcze zobrazowania satelitarne 11-bitowe (2048 tonów szarości). Obrazy barwne mogą od 8 do nawet więcej niż 24 bitów (16,7 mln barw). http://www.seos-project.eu/modules/remotesensing/remotesensingc03-p04.html
LANDSAT 8 NASA Koszt 85 mln dol. Umieszczony na orbicie od 2013 roku (dołączył do satelity Landsat 7, który znajduje się na orbicie od 1999) Pozyskuje około 400 zdjęć dziennie Czas rewizyty: 16 dni Wysokość orbity 705 km Wielkość sceny: 170 km x 185 km Rozdzielczość przestrzenna: od 15 m do 100 m [30 m] Rozdzielczość radiometryczna: 12 bitów (4095) Dane rozpowszechniane nieodpłatnie Pozwala badać różne procesy zachodzące na Ziemi naturalne zjawiska, katastrofy, skutki zmian klimatycznych czy działalności człowieka. http://landsat.usgs.gov
LANDSAT ETM OLI Dwa nowe kanały w Landsat 8: Kanał 1 - Coastal / Aerosol ( do oceny stężenia aerozoli w atmosferze oraz do dokładniejszej oceny wód,szczególnie przybrzeżnych) Kanał 9 Cirrus, (wykrywania chmur) http://gisiokolice.blogspot.com
LANDSAT Thermal InfraRed Sensor - TIRS http://landsat.usgs.gov/l8_band_combos.php
LANDSAT Archiwa danych Landsat: EarthExplorer: http://earthexplorer.usgs.gov Global Visualization Viewer (GloVis): http://glovis.usgs.gov LandsatLook Viewer: http://landsatlook.usgs.gov
RapidEye System złożony z 5 satelitów Umieszczony na orbicie w 2008 r Wysokość orbity: 630 km Rozdzielczość przestrzenna: od 5m Szerokość pasa zobrazowania: 77 km Czas rewizyty: 5,5 dnia pięć kanałów spektralnych (w tym dwa zakresy podczerwieni Rozdzielczość radiometryczna: 12 bitów https://directory.eoportal.org/web/eoportal/satellite-missions/r/rapideye http://progea.pl
RapidEye Katalog danych: eyefind.rapideye.com
RapidEye https://directory.eoportal.org/web/eoportal/satellite-missions/r/rapideye
IKONOS Umieszczony na orbicie w 1999 Pierwszy satelita pozyskujący zobrazowania o rozdzielczości 1 m (kanał panchromatyczny) i 4 m (kanały spektralne) Rozdzielczość czasowa: 3-5 dni Obszar odwzorowany na jednym zdjęciu: 11 11 km 4 kanały spektralne 450-900 nm (panchromatyczny) 450-530 nm (niebieski) 520-610 nm (zielony) 640-720 nm (czerwony) 770-880 nm (bliska podczerwień) Wysokość orbity: 681 km Rozdzielczość radiometryczna: 11 bitów http://www.exelisinc.com/solutions/ikonos/pages/default.aspx
WorldView - 2 Umieszczony na orbicie w 2009 Wysokość orbity: 770 km Rozdzielczość przestrzenna: kanał panchromatyczny - 0,46 m kanały wielospektralne - 1,84 m Wielkość sceny: 16,4 x 16,4 km Rozdzielczość czasowa od 1.1 dnia do 3.7 dnia Rozdzielczość spektralna 450-800 nm (panchromatyczny) 400-450 nm (pasmo niebieskie do obserwacji wód przybrzeżnych) 450-510 nm (niebieski) 510-580 nm (zielony) 585-625 nm (zółty) 630-690 nm (czerwony) 705-745 nm (skraj czerwonego widma) 770-895 nm (bliska podczerwień) 860-1040 nm (bliska podczerwień 2 / SWIR http://www.satimagingcorp.com/satellite-sensors/worldview-2/
WorldView - 2
Etapy przetwarzania zdjęć satelitarnych/lotniczych Każdy projekt dotyczący przetwarzania danych satelitarnych wymaga indywidualnego podejścia. Dane wejściowe oraz metody ich przetwarzania powinny być dobrane w zależności od celu opracowania, rozdzielczości i dokładności oczekiwanego wyniku. Główne operacje przetwarzania zdjęć satelitarnych/lotniczych : Korekcja radiometryczna Korekcja geometryczna Analizy zmierzające do wydobycia jak największej ilości informacji o badanym obiekcie/zjawisku
Korekcja radiometryczna Korekcja radiometryczna polega na usunięciu błędów zapisu oraz umożliwienie odniesienia wartości spektralnych pikseli do parametrów, które chcemy pozyskać z danego zdjęcia. Jej celem jest uzyskanie wiarygodnych informacji o odbitym promieniowaniu elektromagnetycznym w postaci współczynnika odbicia (transformacje zarejestrowanych przez detektor jasności pikseli Digital Number (DN) do współczynnika odbicia obiektu). Moc sygnału odbieranego przez detektor na poziomie satelity zależy m.in. od: oświetlenia terenu, warunków atmosferycznych, geometrii obserwacji oraz wykorzystanego instrumentu. Usunięcie dystorsji radiometrycznych spowodowanych błędami w transmisji danych (błędne linie, błędne piksele). Kalibracja detektora Korekcja atmosferyczna Korekcja słoneczna uwzględnia wpływ położenia Słońca. Korekcja topograficzna - uwzględnia wpływ deniwelacji terenu i zacienienie.
Korekcja radiometryczna Korekcja radiometryczna często utożsamiana jest z usuwaniem błędów radiometrycznych (opuszczone linie, piksele, efekt prążkowania) lub procesem poprawy jakości wizualnej wyświetlanego obrazu. Istotą korekcji radiometrycznej jest jednak uzyskanie poprawnej radiometrii obrazu, która odzwierciedla rzeczywiste własności obiektów naziemnych bez czynników zakłócających rejestrację danych satelitarnych. K. Osińska-Skotak: Znaczenie korekcji radiometrycznej w procesie przetwarzania zdjęć satelitarnych, Archiwum Fotogrametrii, Kartografii i teledetekcji, vol. 17b, 2007.
Korekcja geometryczna Korekcja geometryczna polega na usunięciu dystorsji obrazu oraz wpasowanie zdjęcia w mapy. Zniekształcenia wywołane są m.in. przez ruch samolotu, czy satelity. http://www.a-a-r-s.org/aars/proceeding/acrs2000/papers/dph00-12.htm Korekcja geometryczna polega na zmianie położenia pikseli. Każdy piksel podlega indywidualnej korekcji. Do korekcji wykorzystuje się informacje, które zapisywane podczas lotu samolotu przez wewnątrzpokładowy system nawigacji. Dodatkowo wykorzystuje się NMT (Numeryczny Model Terenu). Na podstawie tych informacji tworzony jest plik pozycjonowania każdego piksela. Proces korekcji geometrycznej wymaga przepróbkowania pikseli.
Krzywe spektralne Krzywe spektralne - charakterystyka współczynnika odbicia w zależności od długości fali. Zakłada się, że krzywe spektralne poszczególnych badanych obiektów wykazują różnice wystarczające do ich rozróżnienia. Należy jednak zawsze brać pod uwagę, że na odpowiedzi spektralne wpływa wiele czynników jak np. wilgotność, temperatura itp. http://home.agh.edu.pl/~galia/students/ns/teledetekcja_w_skrocie.pdf
Zobrazowania optyczne. Kompozycje barwne. Kompozycje barwne umożliwiają łatwiejszą rozpoznawanie obiektów terenowych na zdjęciach satelitarnych. W zależności od zakresów spektralnych, z jakich składa się kompozycja, uwidocznione są inne elementy środowiskowe obserwowanej sceny. RGB Wyróżnić można podstawowe kompozycje barwne (1 kanał niebieski, 2 kanał zielony, 3 kanał czerwony, 4 bliska podczerwień, 5 średnia podczerwień, 6 termalny, 7 średnia podczerwień, 8 obraz panchromatyczny ) : 3 2 1 (barwy naturalne) 4 3 2 (Służy m.in. do analizy rozkładu, ilości i typu roślinności. Roślinność na tej kompozycji ma barwę czerwoną, która pozwala wyróżnić obszary zielone od reszty szczegółów terenowych.) 7 4 2
Kompozycje barwne http://twiki.fotogrametria.agh.edu.pl/pub/dydaktyka/telmaterst/wyklad_05.pdf
Kompozycje barwne
Interpretacja wizualna Interpretacja wizualna dotyczy zarówno zdjęć czarno-białych jak również barwnych. W tym drugim przypadku istnieje większa szansa na wydzielenie większej liczby klas. Istotne jest zachowanie kolejności wyróżniania obiektów: Elementy liniowe (drogi, koleje, rzeki) Elementy naturalne (lasy, jeziora, pola uprawne) Obiekty antropogeniczne Interpretacja wizualna: Czasochłonna Zapewnia zwykle większą dokładność opracowań W procesie rozpoznawania obiektów wykorzystuje się takie czynniki jak: Ton Kształt Wielkość Wzór (deseń) Tekstura Cień
Klasyfikacja Klasyfikacja zdjęć satelitarnych/lotniczych: Nienadzorowana Nadzorowana W klasyfikacji nienadzorowanej algorytm automatycznie grupuje piksele o podobnych własnościach spektralnych. Użytkownik może zdefiniować, jakie informacje (kanały spektralne) zostaną włączone do klasyfikacji i ile klas ma zostać zidentyfikowanych. Po dokonaniu klasyfikacji wyróżnionym klasom przypisuje się znaczenie terenowe. Klasyfikacja nienadzorowana sprawdza się najlepiej dla obszarów słabo rozpoznanych. http://academic.emporia.edu/aberjame/student/banman5/perry3.html
Klasyfikacja W klasyfikacji nadzorowanej celem jest wyodrębnienie z góry zdefiniowanych klas (np. łąki, lasy, budynki). W tym celu wskazuje się dla nich tzw. wzorcowe powierzchnie treningowe. Dla tych powierzchni wyznaczane są podstawowe statystki opisujące własności spektralne. W procesie klasyfikacji uzyskuje się finalny obraz klasyfikacyjny pokazujący przestrzenny układ klas. Jakość klasyfikacji nadzorowanej zależy od: Ilości i jakości zdefiniowanych powierzchni treningowych Rozdzielczości spektralnej danych http://gis-certification-uwf.blogspot.com/2013_11_01_archive.html
Segmentacja Często zdjęcia satelitarne/lotnicze poddawane są procesowi segmentacji. Jest to specyficzny rodzaj klasyfikacji wykorzystywany najczęściej do klasyfikacji wysokorozdzielczych zdjęć. W takich obrazach zmienność spektralna pikseli jest bardzo duża co utrudnia klasyfikację. Segmentacja polega na grupowaniu sąsiednich pikseli w segmenty, które później podlegają klasycznej klasyfikacji. S. Jeżewski, P. Duch, 2009: Algorytmy segmentacji obrazów barwnych w rozpoznawaniu obiektów na obrazach satelitarnych i lotniczych, Automatyka, tom 13, zeszyt 3
Współczynnik NDVI NDVI (ang. Normalized Difference Vegetation Index) to znormalizowany wskaźnik zieleni. Znajduje on zastosowanie w badaniu kondycji roślinności. NDVI <-1, 1> RNIR odbicie w paśmie podczerwonym RRED odbicie w paśmie czerwonym Im większa wartość wskaźnika NDVI tym rośliny są bardziej zielone. Oznacza to, że rośliny zawierają więcej chlorofilu, który odpowiada za pochłanianie promieniowania czerwonego, oraz zawierają więcej miękiszu gąbczastego, odbijającego promieniowanie podczerwone. Wartości ujemne wskaźnika występują zazwyczaj dla obiektów nieożywionych. Wartości ujemne, zbliżone do 0 są charakterystyczne dla wody. Wartości dodatnie, zbliżone do 0 są charakterystyczne dla odkrytych gleb Średnie wartości współczynnika NDVI dla zdrowej roślinności (w pełni sezonu wegetacyjnego) wahają się od 0.4 do 0.8. Wartości współczynnika 0.3-0.4 są charakterystyczne dla roślinności słabej lub suchej.
Współczynnik NDVI http://www1.villanova.edu/villanova/artsci/geoenv/seniorprojects/notabletrees/ndvi.html http://www.nasa.gov/topics/earth/features/obscure_data.html
Wskaźniki środowiskowe VCI (ang. Vegetation Condition Index) jest to pochodna wskaźnika NDVI. Wyznacza się go na podstawie szeregu wartości NDVI w danym okresie czasu. VCI wyznacza się dla każdego piksela obrazu. Jest to stosunek różnicy wartości NDVI w wybranym momencie i minimalnej wartości NDVI w analizowanym okresie badawczym do różnicy pomiędzy wartością maksymalną i minimalną NDVI w badanym okresie (Dąbrowska-Zielińska et al. 2002). VCI przyjmuje wartości od 0 do 100. Umożliwia on podkreślenie wartości ekstremalnych współczynnika NDVI. Wartości VCI (Musiał, 2009): 0-33 : wartość NDVI w danym momencie jest bliska wartości minimalnej NDVI w całym szeregu. Może to świadczyć o złych warunkach klimatycznych panujących w tym czasie. 34-65 : wartość NDVI w danym momencie jest bliska wartości średniej NDVI w całym szeregu. 66 100 : wartość NDVI w danym momencie jest wyższa niż wartość średnia NDVI w całym szeregu.
Wskaźniki środowiskowe http://www.ospo.noaa.gov/products/land/vhp/vci.html
Wskaźniki środowiskowe TCI (ang. Temperature Condition Index) jest to wskaźnik temperatury. Podobnie jak wskaźnik VCI wyliczany jest na podstawie wartości maksymalnej i minimalnej temperatury powierzchni w analizowanym okresie czasu. TCI wyliczany jest tak aby zobrazować wpływ temperatury na wegetację. Im wyższe wartości współczynnika TCI tym większe susze. Wartości TCI: bliskie 0 : oznacza, że temperatura w badanym okresie jest bliska wartości maksymalnej stwierdzonej dla długiego okresu czasu (np. 18 lat) bliskie 50 : oznaczają dobre, naturalne temperatury bliskie 100 : oznacza, że temperatura w badanym okresie jest bliska wartości minimalnej stwierdzonej dla długiego okresu czasu (np. 18 lat) Niskie wartości TCI mogą wskazywać na możliwość wystąpienia suszy.
Wskaźniki środowiskowe http://www.ospo.noaa.gov/products/land/vhp/tci.html
Wskaźniki środowiskowe VHI (ang. Vegetation Health Index ) wyznaczany jest na podstawie wartości VCI i TCI. Współczynnik a determinuje wpływ poszczególnych wskaźników na wartość VHI. Często przyjmuje się, że a=0,5. Współczynnik VHI wykorzystuję się jako wskaźnik badania kondycji roślinności, wilgotności, czy warunków termicznych. VHI przyjmuje wartości od 0 do 100.
Wskaźniki środowiskowe http://www.ospo.noaa.gov/products/land/vhp/vhi.html
Wskaźniki środowiskowe NDVI Normalized Difference Vegetation Index RVI Ratio Vegetation Index ELAI - Leaf Area Index STVI - Stress Related Vegetation Index SAVI - Soil Adjusted Vegetation Index MSAVI - Modified Soil-adjusted Vegetation Index R 850 - reflectance factor in 850 nm band R 650 - reflectance factor in 650 nm band (Wójtowicz et al. 2009)
Źródła do wykładu: http://www.seos-project.eu/modules/remotesensing/remotesensing-c03-p04.html http://www.markelowitz.com/hyperspectral.html http://landsat.usgs.gov http://progea.pl https://directory.eoportal.org/web/eoportal/satellite-missions/r/rapideye http://www.igik.edu.pl S. Jeżewski, P. Duch, 2009: Algorytmy segmentacji obrazów barwnych w rozpoznawaniu obiektów na obrazach satelitarnych i lotniczych, Automatyka, tom 13, zeszyt 3 S. Królewicz: Kalibracja radiometryczna obrazowych danych satelitarnych K. Osińska-Skotak: Znaczenie korekcji radiometrycznej w procesie przetwarzania zdjęć satelitarnych, Archiwum Fotogrametrii, Kartografii i teledetekcji, vol. 17b, 2007.