S. Królewicz, J. Piekarczyk, I. Wyczałek

Podobne dokumenty
Dane teledetekcyjne. Sławomir Królewicz

Charakterystyka danych teledetekcyjnych jako źródeł danych przestrzennych. Sławomir Królewicz

Spis treści CZĘŚĆ I POZYSKIWANIE ZDJĘĆ, OBRAZÓW I INNYCH DANYCH POCZĄTKOWYCH... 37

TELEDETEKCJA W MIEŚCIE CHARAKTERYSTYKA SPEKTRALNA RÓŻNYCH POKRYĆ DACHÓW, CZYLI ZMIANA FACHU SKRZYPKA NA DACHU

FOTOGRAMETRIA I TELEDETEKCJA

Sławomir Królewicz. Charakterystyka wybranych cech współczesnych średnio- i wysokorozdzielczych danych teledetekcyjnych. 1.

Trendy nauki światowej (1)

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10

Podstawy Geomatyki Wykład VI Teledetekcja 2. Remote sensing methods based on multispectral satellite images (passive methods)

Podstawy przetwarzania obrazów teledetekcyjnych. Format rastrowy

KP, Tele i foto, wykład 3 1

Fotogrametria - Z. Kurczyński kod produktu: 3679 kategoria: Kategorie > WYDAWNICTWA > KSIĄŻKI > FOTOGRAMETRIA

Kompleksowy monitoring dynamiki drzewostanów Puszczy Białowieskiej z wykorzystaniem danych teledetekcyjnych

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD IX

Archiwum Fotogrametrii, Kartografii i Teledetekcji Vol. 9,1999, s ISBN

Ojcowski Park Narodowy OJCÓW 9, Suł oszowa, POLSKA

Temat Zasady projektowania naziemnego pomiaru fotogrametrycznego. 2. Terenowy rozmiar piksela. 3. Plan pomiaru fotogrametrycznego

Zobrazowania hiperspektralne do badań środowiska podstawowe zagadnienia teoretyczne

SINGLE-IMAGE HIGH-RESOLUTION SATELLITE DATA FOR 3D INFORMATIONEXTRACTION

EURO MAPS. opracowanie: GAF AG, GEOSYSTEMS Polska dystrybcja: GEOSYSTEMS Polska

Temat ćwiczenia: Zasady stereoskopowego widzenia.

Koncepcja pomiaru i wyrównania przestrzennych ciągów tachimetrycznych w zastosowaniach geodezji zintegrowanej

Potencjał wysokorozdzielczych zobrazowań Ikonos oraz QuickBird dla generowania ortoobrazów.

ANALIZA DOKŁADNOŚCI PODSTAWOWYCH PRODUKTÓW FOTOGRAMETRYCZNYCH UZYSKANYCH Z ZOBRAZOWAŃ POZYSKANYCH TRZYLINIJKOWĄ CYFROWĄ LOTNICZĄ KAMERĄ ADS40

7. Metody pozyskiwania danych

Goniądz: OGŁOSZENIE O ZMIANIE OGŁOSZENIA

PRZESTRZENNE BAZY DANYCH

Waldemar Izdebski - Wykłady z przedmiotu SIT / Mapa zasadnicza 30

ZAŁ. 2 - WARUNKI UDZIAŁU W POSTĘPOWANIU

Wybrane zagadnienia w pracy z danymi rastrowymi w ArcGIS Marcin Paź Esri Polska

Wydział Inżynierii Środowiska i Geodezji Katedra Fotogrametrii i Teledetekcji Katedra Geodezji Rolnej, Katastru i Fotogrametrii.

Przetwarzanie obrazów

Opis modułu kształcenia / przedmiotu (sylabus)

Informacje tłowe na analogowych i cyfrowych zdjęciach lotniczych (metadane) Teledetekcja Środowiska przyrodniczego. Zajęcia II.

Wykorzystanie Bezzałogowych Statków Latających w różnych zastosowaniach budowalnych i geodezyjnych

Teledetekcja w ujęciu sensorycznym

Podstawy cyfrowego przetwarzania obrazów teledetekcyjnych. Dr S. Królewicz, Dr inż. J. Piekarczyk

AUTOMATYCZNA AKTUALIZACJA BAZY DANYCH O BUDYNKACH W OPARCIU O WYSOKOROZDZIELCZĄ ORTOFOTOMAPĘ SATELITARNĄ

DNI technik SATELITARNYCH CZERWCA ROLNICTWO zastosowania rozwiązań GIS

Geoinformacja - Interpretacja danych teledetekcyjnych. Ćwiczenie I

Przetwarzanie obrazów

FOTOGRAMETRIA ANALITYCZNA I CYFROWA

Zamiana reprezentacji wektorowej na rastrową - rasteryzacja

IV Konferencja naukowo-techniczna WYKORZYSTANIE WSPÓŁCZESNYCH ZOBRAZOWAŃ SATELITARNYCH, LOTNICZYCH I NAZIEMNYCH DLA POTRZEB OBRONNOŚCI KRAJU I

WSTĘPNA ANALIZA PRZYDATNOŚCI WIELOSPEKTRALNYCH ZDJĘĆ LOTNICZYCH DO FOTOGRAMETRYCZNEJ INWENTARYZACJI STRUKTUR PRZESTRZENNYCH W DRZEWOSTANACH 3

Data sporządzenia materiałów źródłowych: zdjęcia:..., NMT:... Rodzaj zdjęć: analogowe/cyfrowe

STAN OBRAZOWANIA LOTNICZEGO I SATELITARNEGO W ŚWIETLE XX KONGRESU MTFIT W ISTAMBULE 2004 R

Teledetekcja w kartografii geologicznej. wykład I

SYSTEMY INFORMACJI PRZESTRZENNEJ

Kod modułu Fotointerpretacja obrazów lotniczych i satelitarnych. semestr letni (semestr zimowy / letni) brak (kody modułów / nazwy modułów)

Możliwość zastosowania dronów do monitorowania infrastruktury elektroenergetycznej

Teledetekcja wsparciem rolnictwa - satelity ws. dane lotnicze. rozwiązaniem?

Akwizycja obrazów. Zagadnienia wstępne

Informacja o Środowisku integracja danych z lotniczego skaningu laserowego oraz zdjęć lotniczych

Wydział Inżynierii Środowiska i Geodezji Katedra Fotogrametrii i Teledetekcji Katedra Geodezji Rolnej, Katastru i Fotogrametrii

SPIS TREŚCI STRESZCZENIE...8 SUMMARY...9 I. WPROWADZENIE... 10

Podstawowe informacje o projekcie ISOK Rola GUGiK w projekcie ISOK

Kod modułu Zastosowania teledetekcji w gospodarce i mapy tematyczne. semestr 6

Zbigniew Figiel, Piotr Dzikowicz. Skanowanie 3D przy projektowaniu i realizacji inwestycji w Koksownictwie KOKSOPROJEKT

Projektowanie nalotu fotogrametrycznego

PORÓWNANIE EDUKACYJNEGO OPROGRAMOWANIA DO LOTNICZEJ FOTOGRAMETRII CYFROWEJ Z PROFESJONALNYMI SYSTEMAMI FOTOGRAMETRYCZNYMI

DNI technik SATELITARNYCH CZERWCA INFRASTRUKTURA zastosowania rozwiązań GIS

Teledetekcja w ochronie środowiska. Wykład 4

PROJEKT MULTIMEDIACY

Metryki i metadane ortofotomapa, numeryczny model terenu

Podstawy przetwarzania danych pochodzących z lotniczego skanowania laserowego w oprogramowaniu LP360 firmy QCoherent

Współczesne metody badań instrumentalnych

Podstawy fotogrametrii i teledetekcji

Podstawy przetwarzania danych pochodzących z lotniczego skanowania laserowego w oprogramowaniu LP360 firmy QCoherent

REMBIOFOR Teledetekcja w leśnictwie precyzyjnym

Oferta produktowa Zakładu Teledetekcji

Projektowanie naziemnego pomiaru fotogrametrycznego. Dokładność - specyfikacja techniczna projektu

Plan wykładu. Wprowadzenie Program graficzny GIMP Edycja i retusz zdjęć Podsumowanie. informatyka +

GSMONLINE.PL. Wybierasz zwykłe zdjęcia, czy w stylu Leica? Akcja. partnerska

PROPOZYCJA WYKORZYSTANIA TEMATYCZNYCH DANYCH SATELITARNYCH PRZEZ SAMORZĄDY TERYTORIALNE

Przemysław Kowalski Instytut Informatyki Teoretycznej i Stosowanej PAN

Budowa i zasada działania skanera

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Geodezja i Kartografia I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

DOKŁADNOŚĆ AUTOMATYCZNEGO GENEROWANIA NMT NA PODSTAWIE DANYCH HRS SPOT 5 ORAZ HRG SPOT 4

Stanisław Białousz. Marek Mróz WYKORZYSTANIE ZDJĘĆ LOTNICZYCH I SATELITARNYCH W ROLNICTWIE

Kod modułu Fotogrametria naziemna, lotnicza i satelitarna. semestr 5. semestr zimowy (semestr zimowy / letni)

Sylwia A. Nasiłowska , Warszawa

Temat Schemat ogólny projektowania zdjęć lotniczych 2. Uwarunkowania prac fotolotniczych 3. Plan nalotu

Dane przestrzenne i usługi informacyjne dla administracji samorządowej

Laboratorium techniki laserowej Ćwiczenie 2. Badanie profilu wiązki laserowej

PL B1. OPEGIEKA SPÓŁKA Z OGRANICZONĄ ODPOWIEDZIALNOŚCIĄ, Elbląg, PL BUP 09/17

Rok akademicki: 2030/2031 Kod: DGK s Punkty ECTS: 6. Poziom studiów: Studia I stopnia Forma i tryb studiów: -

home.agh.edu.pl/~krisfoto/lib/exe/fetch.php?id=fotocyfrowa&cache=cache&media=fotocyfrowa:true_orto.pdf

ERGO 3D COMARCH ERGO. Wizualizacja i pomiary danych pochodzących ze skaningu mobilnego

DIGITAL PHOTOGRAMMETRY AND LASER SCANNING IN CULTURAL HERITAGE SURVEY

LABORATORIUM METROLOGII

Modele (graficznej reprezentacji) danych przestrzennych postać danych przestrzennych

Udoskonalona mapa prawdopodobieństwa występowania pożarów na Ziemi. Analiza spójności baz GBS, L 3 JRC oraz GFED.

Przygotowała Elżbieta Pastucha na podstawie CityGML OGC Standard for Photogrammetry by Thomas H. Kolbe, Claus Nagel, Alexandra Stadler

Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania.

ZDALNA REJESTRACJA POWIERZCHNI ZIEMI

Archiwum Fotogrametrii, Kartografii i Teledetekcji Vol. 9,1999, s ISBN Streszczenie

Instytut Badawczy Leśnictwa

Transkrypt:

Przegląd aktualnie prowadzonych w Polsce prac badawczych w zakresie wykorzystania fotogrametrii i teledetekcji dla potrzeb gospodarki rolnej i leśnej. S. Królewicz, J. Piekarczyk, I. Wyczałek Opracowanie wykonane dla GUGiK na podstawie materiałów konferencji Wiosna w Geodezji i Kartografii Teoria i praktyka współczesnej fotogrametrii i teledetekcji oraz danych z literatury naukowej i Internetu Poznań - 2005

Spis treści 1. Wprowadzenie 2. Źródła danych obrazowych 2.1. Wstęp 2.1. Źródła danych obrazowych 2.2. Cyfrowe lotnicze sensory obrazujące 2.3. Sensory satelitarne o bardzo wysokiej rozdzielczości 2.4. Uzupełniające urządzenia rejestrujące w systemach teledetekcyjnych 2.5. Bibibliografia do podrozdziału 2 3. Wstępne przetwarzanie danych 3.1. Wprowadzenie 3.2. Metody poprawiające jakość danych teledetekcyjnych 3.2.1. Metoda trendu powierzchniowego i jej zastosowanie do wyrównania jasności zdjęć lotniczych 3.2.2. Łączenie danych teledetekcyjnych o różnej rozdzielczości przestrzennej i spektralnej 3.3. Problematyka jakości danych po korektach geometrycznych i radiometrycznych 3.4. Ortorektyfikacja obrazów lotniczych i satelitarnych 3.5. Bibibliografia do podrozdziału 3 4. Algorytmy segmentacji i klasyfikacji obrazów dla potrzeb aktualizacji SIP 4.1. Idea metodyki aktualizacji danych w ramach SIP z wykorzystaniem danych teledetekcyjnych 4.2. Automatyczna detekcja zmian zabudowy 4.2.1. Podstawy teoretyczne 4.2.2. Implementacja metody 4.2.3. Podsumowanie metody 4.3. Adaptacyjny algorytm rozpoznawania obrazów dla detekcji dróg 4.3.1. Podstawy teoretyczne 4.3.2 Test praktyczny 4.2.3. Wnioski z pierwszych prób implementacji metody 4.4. Analiza użyteczności algorytmu segmentacji gęstościowej 4.4.1. Podstawy teoretyczne metody 4.4.2. Implementacja 4.5. Wnioski 4.6. Bibibliografia do podrozdziału 4 5. Zastosowanie metod teledetekcyjnych w rolnictwie i leśnictwie 5.1. Metody teledetekcyjne stosowane w rolnictwie 5.2. Zastosowanie teledetekcji gospodarce leśnej 5.3. Bibliografia do rozdziału 5 2

1. Wprowadzenie Współczesne czasy charakteryzują się wzrastającą dynamiką prób zastosowań fotogrametrii i teledetekcji w różnych dziedzinach gospodarki, co z jednej strony jest efektem niebywałego wzrostu rozdzielczości i szczegółowości źródeł danych obrazowych, z drugiej zaś wynikiem znaczącego postępu w rozwoju teorii. Efektem tych dynamicznych zmian jest, a przynajmniej być powinno, ich wdrażanie w inicjatywy zmierzające do rozwoju społeczeństw bazujących na wiedzy. W tym sensie omawiana dziedzina współtworzy nowe reguły życia wspólnotowego i jego zrównoważonego rozwoju. Jest to także jeden z podstawowych warunków rozwoju naszego kraju w jego dążeniach do współtworzenia zasad współżycia społeczeństw w ramach wspólnych inicjatyw europejskich. Polska nauka podąża śladem czołowych ośrodków naukowo-badawczych i wdrożeniowych podejmując próby rozwoju rozwiązań teoretycznych i aplikacyjnych w tym zakresie. Praktycznym wyrazem uzyskiwanych efektów naukowo-badawczych w tej dziedzinie w naszym kraju jest wzrastająca liczba publikacji, co otwiera przed twórcami prac możliwości podejmowania współpracy międzynarodowej. Jedną z form wymiany doświadczeń w omawianej dziedzinie jest zapoczątkowany w bieżącym roku cykl dorocznych tematycznych seminariów naukowych organizowanych przez Zakład Geodezji Politechniki Poznańskiej we współpracy z innymi ośrodkami naukowo-dydaktycznymi, przede wszystkim z Instytutem Geografii Fizycznej i Kształtowania Środowiska Przyrodniczego Uniwersytetu Adama Mickiewicza. Przedmiotem niniejszego opracowania jest przegląd tematów poruszanych w referatach zgłoszonych na pierwsze seminarium poświęcone tej tematyce, które miało miejsce w ramach cyklicznej konferencji z cyklu Wiosna w geodezji i kartografii. Przegląd powyższy zostanie odniesiony do możliwości zastosowania różnorodnych technik teledetekcyjnych w rolnictwie i leśnictwie oraz porównany z dostępnymi w literaturze tematu publikacjami naukowymi. Fotogrametria i teledetekcja, jako nauki o zdalnym pozyskiwaniu i przetwarzaniu informacji o przestrzennym rozmieszczeniu przedmiotów lub zjawisk, bazują na trzech podstawach technologicznych, obejmujących rejestrację, określenie geometrycznych cech obiektów oraz interpretację ich cech jakościowych. Metody rejestracji obrazów powierzchni ziemi są przedmiotem ciągłego procesu podnoszenia szybkości, jakości i powtarzalności. Tematykę tę poruszali podczas obrad zarówno zaproszeni wykładowcy (A. Bujakiewicz, A. Linsenbarth) jak i autorzy referatów (A. Plichta, Z. Zdunek). Przegląd tych metod jest przedmiotem drugiego rozdziału niniejszego opracowania. Obejmuje on wprawdzie jedynie omówienie cech wybranych systemów pozyskiwania obrazów, ale jest niezmiernie istotny z punktu widzenia prób wykorzystania produktów pracy tych systemów. Wśród cech sensorów teledetekcyjnych, których rozwój był w ostatnich latach kilku latach najbardziej widoczny, należy wymienić rozdzielczość przestrzenną, rozdzielczość spektralną (sensory hiperspektralne) oraz wprowadzenie kamer cyfrowych na obszar zastosowań fotogrametrycznych. Bardzo ważne ze względu na efekty interpretacji obrazów jest zachowanie ich w postaci możliwie najbliższej danym źródłowym, lub takie ich przetworzenie, aby w efekcie uzyskać informację bogatszą w treść. Na etapie przygotowania danych obrazowych należy zatem stosować odpowiednie procedury korekcyjne, a w systemach satelitarnych o najwyższej rozdzielczości - metody łączenia kanałów lub scen pochodzących z różnych sensorów. Problematyka znalazła odzwierciedlenie w wykładzie pani prof. A. Bujakiewicz,, oraz referentów: S. Królewicz, A. Osińska-Skotak, Z. Zdunek i M. Mróz. Tematyka ta jest omówiona w trzecim rozdziale. W zastosowaniach aplikacyjnych szczególnie interesujące są rozwiązania zmierzające do sporządzania, weryfikacji i aktualizacji topograficznych baz danych systemów informacji przestrzennej w oparciu o dane teledetekcyjne. W rozdziale czwartym przedstawione są próby autorskich opracowań algorytmicznych mających na celu zautomatyzowanie tych procesów (J. Jelonek, K. Krawiec, I. Wyczałek). Aplikacyjne zastosowanie fotogrametrii i teledetekcji omówione zostały w rozdziale piątym. 3

2. Źródła danych obrazowych 2.1. Wstęp Od wielu lat głównym źródłem danych w technologiach fotogrametrycznych były analogowe zdjęcia lotnicze. Od połowy lat 90-tych, tj. od okresu, w którym metody analogowe zostały zastąpione współczesnymi technologiami fotogrametrii cyfrowej, zdjęcia (obrazy) w postaci cyfrowej, stały się podstawową formą danych źródłowych dla opracowań fotogrametrycznych. Obrazy cyfrowe uzyskiwane z pułapu lotniczego, można pozyskać bezpośrednio - lotniczymi kamerami cyfrowymi, albo jak ciągle powszechnie ma to miejsce w wielu krajach, w tym w Polsce, poprzez skanowanie zdjęć analogowych. Uzyskiwanie zdjęć konwencjonalnymi kamerami optycznymi stanowi jedyny element o charakterze analogowym, w łańcuchu technologicznym fotogrametrycznej technologii cyfrowej. Alternatywnym źródłem do zdjęć lotniczych w średniej skali, stają się wysokorozdzielcze obrazy satelitarne (VHRS), pozyskiwane już obecnie kilkoma systemami. Ze względu na stale rosnącą rozdzielczość przestrzenną i radiometryczną takich obrazów oraz przewidywane, w najbliższych kilku latach, następne systemy generujące obrazy o jeszcze wyższej rozdzielczości, obrazy VHRS niewątpliwie dostarczą bardzo cennych informacji geometrycznych do aktualizacji baz danych topograficznych oraz wielu zastosowań tematycznych. 2.2. Cyfrowe lotnicze sensory obrazujące Zapisu obrazu w teledetekcji dokonuje się dwoma sposobami: klasycznym na filmie fotograficznym oraz cyfrowym. Różnią się one charakterem relacji pomiędzy wartością natężenia promieniowania elektromagnetycznego a gęstością optyczną na negatywie fotografii lub wartością liczbową jasności na obrazie cyfrowym. Gęstość optyczna, określająca stopień zaczernienia na negatywie, związana jest z natężeniem reakcji fotochemicznych. Natężenie tych reakcji zależy w sposób logarytmiczny od ilości energii padającej na film fotograficzny, tzn. że jednostkowy przyrost gęstości optycznej nie jest związany prostoliniowo z jednostkowym wzrostem wartości promieniowania elektromagnetycznego. W przypadku sensorów cyfrowych relacja ta ma charakter prostoliniowy (Lillesand i Kiefer, 1994), czyli jednostkowy wzrost wartości energii powoduje jednostkowy przyrost wartości w skali liczbowej (ryc. 1). Ryc. 1. Sposób zapisu zróżnicowania promieniowania elektromagnetycznego na fotografii i obrazie cyfrowym. Postęp technologiczny między fotografią analogową a cyfrową nie ogranicza się jedynie do zmiany sposobu zapisu obrazu, którego naturalną konsekwencją jest eliminacja procesów obróbki fotochemicznej i skanowania, czyli zamiany postaci analogowej na cyfrową. Coraz szersze wprowadzanie fotografii cyfrowej jest ukierunkowane na zwiększenie rozdzielczości spektralnej i jakości opracowań przestrzennych. Zastosowanie kontroli jakości i ekspozycji 4

podczas nalotu zwiększa operatywność systemu rejestracji w trybie rzeczywistym. Oczywistym walorem stosowania kamer cyfrowych jest zapewnienie wysokiej automatyzacji, zarówno w trakcie pozyskiwania obrazów jak i ich opracowywania, dzięki zwiększeniu zgodności w procedurach przetwarzania automatycznego. Rozdzielczość obrazów fotograficznych zależy od zdolności rozdzielczej zarówno filmu fotograficznego i układu optycznego kamery. Zamieniając postać analogową zdjęcia fotograficznego na cyfrową istotne jest również dobranie odpowiedniej rozdzielczości optycznej skanowania. Zdolność rozdzielcza filmów fotograficznych związana jest z czułością filmu i kontrastem pomiędzy obiektami. Im wyższa czułość filmu, tym niższa zdolność rozdzielcza. Im większy kontrast pomiędzy obiektami, tym dokładniej zostaną one zarejestrowane. Przeciętna zdolność rozdzielcza typowych niskokontrastowych filmów lotniczych waha się od 100 do 150 par linii w milimetrze, co odpowiada rozdzielczości od 7500 do 11500 dpi (na podstawie dokumentacji technicznych filmów lotniczych firm KODAK i AGFA, dostępnych w internecie na rok 2004). Zdolność rozdzielcza obiektywów kamer lotniczych RC30 i RMK TOP wynosi około 100 par linii w milimetrze. W wymaganiach technicznych, obowiązujących w USA dla kamer z ogniskową 153 mm, przyjmuje się, że średnia zdolność rozdzielcza w ramach całej klatki zdjęcia powinna wynosić średnio 65 par linii w milimetrze (USGS Aerial Camera Acceptance Specifications For 153-mm Focal Length), co odpowiada rozdzielczości skanowania około 5000 dpi (punktów na cal). Możliwości skanerów wykorzystywanych do uzyskania postaci cyfrowej z negatywów są wyższe. Skaner fotogrametryczny LH Systems DSW500 posiada rozdzielczość optyczną wynoszącą 7500 dpi (Dam i in., 2000). Zatem zeskanowany negatyw zdjęcia lotniczego o rozmiarach 23 cm na 23 cm z rozdzielczością 5000 dpi, posiada potencjalnie wymiar 45000 x 45000 pikseli. Rejestracja obrazu w kamerach cyfrowych odbywa się w dwojaki sposób: za pomocą liniowej lub prostokątnej macierzy CCD. Zapisując obraz kamerą wyposażoną w macierz liniową uzyskuje się ciągły pas obrazu. Ten sposób rejestracji wyklucza stosowanie tradycyjnego oprogramowania fotogrametrycznego, a zapis obrazu linia po linii ogranicza stosowanie szerokiego zakresu czasów naświetlenia i wyklucza wykorzystanie techniki kompensacji FMC (Forward Mution Compensation) do korekcji zmazu obrazu (Kasser i Egels, 2002; Heier, 2001). Zmaz obrazu powstaje wskutek różnicy prędkości pomiędzy przesuwającym się w kadrze obrazem powierzchni Ziemi a nieruchomym elementem rejestrującym obraz. W kamerach LH Systems ADS-40 i DPA macierz liniowa ma szerokość 12000 pikseli (Fricker i in., 1999; Beutner in., 1999). Obrazy uzyskiwane za pomocą macierzy prostokątnych CCD odpowiadają kształtem zdjęciom fotograficznym, co umożliwia ich przetworzenie za pomocą standardowego oprogramowania fotogrametrycznego. Obraz z cyfrowej kamery Z/Iimaging DMC 2001 rejestrowany jest przez cztery oddzielne macierze i ma łączny wymiar 8000 na 14000 pikseli (Kasser i Egels, 2002; Diener i in., 2000). Wymiar elementów światłoczułych stosowanych w omawianych kamerach cyfrowych wynosi obecnie od 9 do 12 µm, co odpowiada rozdzielczości 2500 dpi. Obraz w postaci cyfrowej jest zapisywany z większą rozdzielczością radiometryczną (Heier i Hinz, 1999; Fricker i in., 1999). Na typowym panchromatycznym filmie lotniczym lub jednej warstwie filmu kolorowego można zapisać około 180 poziomów szarości, natomiast na odpowiadającym mu obrazie cyfrowym - ponad 4000 poziomów (Camera Calibration Panel Report, 2000), przy 12-bitowym kodowaniu sygnału. Jak w wspomniano powyżej, obraz w kamerach cyfrowych może być rejestrowany na dwa sposoby. W pierwszym, obraz terenu jest rejestrowany dynamicznie, z wykorzystaniem szeregu linii detektorów. Pierwszą kamerą tego typu, której prototyp został zaprezentowany na XIX Kongresie ISPRS w Amsterdamie w roku 2000 i od kilku lat powoli wchodzi na rynek, jest kamera ADS 40 firmy Leica Geosystems. Urządzenie to rejestruje obraz w w szerokopasmowym zakresie panchromatycznym (465-680 nm) dla opracowań stereoskopowych, oraz dodatkowo w węższych zakresach spektralnych RGB (610-660, 535-585, 430-490 nm) i INR (835-885 nm). System jest wspomagany przez urządzenie GPS/INS, pozwalające na ciągłe określenie zmian pozycji platformy rejestrującej w czasie lotu. Na poniższej ilustracji przedstawiony jest przekrój przez urządzenie oraz schemat rejestracji obrazu. 5

a) b) Ryc. 2. Kamera ADS 40 (a) przekrój i (b) idea rejestracji za pomocą linijek CCD Alternatywnym rozwiązanie rejestracji obrazu wykorzystuje prostokątne matryce CCD. W celu zwiększenia rozdzielczości geometrycznej, z jednoczesnym warunkiem zachowania obrazu wielkoformatowego, na matrycach CCD rejestruje się podobrazy, które następnie łączy się ze sobą cyfrowo. Pierwszą kamerą tego typu, prezentowaną w 2000 roku w Amsterdamie, która od kilku lat jest w sprzedaży, to cyfrowa modularna kamera DMC firmy Z/I Imaging, z modułami PAN i MS, pozyskująca obraz (o matrycy 14k x 8k), na podstawie czterech podobrazów, generująca 12-bitowy obraz panchromatyczny z rozdzielczością terenową sięgającą 0,05 m. Na rycinie 3 przedstawiono widok ogólny oraz schemat łączenia czterech obrazów cząstkowych w jeden. a) b) Ryc. 3. Kamera DMC (a) widok, (b) złożenie czterech części obrazu. Obecnie intensywnie rozwijane są systemy konkurencyjne, które niewielki spadek jakości i komfortu pracy rekompensują zdecydowanie niższą ceną. Pojawiają się w nich również nowe rozwiązania, nie obecne w wyżej omówionych lotniczych kamerach cyfrowych. Grupę tę tworzą między innymi kamery UltraCamD firmy Vexcel Imaging GmbH (Austria), DiMAC (Dimac Systems Luksemburg), seria Digi-CAM firmy IGI mbh (Niemcy). Kamera UltraCam D jest wielogłowicowym zespołem złożonym z 4 modułów panchromatycznych, dających wynikowy obraz o rozdzielczości 11,5k x 7,5k pikseli, oraz 4 modułów wielospektralnych (RGB i NIR), każdy o wymiarach 4k x 2,7k pikseli. Piksel we wszystkich obrazach na rozmiar 9 µm a rozdzielczość radiometryczna wynosi 14 bitów. Najmniejsza wielkość piksela w mierze terenowej przy odległości fotografowania 500 m wynosi 0,05 m, podobnie 6

jak dla kamery DMC 2001. Kamera ta pozyskuje 2775 obrazów przez 6-godzin ciągłej pracy, z pokryciem podłużnym 70 % lub większym. Zdjęcia są wykonywane w czasie min czasie co 0.75 s. Kamera obsługiwana jest w trakcie pracy przez 15-procesorowa stację roboczą wyposażoną w 30 mobilnych dysków twardych, co pozwala zarejestrować około 1 Tb danych. Badania wykazały, że dokładność matchingu jest około 2,5 razy wyższa niż ze zdjęć skanowanych. Wynika to z wykorzystania większej liczby obrazów dla matchingu, a w szczególności z zastosowania wielopromieniowej korelacji elementów obrazu (multi ray matching). Widok ogólny kamery wraz ze stacją robocza przedstawia rycina 4. a) b) c) Ryc. 4. Kamera UltraCam: a) widok ogólny, b) sposób formowania obrazu, c) stacja robocza. Możliwość rejestracji obrazów z bardzo dużym pokryciem stwarza dogodne warunki do korekcji obrazu wynikowego do standardowych warunków oświetlenia lub uzyskiwania danych o charakterystyce dwukierunkowej rejestrowanych obiektów. Szersze możliwe wykorzystanie tej okoliczności, będzie możliwe po zastosowaniu w tej kamerze obiektów z szerszym polem widzenia. Obecnie uzyskiwany obraz charakteryzuje się 55 stopniowym polem widzenia w poprzek i 37 w kierunku poprzecznym kierunku lotu. Jeżeli zadane zostanie pokrycie 95%, wówczas jeden punkt zostanie zarejestrowany na 20 kolejnych obrazach (Franz L. Michael Gruber., 2003; F. Leberl i in., 2003). Kamera ta jest pod względem rozdzielczości porównywalna z kamerami DMC i ADS40, jednak dzięki niższej cenie ma zdecydowanie większy zbyt. Opieka serwisowa kamery jest wspomagana przez Internet. Kamera DiMAC może się składać z maksymalnie czterech modułów, montowanych na wspólnym stabilizowanym podwieszeniu. Każdy moduł to obiektyw o różnej ogniskowej (60, 80, 100,120 i 150 mm) i możliwym innej charakterystyce spektralnej. W kamerze tej zastosowano najwyższą z omawianych do tej pory rozdzielczość radiometryczną, do 16 bitów na pojedynczy kanał, co pozwala uzyskiwać obrazy kolorowe z 48-bitowa głębią koloru. Taki obraz pozwala rozróżniać szczegóły ukryte w bardzo głębokich cieniach. W trakcie lotu obrazy są zapisywane na urządzeniu wyposażonym 120 Gb dyski twarde. Każdy moduł jest oparty na kolorowej matrycy CCD o wymiarach 5440 x 4080 pikseli. Rozdzielczość naziemna uzyskiwanych obrazów jest taka sama jak dla omawianych powyżej kamerach, tj. maksymalnie 5 cm. a) b) ryc. 5. Kamera DiMAC: a) widok ogolny, b) pojedynczy moduł. 7

Na rynku pojawiły się także średnio rozdzielcze kamery cyfrowe (z matrycą 4k x 4k), które są wyposażone w zintegrowany system GPS/INS, w celu bezpośredniego geokodowania (np. kamera DSS firmy Applanix). W tym przypadku, zakłada się tzw. georeferencję wprost, co oznacza, że nie wykonuje się już wtórnego wyrównania parametrów orientacji zewnętrznej w etapie aerotriangulacji, lecz wyznaczone w czasie lotu parametry są zastosowane dla fotogrametrycznego wcięcia w przód, gwarantując dokładność terenową rzędu 0,30 m. Należy się jednak spodziewać, że ze względu na pojawianie się na rynku coraz to nowych tańszych cyfrowych kamer lotniczych, powszechne wdrożenie do produkcji fotogrametrycznej będzie realne w ciągu najbliższych kilku lat. Coraz powszechniejsze stanie się wykorzystywanie w fotografii lotniczej urządzeń tanich, choćby zwykłych aparatów cyfrowych, których możliwości wzrastają znacznie szybciej niż urządzeń profesjonalnych do fotografii lotniczej. Obecne są już dostępne urządzenia, na rynku aparatów domowych, których rozdzielczość osiąga 12 mln pikseli i posiadają stabilizatory obrazu. Takie urządzenia znajdują zastosowanie nie tylko w fotografii naziemnej, lecz również lotniczej. Pozwalają one w tani sposób pozyskać dane do inwentaryzacji, co ma zastosowanie w wielu dziedzinach wiedzy, np. w naukach rolniczych, biologicznych i geograficznych oraz w archeologii. Ma to uzasadnienie wtedy, kiedy dokładność duża geometryczna danych nie jest wymagana. Powstaje również wiele programów do fotogrametrycznego przetwarzania zdjęć z takich tanich aparatów, przygotowane przez firmy zajmujące się do tej pory tylko typową geodezją. 2.3. Sensory satelitarne o bardzo wysokiej rozdzielczości Drugą grupę systemów służących do rejestracji topografii terenu i pokrycia, stanowią wysokorozdzielcze systemy satelitarne (VHRS), które są systemami komercyjnymi. Od kilku lat zostały one udostępnione dla celów cywilnych. W projektowanych dalszych systemach przewiduje się ich zastosowanie zarówno do potrzeb cywilnych jak i wojskowych. Ze względu na koszty przewiduje się także przejście od satelitów średnich i dużych (masa od 500 do powyżej 1000 kg), które są drogie, do tańszych i lżejszych (10 500 kg). Obecnie i w najbliższych latach, do roku 2010, przewiduje się grupę około 20 satelitarnych systemów wysokorozdzielczych, generujących obrazy PAN z rozdzielczością co najmniej od 0,5 do 2,0 metrów, w trybie mono i stereo, oraz obrazy MS z różną liczbą kanałów spektralnych. Najbardziej popularne systemy VHRS wykorzystywane obecnie do celów kartometrycznych, to: IKONOS 2 (Space Imaging), generujący obrazy PAN (526-929 nm) z rozdzielczością geometryczną 1 m oraz obrazy MS (w 4 kanałach spektralnych: 632-698, 506-595, 445-516 i 757-853 nm) z rozdzielczością 4 m. QuickBird 2 - obrazy PAN (450-900 nm) z rozdz. 0,6 m, oraz obrazy MS (4 kanały: 450-520, 520-600, 630-690 oraz 760-900 nm) z rozdzielczością 2,5 m. EROS A1 (ImageSat) - obrazy PAN z rozdz. 1,8 m. ORBView 3 - obrazy PAN z rozdz. 1 m, oraz obrazy MS (4 kanały) z rozdz. 4 m. Dostępne są w sprzedaży rosyjskie obrazy panchromatyczne z satelitów Resurs DK-1 i DK2, z rozdzielczością 1 i 1,5 m, wielospektralne z rozdzielczością 2-3 m (np. dostępne przez Internet GEMI Store, jednego z największych dystrybutorów danych przestrzennych). Obszary zarejestrowane przez tego satelitę i zarchiwizowane nie obejmują obszaru Polski. Popularny system SPOT 5, pozwala obecnie generować stereoskopowe obrazy panchromatyczne HRS z rozdzielczością interpolowaną 2,5 m, z tym że trzeba podkreślić, iż powstają one na skutek zwiększenia rzeczywistej rozdzielczości naziemnej wynoszącej 5 m. Przewiduje się, że w przyszłości program SPOT zostanie zastąpiony przez francusko-włoski program ORFEO, w ramach którego będzie rozwijana seria wysokorozdzielczych systemów Pleiades, obrazująca w zakresie optycznym (rozdzielczość 0,7 m i wyższa), w połączeniu z wysokorozdzielczymi obrazami 8

mikrofalowymi SAR (program COSMO-SkyMed). Innym celem który zamierza się zrealizować przy budowie wspomnianych systemów satelitarnych, to powtarzalność zobrazowań mniejsza od 3 dni. Należy zwrócić uwagę na niektóre ważne podkreślenia aspekty, w przypadku stosowania satelitarnych obrazów VHRS dla celów kartometrycznych. Wysoka obecnie rozdzielczość geometryczna obrazów VHRS będzie się zwiększała w najbliższych latach. Mówi się, że wkrótce rozdzielczość obrazów QuickBird wyniesie 0,50 m, a za kilka lat pojawią się systemy, dla których rozdzielczość może nawet osiągnąć 0,25 m. Odnosząc wspomniane dane o rozdzielczości naziemnej do informacji o rozdzielczości sensorów wojskowych, można mieć lepiej określoną perspektywę rozwoju danych dostępnych dla sektora cywilnego. Na podstawie dostępnych w literaturze danych rozdzielczość naziemna obrazów wykonywanych przez sensory amerykańskie z serii KH-12, umieszczone na pokładach satelitów wojskowych, osiąga 10 cm (Pike, 2000; Petrle, 2002). Przeprowadzone prace eksperymentalne dotyczące ortorektyfikacji wysokorozdzielczych obrazów satelitarnych pozyskanych z systemów Ikonos, QuickBird i EROS, wskazują na możliwość wygenerowania cyfrowych ortofotomap z pikselem 1,0 m dla obrazu Ikonos, 0,6 m dla obrazu QuickBird oraz 1,8 m dla obrazu EROS. Należy jednak podkreślić, że skuteczność i dokładność procesu ortorektyfikacji jest uzależniona od przyjętego modelu matematycznego oraz rodzaju i rozmieszczenia punktów referencyjnych. Rozdzielczość geometryczna ortofotomap satelitarnych nie oznacza ich dokładności pozycyjnej, tj. dokładności pomiaru zarejestrowanych obiektów topograficznych. Dokładność ta jest zależna od rodzaju obiektu, jego identyfikacji i rozpoznawalności na obrazie. Przyjmuje się, że na tego typu obrazach można określić pozycję z dokładnością 1,0-2,0 razy wymiar piksela. Oznacza to, że ortofotomapy uzyskane z obrazów satelitarnych Ikonos i QuickBird stają się konkurencyjne pod względem dokładności pozycyjnej do ortofotomap, uzyskiwanych na podstawie średnioskalowych zdjęć lotniczych w skali 1:26 000. Należy tutaj jednak zwrócić uwagę na to, że jak wynika z doniesień literaturowych, zasób treści limitowany rozdzielczością jest niższy niż w przypadku zdjęć lotniczych i może być to ograniczeniem dla niektórych zastosowań. W stosunku do zobrazowań lotniczych, gdzie pole widzenia wynosi przeciętnie 56 (ogniskowa 210 mm, wymiar zdjęcia 23 x 23 cm) lub 94 (ogniskowa 150 mm), zobrazowania satelitarne wykonywane są przy bardzo małym polu widzenia, mniejszym niż 2 (IKONOS 2, QuickBird 1 ). Ma to olbrzymie znaczenie przy wykonywaniu korekcji danych, ponieważ kąt obserwacji dla całej sceny jest prawie taki sam. Również jakość radiometryczna danych w stosunku do danych analogowych jest dużo wyższa. Większość wysokorozdzielczych systemów satelitarnych posiada możliwość ukośnego ustawienia się względem pozycji nadirowej, np. IKONOS pozwala na wykonywanie zobrazowań pod kątem do 30. Pozwala to na wykonywanie zdjęć tego samego punktu na powierzchni Ziemi, co trzy dni, jeśli oczywiście panują w danym okresie sprzyjające warunki atmosferyczne. Obserwując rozwój wysokorozdzielczych urządzeń satelitarnych można zauważyć, iż miały być one konkurencją dla analogowych zdjęć lotniczych przynajmniej w dwóch aspektach: relatywnie niższej ceny na jednostkę powierzchni oraz miały oferować kilka kanałów spektralnych (chodzi zwłaszcza o bliską podczerwień). W pewnym sensie te założenia zostały wprowadzone w życie. Jednak cena zakupu zdjęć satelitarnych nadal jest wysoka, między innymi z powodu stosowania minimalnych powierzchni do jednorazowego zakupu. Przez długi okres było 100 km 2, ostatnio zmniejszono tę powierzchnię do 50 km 2 (odpowiada mniej więcej powierzchni 100-tysięcznego miasta). Było to i jest nadal ograniczenie, którego nie mogą pokonać niektóre zainteresowane kręgi użytkowników: duże gospodarstwa rolne czy naukowcy prowadzący eksperymenty na niewielkich obszarach testowych. W przypadku naszego kraju mniejsza popularność wysokorozdzielczych zdjęć satelitarnych wynika również z niesprzyjających warunków pogodowych. Wprowadzenie na komercyjny rynek pierwszych egzemplarzy urządzeń cyfrowych przeznaczonych dl fotogrametrii i teledetekcji lotniczej nastąpiło w niecały rok od pojawienia się wysokorozdzielczych urządzeń satelitarnych. Początkowo były to tylko dwa urządzenia ADS40 i DMC, które to są dość drogie. Jednak w ostatnim czasie pojawiło się kilka zdecydowanie tańszych rozwiązań, które spowodowały wzrost liczby wykorzystywanych 9

praktycznie kamer cyfrowych. Lotnicze kamery cyfrowe, podobnie jak sensory satelitarne oferują obrazy wielospektralne jednak w dużo wyższej rozdzielczości, zarówno przestrzennej jak i radiometrycznej. 2.4. Uzupełniające urządzenia rejestrujące w systemach teledetekcyjnych są: Ważnym uzupełnieniem systemów rejestrujących zobrazowania wykorzystywane dla celów kartometrycznych Lotniczy skaning laserowy LIDAR (Light Detection and Ranging), rozwijany intensywnie od połowy lat 90-tych, dla generowaniach dokładnych numerycznych modeli rzeźby terenu (NMT) oraz tworzenia trójwymiarowych modeli miast. Jest to impulsowo pracujący dalmierz laserowy, połączony z głowicą skanującą i sprzęgnięty z systemem precyzyjnego pozycjonowania DGPS/INS, który rejestruje ogromną chmurę punktów wysokościowych terenu, dochodzącą nawet do 7 mln punktów na milę kwadratową. Ważną zaletą systemu, jest to, że część wysyłanych impulsów promieniowania odbija się od powierzchni pokrycia terenu (pierwsze odbicie first pulse mode) natomiast część promieniowania (około 30% latem i 70% zimą) przenika przez roślinność i odbija się od topograficznej powierzchni terenu (najdalsze odbicie last pulse mode). W niektórych modelach możliwe jest wyróżnienie 4 poziomów odbicia. Stosując odpowiednie oprogramowanie dla filtracji i klasyfikacji pokrycia, można uzyskać NMT z dokładnością od 15 do 30 cm oraz każdy punkt pokrywający teren może być zaklasyfikowany do osobnych zbiorów, dotyczących odpowiedniego rodzaju tego pokrycia (np. różnego rodzaju roślinność, budynki, linie energetyczne, itp.). Lotnicze systemy laserowe często łączy się z kamerą cyfrową, celem uzyskania jednocześnie obrazu terenu, z którego można wygenerować ortofotografię, lub z kamerą video dla zarejestrowania ogólnego widoku terenu. Przykładami lotniczych systemów laserowych, są: ALS50 firmy Leica Geosystems, pozwalający generować NMT z dokładnością 0,15 m; FALCON firmy Toposys; system ATLAS SL, do rejestrowania powierzchni terenu i jej pokrycia z małych wysokości od 20 do 280 m; system ALTM 3100 firmy Optech (łączony z kamerą DMC firmy Z/I Imaging); system LiteMapper, prezentowany przez firmę IGI mbh na XX Kongresie ISPRS w Istambule. a) b) Rys. 6. Oprzyrządowanie skanera ALS50 (a) oraz zarejestrowana chmura punktów 3D (b) Systemy obrazujące w zakresie mikrofalowym, które pozwalają obrazować powierzchnię Ziemi niezależnie od pory dnia i nocy oraz warunków atmosferycznych. Obecnie stosowane systemy mikrofalowe, wykorzystujące interferometrię radarową (InSAR), pracują z pułapu lotniczego, zwykle w paśmie X (w zakresie fal centymetrowych). Są one bardzo przydatne dla generowania Numerycznego Modelu Powierzchni (DSM), tj. modelu powierzchni terenu wraz z pokryciem. Przejście do NMT wymaga odpowiedniej filtracji i edycji uzyskanych danych. System STAR-3i firmy Intermap, pracujący w zakresie X, pozwala uzyskać NMT o dokładności sięgającej 0,5 m, oraz ortofotomapę z pikselem 1,25 m. W najbliższym czasie będą rozwijane wysokorozdzielcze mikrofalowe systemy 10

satelitarne. Dla przykładu, firma DLR (Niemieckie Centrum Aerokosmiczne) planuje uruchomić komercyjny system satelitarny TerraSAR-X, dostarczający obrazy z pikselem do 1 m. Zastosowanie LIDAR-u może być bardzo wszechstronne. Poniżej przedstawiono wybrane przykłady: 1) do generowani trójwymiarowego modelu terenu, nawet w obszarach zalesionych, 2) tworzenie trójwymiarowych modeli miast, 3) do analizy zmian w strefie brzegowej, w szczególności linii brzegowej i ruchów wydm nadmorskich (ryc. 7). 4) pomiar koncentracji różnych składników atmosfery takich jak pyły, aerozole (np. mgły, chmury kropelek kwasu siarkowego powstające z S0 2 ) oraz różne składniki gazowe (tlenki siarki, azotu, ozon), urządzenie 5) zamontowane na samochodzie (Karol Musioł, 1999). Ryc. 7. Widok perspektywiczny ukazujący model rzeźby wyspy Matagorda, wybrzeże stanu Teksas. DTM wykonano za pomocą skanowania laserowego (Źródło: http://www.geotimes.org/nov03/feature_lidar.html) 2.5. Źródła bibliograficzne do rozdziału 1 Beutner S., Jacobsen K., Wegmann H., 1999: Topographic Information System by Satellite and Digital Airborne Images. Joint Workshop of ISPRS WG I/1, I/3 and IV/4 Sensors and Mapping from Space 1999. Hanover, September 27-30. Bujakiewicz A., Aspekty technologiczne nowoczesnych metod fotogrametrii cyfrowej, Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Camera Calibration Panel Report, 2000, American Society for Photogrammetry and Remote Sensing, Bethesda, Meryland. Dam A.L., Miller S.B., Nagle G.A., Walker A.S., (2000): Photogrammetric Scannic Innowation in the LH Systems DSW500. International Archives of Photogrammetry and Remote Sensing. Vol. XXXIII, Part B2. Amsterdam 2000. 119-124. Diener S., Kiefer M., Dorstel Ch. (2000): Radiometric Normalisation and Colour Composite Generation of the DMC. International Archives of Photogrammetry and Remote Sensing. Vol. XXXIII, Part B1. Amsterdam 2000. 82-88. F. Leberl, M. Gruber, M. Ponticelli, S. Bernoegger, R. Perko. The Ultracam D large format aerial digital camera system. Reprinted for Proceedings Of The American Society For Photogrammetry & Remote Sensing, Anchorage, Alaska, 5-9 May, 2003. Źródło: http://www.vexcel.com/downloads/photogram/ultracam/whitepapers/paper-ucd-asprsproc2003.pdf 11

Franz L. Michael Gruber. Economical large format aerial digital camera. PREPRINT GIM International, The worldwide Magazine for Geomatics, June 2003. Źródło: http://www.vexcel.com/downloads /photogram/ultracam/whitepapers/paper- UCD-GIM-june2003.pdf Fricker P., Sandau R., Walker A.S., 1999: Airborne digital sensors a new approach. Joint Workshop of ISPRS WG I/1, I/3 and IV/4 Sensors and Mapping from Space 1999. Hanover, September 27-30. Heier H., 2001: Deploying DMC in today s workflow. Adres internetowy: http://www.ziimaging.com /News/OtherDocs/Heier.pdf. Heier H., Hinz A., 1999: A Digital airborne camera system for photogrammetry and thematic application. Joint Workshop of ISPRS WG I/1, I/3 and IV/4 Sensors and Mapping from Space 1999. Hanover, September 27-30. Kasser M., Egels Y., 2002: Digital Photogrammetry. Taylor&Francis, Londyn. Nowy Jork. Lillesand T.M., Kiefer R.W., 1994: Remote Sensing and Image Interpretation. John Wiley & Sons, Inc. Nowy Jork. Linsenbarth A., Nowoczesne sposoby pozyskiwania i wykorzystania teledetekcyjnych danych satelitarnych. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Musiał K., Zródło: http://www.if.uj.edu.pl/foton/64/lidar.htm Plichta A., Cyfrowe źródła obrazujące wyzwaniem współczesnej fotogrametrii i teledetekcji. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Zdunek Z., Dane obrazowe QuickBird - dziś i jutro. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. 12

3. Wstępne przetwarzanie danych teledetekcyjnych 3.1. Wstęp Obraz teledetekcyjny powstaje głównie dzięki odbitemu od powierzchni Ziemi promieniowaniu elektromagnetycznemu, którego źródłem w zakresie widzialnym i w bliskiej podczerwieni jest energia słoneczna. O wartości promieniowania elektromagnetycznego odbitego od badanych obiektów decydują: suma bezpośredniego promieniowania słonecznego i promieniowania rozproszonego atmosfery. Promieniowanie padające na dany obiekt ulega odbiciu, rozpraszaniu i pochłanianiu. Proporcje między tymi zjawiskami zależą od właściwości fizycznych, chemicznych i biologicznych powierzchni odbijającej. Promieniowanie odbite od powierzchni Ziemi, na drodze od rozpatrywanej powierzchni do urządzenia rejestrującego, ulega również rozpraszaniu i pochłanianiu. Promieniowanie elektromagnetyczne, które jest rejestrowane w danym punkcie obrazu, jest sumą promieniowania bezpośrednio odbitego od obiektu na powierzchni Ziemi, promieniowania rozproszonego w atmosferze oraz odbitego od innych obiektów (ryc. 8). Ryc. 8. Przemiany promieniowania elektromagnetycznego na drodze od Słońca, do sensora. Wpływ rozpraszania i absorpcji światła w atmosferze jest szczególnie istotny w przypadku zobrazowań satelitarnych, wykonywanych z dużej wysokości i obejmujących wielkie obszary. Dotyczy to również sytuacji, kiedy porównywane są obrazy wykonane w różnym czasie. Aby poprawnie wykonać klasyfikacje takich obrazów wielu autorów uważa za konieczne przeprowadzenie korekcji danych usuwającej wpływ warunków atmosferycznych (Dave i Berstein, 1982; Teillet, 1986; Franklin i Giles, 1995). Duggin i Robinowe (1990) wskazali, iż zróżnicowanie obrazu związane z wpływem atmosfery może być skorelowane z wpływem warunków oświetlenia i obserwacji oraz mieć charakter niesystematyczny, związany z przestrzennymi zmianami składu i gęstości powietrza. Techniki korygowania wpływu atmosfery można podzielić na dwie grupy (Franklin i Giles, 1995). Pierwsza obejmuje metody fizyczne, które wymagają danych o warunkach atmosferycznych, takich jak zawartość aerozoli i cząstek stałych, wilgotność, ciśnienie i temperatura w profilach pionowych oraz niektórych parametrach sensora a czasami także danych z naziemnych pomiarów radiometrycznych. Zebranie danych o parametrach charakteryzujących stan atmosfery jest kosztowne i nie zawsze możliwe do zrealizowania w trakcie wykonywania zobrazowania. Dlatego stworzono też metody, w których nie wykorzystuje się żadnych dodatkowych danych oprócz samego obrazu. W oparciu o wartości jasności poszczególnych 13

pikseli i korzystając z metod statystycznych koryguje się wpływ warunków atmosferycznych (Crippen, 1987; Chavez, 1988). Zupełnie nowe możliwości wykonywania korekcji atmosferycznej dają sensory, które w czasie kilku sekund wykonują zobrazowanie tego samego punktu na powierzchni Ziemi wzdłuż toru lotu z wielu kierunków i w kilku bądź w wielu zakresach spektralnych (Chrien i in. 2001; Diner in., 1998). Na podstawie analizy takich zobrazowań można między innymi oszacować zawartość aerozoli, wartości wilgotności, ciśnienia i temperatury. Jako przykład takich urządzeń można wymienić instrumenty: MISR Multi-angle Imiging SpectroRadiometer i AirMISR (wersja przystosowana do pułapu lotniczego) i POLDER (POLarization and Directionality of Earth Reflectances). Spośród przyczyn zmieniających jasność obrazu duże znaczenie ma położenie topograficzne, określane przez nachylenie i wystawę stoku (Cavayas, 1987, Itten and Mayer, 1993; Gu i Gillespie, 1998). Jest ono uznawane za najważniejszy czynnik modyfikujący dane teledetekcyjne w obszarach o średnim i dużym zróżnicowaniu wysokości względnej (Dymond, 1988). Położenie topograficzne jest rozpatrywane względem położenia zenitalnego i azymutalnego Słońca. Parametry te łącznie określają warunki oświetlenia dla danej powierzchni. Dane o nachyleniu i wystawie stoków pozyskuje się z modeli wysokościowych. Meyer i Itten (1993) wskazali na konieczność stosowania danych wysokościowych o rozdzielczości odpowiadającej lub wyższej od rozdzielczości obrazu korygowanego. Dymond (1988, 1992) analizował wielkość błędów, jakich można się spodziewać podczas klasyfikacji obrazów, a wynikających ze zróżnicowanego położenia topograficznego w obszarach górskich. Stwierdził, iż wykorzystując dane nieskorygowane dokładność klasyfikacji była o 15% niższa niż w przypadku danych poddanych korekcji. Wśród wielu technik korygowania wpływu położenia topograficznego, wyróżnia się dwa standardowe podejścia: Lamberta, zwane inaczej korekcją kosinusową, które opiera się na założeniu, że promieniowanie elektromagnetyczne jest odbijane jednakowo we wszystkich kierunkach, czyli w sposób rozproszony i Minearta, zakładającym niejednakowe odbicie we wszystkich kierunkach od danego typu powierzchni (Smith i in., 1980; Teillet, 1986, 1982; Meyer i Itten, 1993). Większość naturalnych powierzchni roślinnych i glebowych wykazuje niejednakowy we wszystkich kierunkach rozkład odbicia promieniowania elektromagnetycznego. W wyniku tego obserwowana powierzchnia, w danych warunkach oświetlenia, posiada różną jasność w zależności od kierunku, z którego jest obserwowana. Rozkład odbitego promieniowania zależy od warunków oświetlenia, zmieniających się wraz z kątem zenitalnym Słońca, proporcji pomiędzy bezpośrednim promieniowaniem słonecznym a światłem dyfuzyjnym nieba, położenia topograficznego powierzchni odbijającej oraz jej właściwości, w szczególności od jej szorstkości (Norman i in., 1985; Taylor i in., 1996; Cierniewski, 2001). Szorstkość powierzchni roślinnych, wynika z architektury roślin, tzn. różnic wysokości poszczególnych roślin oraz z kształtu i sposobu ułożenia liści. Szorstkość gleb niepokrytych roślinnością jest kształtowana przez wielkość ziaren i agregatów glebowych, których ułożenie i wielkość jest modyfikowana przez zabiegi agrotechniczne (Cierniewski i in., 1998; Cierniewski 2001). W przypadku upraw rolniczych istotny jest stosunek powierzchni zajmowanej przez rośliny do powierzchni odkrytej gleby. Oświetlenie takich powierzchni przez promienie słoneczne powoduje ich samozacienienie. Szorstkie powierzchnie glebowe są przeważnie najjaśniejsze, gdy widzi się najmniej ich powierzchni zacienionych. Wtedy detektor obserwuje powierzchnie mając Słońce za sobą a kierunek obserwacji jest zbliżony do kąta padania promieni słonecznych (Milton i Webb, 1987). Bezpośrednim skutkiem istnienia zjawiska dwukierunkowego odbicia od powierzchni Ziemi, przy oświetleniu z określonego kierunku, jest zmienność jasności rejestrowanych obiektów na obrazach teledetekcyjnych w zależności od kąta obserwacji mierzonego do normalnej (Teilet, 1986; Becker i in., 1988; Muller, 1993). Zmienne warunki obserwacji w przypadku sensorów teledetekcyjnych (większość kamer lotniczych; sensory satelitarne SPOT-HRV, MISR, NOAA- AVHRR, POLDER) mogą powodować błędy w obliczaniu wskaźników roślinnych (Holben i Fraser, 1984; Barnsley i Kay, 1990; Muller 1993) oraz być przyczyną niedokładnej analizy spektralnej obrazu (Becker i in., 1988; Foody, 1988; Duggin i Ribonowe, 1990, Flanklin i Giles, 1995). Konsekwencją niedokładności w klasyfikacji danych teledetekcyjnych jest wykonanie niepoprawnych map (Franklin i Wilson, 1991; Yang i Vidal, 1991). Wspólną cechą fotograficznych i cyfrowych sensorów teledetekcyjnych jest wykorzystywanie układów optycznych o stożkowym polu widzenia. Materiał, z którego zbudowane są soczewki i stożkowe pole widzenia, jest 14

przyczyną tego, iż strumień światła docierający bezpośrednio do błony filmowej lub powierzchniowej matrycy CCD, przechodząc przez układ optyczny, ulega radialnemu osłabieniu w miarę wzrostu odległości od punktu głównego zdjęcia, czyli winietowaniu naturalnemu (Wójcik, 1989; Slater, 1975). Dokładny zapis zmienności promieniowania elektromagnetycznego zależy również od cech materiału, który wykorzystuje się do rejestracji obrazu. Na filmie fotograficznym po procesie wywołania, nawet w obrębie powierzchni jednakowo naświetlonych, obserwuje się fluktuacje wartości gęstości optycznej, co wynika z ziarnistości obrazów fotograficznych (Zaleski i Jabłonka, 1992). Poszczególne elementy światłoczułe matrycy CCD wykazują różnice w budowie wewnętrznej struktury krzemu. Jest to przyczyną rejestracji innych wartości sygnału przez poszczególne elementy światłoczułe, w momencie jednakowego naświetlenia całej matrycy. W starszych macierzach CCD różnice wprowadzane przez poszczególne elementy, przy jednakowym naświetleniu, osiągały wartość 10% (Watkins in., 1995). Postęp technologiczny w sposobie wytwarzania macierzy CCD sprawił, że obecnie różnice te są dużo mniejsze. Zakłócenia wprowadzane przez elementy światłoczułe, zwane szumami, jak również winietowanie mogą być korygowane tuż po rejestracji obrazu na zasadzie wstępnej korekcji obrazu a przed zapisem na dysku twardym. Omówione powyżej czynniki składają się na rozkład jasności na zdjęciu lotniczym lub scenie satelitarnej. W zależności od celu wykorzystania danych teledetekcyjnych można stosować różnego rodzaju techniki wzmacniania lub korekcji. Cele takich zabiegów mogą być następujące: wizualna poprawa jakości obrazu pod kątem interpretacji wizualnej lub uzyskanej wiarygodnych danych o odbitym promieniowaniu elektromagnetycznym od powierzchni Ziemi, pod kątem klasyfikacji. Wśród tematów referatów zaprezentowanych na konferencji Wiosna w Geodezji i Kartografii Teoria i praktyka współczesnej fotogrametrii i teledetekcji problemy związane ze wstępnym przetwarzaniem danych teledetekcyjnych były wielokrotnie poruszane i zostaną pokrótce przedstawione w kolejnych podrozdziałach. 3.1. Metody poprawiające jakość danych teledetekcyjnych 3.2.1. Metoda trendu powierzchniowego i jej zastosowanie do wyrównania jasności zdjęć lotniczych Metoda trendu powierzchniowego oparta jest on na funkcjach wielomianowych dwóch zmiennych. Każdy piksel obrazu rastrowego jest traktowany jako punkt. Dla obrazów teledetekcyjnych najczęściej stosuje się wielomiany dwóch zmiennych stopnia pierwszego i drugiego, odpowiednio dla obrazów satelitarnych i zdjęć lotniczych. Celem omawianej pracy jest przedstawienie zastosowania metody trendu powierzchniowego do wyrównywania jasności kolorowych zdjęć lotniczych na przykładzie zdjęć z programu PHARE. W pracy przeanalizowano wpływ próbkowania obrazu na zmienność współczynników funkcji wielomianowych, omówiono wpływ obiektów odfotografowanych na funkcję trendu oraz przedstawiono możliwości polepszenia wyników wyrównania jasności uzyskiwanych tą metodą. Dla wybranych rodzajów powierzchni omówiono zmienność jasności wybranych obiektów przed i po wyrównaniu naświetlenia w powiązaniu ze zmieniającymi się warunkami obserwacji tych powierzchni na trzech kolejnych zdjęciach w szeregu. Do realizacji celu niniejszej pracy wybrano trzy kolejne zdjęcia lotnicze wykonane w ramach programu PHARE, z obszaru Puszczy Bukowej (obszar odfotografowany na zdjęciach nie ma dla celu niniejszej pracy istotnego znaczenia). Zdjęcia zostały zeskanowane z rozdzielczością 2000 dpi i zapisane w formacie TIFF w Centralnym Ośrodku Dokumentacji Geodezyjnej i Kartograficznej. Do zapisu barw wykorzystano 24-bitowy model RGB, W modelu tym barwa jest reprezentowana przez trzy liczby odpowiadające jasności promieniowania w trzech barwach podstawowych. Dla każdego ze zdjęć wykonano separację barwną i zapisano każdy kanał spektralny (niebieski, zielony i czerwony) w postaci oddzielnej macierzy rastrowej. W toku przeprowadzonych prac skupiono się na następujących problemach: 15

- czułości funkcji na ustawienie częstości próbkowania, czyli co który piksel brany jest pod uwagę przy ustalaniu równania trendu powierzchniowego, - możliwości ustalania funkcji trendu na podstawie obrazów o mniejszej rozdzielczości, - poprawienia wyników uzyskiwanych tą metodą. Ogólna postać analizowanego równania jest następująca: F(B) = A +Bx 2 +Cx+Dxy+Ey+Fy 2 W trakcie prowadzonych testów, zmieniając ustawienia częstości próbkowania, stwierdzono, ten parametr w w nieznaczny sposób zmienia w nieznaczny wartości współczynników, nie istotny z punktu widzenia praktycznego. Wielkość zmian była mniejsza od 0,2 wartości jednostkowego przyrostu jasności (analizowane dane zapisane były z kodowaniem 8-bitowym, w zakresie od 0-255). Rzadsze próbkowanie skraca czas obliczeń. Ryc. 9. Przykładowe wartości funkcji trendu powierzchniowego ustalane na podstawie obrazów próbkowanych z różnym częstości próbkowania. Ustalanie równań na podstawie obrazów w mniejszej rozdzielczości okazało się nie przydatne. Kształt powierzchni opisywanej równaniami dla wszystkich rozdzielczości jest podobny. Największe różnice wykazują wartości współczynnika A, decydującego o ogólnym zwiększeniu jasności całego obrazu. To sprawia, że nie jest możliwe skrócenie czasu obliczeń, przez wykorzystanie tego samego obrazu ze zmniejszoną rozdzielczością. Zdjęcia lotnicze PHARE wykonywano z wykorzystanie filtrów antywinietujących. Ich zastosowanie Jest dodatkową przyczyną modyfikującą ogólny rozkład jasności na całym zdjęciu lotniczym. Utrudnia to wyrównywanie jasności takich zdjęć, zwłaszcza metodami fizycznymi. Funkcja trendu powierzchniowego jest narzędziem, za pomocą którego jednym równaniem opisuje się rozkład jasności w całej płaszczyźnie zdjęcia. Nie jest to jednak doskonałe narzędzie. Zaproponowano (Królewicz, 2005) proste udoskonalenie tej metody, przez podzielenie sumy jasności obrazu skorygowanego funkcją trendu powierzchniowego i obrazu oryginalnego przez 2. Na rycinie 10 przedstawiono trzy zdjęcia, a) oryginalny obraz w kanale czerwonym, b) skorygowany obraz w kanale czerwonym oraz c) efekt działa proponowanej metody. Na obrazie b) widać jak w wyniku zastosowania funkcji trendu powierzchniowego w narożnikach zdjęcia obraz jest nadmiernie rozjaśniony lub przyciemniony. Zaproponowane uśrednienie powoduje zminimalizowanie niepożądanych efektów. 16

Ryc. 10. Trzy zdjęcia: a) oryginalny obraz w kanale czerwonym, b) skorygowany obraz w kanale czerwonym oraz c) efekt działa proponowanej metody. 3.2.2. Łączenie danych teledetekcyjnych o różnej rozdzielczości przestrzennej i spektralnej Teledetekcyjne systemy satelitarne i lotnicze dostarczają nam ogromnej ilości obrazów powierzchni Ziemi. Systemy te różnią się wieloma parametrami, a obrazy przez nie rejestrowane mają różną rozdzielczość przestrzenną (geometryczną), spektralną i czasową. W celu pełnego wykorzystania zawartych na pozyskanych obrazach informacji opracowuje się wiele technik łączenia danych, nazywanych czasami technikami integracji, scalenia, zespolenia, czy też fuzji (Mróz i Szumiało, 2005). Do podstawowych celów łączenia danych zaliczyć można: podwyższenie rozdzielczości przestrzennej satelitarnych obrazów wielospektralnych przy wykorzystaniu obrazów panchromatycznych i zdjęć lotniczych ułatwiającego proces fotointerpretacji. ułatwiania przeprowadzania korekcji geometrycznych poprzez łatwiejszy i bardziej precyzyjny wybór fotopunktów i punktów kontrolnych, wzmocnienia rozróżnialności obiektów w stosunku do pojedynczego obrazu, co ułatwia pracę na obrazie barwnym lub mapie satelitarnej, rozszerzenia zbiorów danych o nowe wymiary przestrzeni spektralnej w celu poprawienia wyników klasyfikacji. Dokładność klasyfikacji może być zwiększona, kiedy w jej procesie wykorzystujemy dane wieloźródłowe. Dane satelitarne zazwyczaj pozyskiwane są w postaci zbiorów wielospektralnych. W wielu przypadkach jako oddzielny kanał rejestrowany jest szerokopasmowy zakres widzialny promieniowania elektromagnetycznego. Obraz taki najczęściej charakteryzuje się większą rozdzielczością przestrzenną. Istnieją metody, które pozwalają uzyskać obrazy wtórne kolorowe, będące połączoną kompozycją kanału panchromatycznego i trzech spektralnych. Najczęściej obraz panchromatyczny posiada dwukrotnie większą rozdzielczość niż węższe spektralnie pozostałe kanały. Do łączenia takich danych wykorzystuje się metodę Pan-Fuse, opartą na podziale jednego piksela panchromatycznego czterema pikselami multispektralnymi. W taki sposób przygotowywano kolorowe obrazy z danych pozyskiwanych z satelitów SPOT oraz Landsat ETM. Na rycinie 11 przedstawiono kompozycje barwną z satelity SPOT PAN o rozdzielczości 10 m oraz XS 20 m. W oparciu o metodę PanFuse, wykonano mozaiki całego świata z rozdzielczością 15 m. Kanał panchromatyczny, 15 m, połączono z kanałami multispektralnymi 2, 4 i 7. Mozaiki z obszaru naszego kraju są dostępne na stronie Centrum Kosmicznego im. Johna C. Stennisa należącego do NASA pod adresem internetowym: https://zulu.ssc.nasa.gov/mrsid/mrsid.pl. Dostępne są na tej stronie dane są z roku 1990 i również 2000. Publikowane są one w formacie MRSID i aby można było przeglądać obrazy należy posiadać przeglądarkę obsługującą ten format. 17

Metodę PanFuse wykorzystuje się wielokrotnie do łączenia danych z różnych systemów satelitarnych np. panchromatyczny SPOT z wielospektralnym Landsatem. W 1999 roku pojawiły się na rynku komercyjnym wysokorozdzielcze obrazy satelitarne, w których stosunek wielkości piksela obrazu panchromatycznego do multispektralnego przekraczał 1:2 (liniowo). W przypadku takich obrazów przestały się sprawdzać dotychczas stosowane algorytmy (PanFuse). Pojawiła się potrzeba opracowania algorytmu dającego możliwość połączenia obrazu panchromatycznego z multispektralnym, z jednoczesnym efektem wyostrzania. Odpowiedzią na tę potrzebę jest gama algorytmów o wspólnej, potocznej nazwie PanSharp. Ryc. 11. Kompozycja Barwna powstała w wyniku połączenia obrazów multispektalnych (XS) SPOT z panchromatycznym kanałem (P) metodą PanFuse. Wśród nich wyróżnia się najczęściej trzy przekształcenia: IHS, HBS i Brovey. W dwóch pierwszych przekształca się najpierw trzy kanały spektralne podstawione do przestrzeni barwnej RGB na kanały w przestrzeni IHS lub HBS (I intensywność, H- barwa lub odcień S nasycenie i B jasność), następnie opierając się na założeniu, że zakres spektralny obrazu o wyższej rozdzielczości np. panchromatycznego, jest taki sam jak suma tych, w których zostały zarejestrowane obrazy o niższej rozdzielczości geometrycznej np. wielospektralne. 18

Ryc. 12. Przykład zastosowania technik wyostrzania kompozycji barwnej z kanałów wielospektralnych systemu QuickBird o niższej rozdzielczości (2,44m) poprzez ich połączenie z kanałem o wyższej rozdzielczości (1m). W dobie pojawienia się systemów hiperspektralnych zostały stworzone modyfikacje transformacji Brovey a pozwalające na łączenie informacji pochodzących z obrazów o różnej rozdzielczości przestrzennej, w sposób bezstratny, tj. przy zachowaniu charakterystyk spektralnych odwzorowanych w zestawie wąskich kanałów spektralnych, ale z dokładnością lokalizacji obiektów w skali i stopniu szczegółowości kanału wysokorozdzielczego (szerokopasmowego). Wąskie kanały spektralne są grupowane w tzw. segmenty danych tak, aby w danej grupie znalazły się obrazy należące do szerszego spektralnie, ale wysokorozdzielczego kanału, który będzie kanałem wyostrzającym, obejmującym swoim zasięgiem cały segment hiperspektralny. Właściwe wyostrzanie dokonuje się przez wymnożenie kanałów o różnej rozdzielczości w ramach segmentów z odpowiednią normalizacją (Mróz i Szumiało, 2005). 19

3.3. Jakość danych teledetekcyjnych przed i po korekcjach radiometrycznych i geometrycznych Wśród badaczy zajmujących się przetwarzaniem obrazów teledetekcyjnych, wyróżnić można dwie grupy: takich, którzy dopuszczają klasyfikację na podstawie surowych danych zapisanych przez satelitę i takich, którzy uważają, że klasyfikację powinno się przeprowadzać po przekształceniu wartości surowych na zestandaryzowane współczynniki odbicia. Przedmiotem zainteresowań badań prowadzonych przez panią dr Osińską-Skotak było stwierdzenie czy wykonywanie korekcji atmosferycznej obrazów wielospektralnych przed procesem klasyfikacji daje wymierne efekty poprawy jakości uzyskiwanych wyników czy też utrudnia ona poprawne przeprowadzenie procesu klasyfikacji. Prace eksperymentalne zostały przeprowadzone dla czterech zdjęć satelitarnych zarejestrowanych przez system LANDSAT TM w różnych okresach roku, obejmujących obszar Warszawy i okolic. Są to sceny zarejestrowane w różnych latach i różnych miesiącach. Wynikająca z tego różnorodność danych była korzystna z punktu wykonywanych prac badawczych. Sceny satelitarne zarejestrowane zostały w dniach 2 kwietnia 1990 r., 25 maja 1992 r., 15 lipca 1987 r. oraz 16 sierpnia 1993 r. około godziny 9 00 lokalnego czasu słonecznego, przy bezchmurnej pogodzie. Korekcję atmosferyczną zdjęć satelitarnych wykonano w module ATCOR (A Spatially-Adaptive Fast Atmospheric Correction Algorithm), który jest pakietem programów służącym do korekcji atmosferycznej obrazów uzyskanych przy pomocy sensorów o wysokiej rozdzielczości przestrzennej, takich jak: LANDSAT TM, SPOT czy IRS. Oblicza on współczynniki odbicia oraz temperaturę rzeczywistą powierzchni na podstawie danych z różnych kanałów spektralnych zarejestrowanych w różnych systemach satelitarnych dla różnych warunków atmosferycznych. Autorka przeprowadziła klasyfikację pokrycia terenu w podejściu nadzorowanym w sposób klasyczny, na podstawie zdefiniowanych przez użytkownika pól treningowych. Następnie wykonano klasyfikację przy zastosowaniu algorytmu największego prawdopodobieństwa (z ang. maximum likelihood method). We wszystkich analizowanych terminach większa różnica wpływu korekcji atmosferycznej zauważalna jest dla terenów pokrytych roślinnością. W zakresie promieniowania zielonego (TM2) i czerwonego (TM3) obiekty pokryte roślinnością na obrazie skorygowanym ze względu na wpływ atmosfery mają niższe odbicie spektralne (do ok. 10%), co należy tłumaczyć silniejszym rozpraszaniem tych zakresów przez atmosferę. Jedynie bardzo jasne gleby i piaski mają wyższe odbicie spektralne na obrazach skorygowanych nawet o 10-15%. W zakresie bliskiej podczerwieni (TM4) tereny pokryte roślinnością oraz gleby lekkie, piaszczyste, jasne wykazują wyższe odbicie spektralne (2-20% ) po skorygowaniu wpływu atmosfery. Nieznacznemu obniżeniu ulega natomiast odbicie dla gleb ciężkich oraz wód powierzchniowych (do ok. 5%). W przypadku klasyfikacji nadzorowanej metodą maksymalnego prawdopodobieństwa największą zgodność klasyfikacji wykonanej dla danych źródłowych i klasyfikacji uzyskanej dla danych skorygowanych otrzymano dla klas, definiujących gleby odkryte i wyniosła ona ponad 90 %. Pozostałe klasy wykazują już znacznie mniejszą zgodność. Powyżej 80% pikseli zostało sklasyfikowanych w ten sam sposób w przypadku klas: powierzchnie betonowe, tereny zabudowane, zabudowa zwarta i przemysłowa, tereny pokryte bardzo gęstą roślinnością. Pozostałe klasy mają słabszą zgodność przy porównaniu wyników obu klasyfikacji. Dotyczy to w szczególności klas związanych z roślinnością, choć w niektórych terminach ujawnia się również dla gleb odkrytych. Przy wykonywaniu klasyfikacji pokrycia terenu metodą nadzorowaną okazało się, że korekcja atmosferyczna zmienia charakterystykę statystyczną pól treningowych. Poddanie danych źródłowych korekcji atmosferycznej prowadzi w efekcie do uzyskania większego zróżnicowania odpowiedzi spektralnych poszczególnych obiektów. Szczególnie duże znaczenie ma korekcja atmosferyczna w zakresie bliskiej podczerwieni. Można stwierdzić z całą pewnością korekcja atmosferyczna poprawia możliwość rozróżniania terenów pokrytych roślinnością o różnego rodzaju biomasie, zawartości chlorofilu, itp. Wynika to przede wszystkim z wykonania korekcji atmosferycznej w zakresie bliskiej podczerwieni, ale nie tylko. Zauważono również większą łatwość w 20

klasyfikowaniu gleb odkrytych i rozróżnianiu niektórych typów pokrycia terenu od siebie (np. wody powierzchniowe, las iglasty, zabudowa przemysłowa), które w niektórych terminach trudno od siebie odseparować. woda głęboka woda płytsza las iglasty las liściasty zakrzaczenia trawa zielona zboże jare łachy piaszczyste powierzchnia betonowa gleba piaszczysta asfalt gleba zwięzła a. woda głęboka woda płytsza las iglasty las liściasty zakrzaczenia trawa zielona zboże jare łachy piaszczyste powierzchnia betonowa gleba piaszczysta asfalt gleba zwięzła b. Ryc. 13. Charakterystyki spektralne wybranych obiektów terenowych opracowane na podstawie danych satelitarnych LANDSAT TM z dnia 15 lipca 1987 r.: a. - nie poddanych korekcji atmosferycznej, b. - poddanych korekcji atmosferycznej w module ATCOR. Przeprowadzono również testy związane z geometrycznymi zmianami danych satelitarnych, wynikającymi z dostosowania ich geometrii do lokalnych układów współrzędnych. Owo dostosowanie wynika z zastosowania wielu warstw informacyjnych, nie tylko obrazowych, pochodzących z różnych źródeł w procesie klasyfikacji i konieczności sprowadzenia ich do wspólnego układu współrzędnych. Istotą problemu jest to, iż każda zmiana układu współrzędnych 21

(zewnętrznego w stosunku do układu kolumn i wierszy macierzy rastrowej) wymusza zmianę kształtu macierzy rastrowej. Z kolei zmiana kształtu macierzy, powoduje powstanie nowego układu wierszy i kolumn. Po takiej zmianie niezbędne staje się ponowne próbkowanie obrazu rastrowego, czyli obliczenie nowej jasności każdego piksela. Najczęściej stosuje się w tym celu jedną z trzech metod ponownego próbkowania: najbliższego sąsiada (z ang. nearest neighbour), interpolacji bilinearnej (z ang. bilinear interpolation) oraz splotu sześciennego (z ang. cubic convolution). Metody te różnią się zasięgiem sąsiedztwa jakie bierze udział w procesie obliczania nowej jasności pikseli (ryc. 14). Zatem, każda zmiana geometryczna przed procesem klasyfikacji powoduje modyfikacje źródłowych danych satelitarnych. Ryc. 14. Metody ponownego próbkowania obrazu. W związku z tym problem, pani dr Osińską-Skotak, podjęłą próbę przeanalizowania wielkości wpływu przekształceń geometrycznych na wyniki klasyfikacji. W pierwszym podejściu wykonywana była najpierw klasyfikacja na podstawie danych źródłowych, a następnie wynik, jaki uzyskano, poddano transformacji geometrycznej przy zastosowaniu próbkowania obrazu metodą najbliższego sąsiada. Drugie podejście polegało na odwróceniu kolejności wykonywania klasyfikacji i transformacji geometrycznej, czyli: najpierw wykonywana była transformacja geometryczna źródłowych zdjęć wielospektralnych a dopiero w drugim kroku przeprowadzano klasyfikację obrazów już zgeometryzowanych. Analizie poddano jedne z pierwszych scen satelitarnych, jakie zarejestrował system satelitarny SPOT-5 w 2002 roku. Pierwsze zdjęcie, obejmujące swoim zasięgiem teren Żuław Wiślanych, pozyskano 20 sierpnia 2002 r., natomiast drugie, dla obszaru Puszczy Białej, zarejestrowano 12 września 2002 r. a) Żuławy b) Powiat Wyszków Ryc.15. Fragmenty obszarów testowych Żuławy oraz Wyszków przedstawione w formie kompozycji barwnej ze zdjęć SPOT 5 w tej samej skali. 22

Obszar testowy Żuławy to teren o strukturze agrarnej skonsolidowanej wielkoobszarowej, pola siewne o różnej wielkości (nawet do 25 ha) mają różnorodne wymiary i kształty, ale bardzo rzadko występują pola o wydłużonym kształcie, tak bardzo charakterystyczne dla Niziny Mazowieckiej (Ryc. 15). Z kolei obszar testowy Wyszków jest to teren o bardzo rozdrobnionej strukturze agrarnej. Wielkość średnia gospodarstwa w powiecie wyszkowskim ma powierzchnię od 2 ha do 4 ha, ale pola siewne mają na ogół od 0,4 ha do 1 ha i często mają one bardzo wydłużone kształty. W wyniku przeprowadzonych badań okazało się, że wpływ momentu wykonania transformacji geometrycznej na rezultaty klasyfikacji nienadzorowanej zdjęć wielospektralnych istnieje, ale bardziej istotne znaczenie na wyniki klasyfikacji ma algorytm ponownego próbkowania obrazu niż sam moment wykonania geometryzacji. Wpływ na wynik klasyfikacji jest większy w przypadku metod próbkowania: bilinearnej i splotu sześciennego, w których przy obliczaniu wartości piksela w nowym układzie współrzędnych wykorzystuje się większą ilość pikseli sąsiadujących, niż dla metody najbliższego sąsiada (Osińska-Skotak, Fijałkowska, Chudzyńska, 2004). Stwierdzono również, Jednoznacznie można stwierdzić, że wpływ momentu wykonywania transformacji geometrycznej najsilniej ujawnia się dla terenów o rozdrobnionym krajobrazie. W przypadku obszaru skonsolidowanego o dużych jednorodnych powierzchniach wpływ ten jest mniej widoczny. 3.4. Ortorektyfikacja obrazów lotniczych i satelitarnych Proces ortorektyfikacji obrazów teledetekcyjnych jest ciągle udoskonalany, mimo iż jest on współcześnie niemal całkowicie zautomatyzowany. Proces ortorektyfikacji można określić mianem geometrycznej normalizacji danych. Jest to przekształcenie geometryczne, w wyniku którego następuje przejście z geometrii rzutu środkowego (lub ogólniej z geometrii pola widzenia sensora), do geometrii rzutu prostokątnego, właściwego mapom. W trakcie tej korekcji usuwa się większość zniekształceń geometrycznych, wynikających z deniwelacji występujących na powierzchni Ziemi. W przypadku ortorektyfikacji danych o dużej rozdzielczości, poniżej 1 m, pozyskiwanych z pułapu lotniczego, pewną nowością jest coraz powszechniejsze wykonywanie prawdziwej lub może poprawniej mówiąc, pełnej ortorektyfikacji zdjęć lotniczych. Do tej pory przyjęło się w opracowaniach fotogrametrycznych wykonywać korekcję zniekształceń geometrycznych, wynikających z rzeźby terenu, w trakcie ortorektyfikacji, pomijano zaś w tym procesie wszelkiego rodzaju budowle. Wynikało z różnych przyczyn technologicznych i interpretacyjnych. Budowle widziane ukośnie, są łatwiej identyfikowalne w aspekcie ich przeznaczenia. Z kolei pełna rektyfikacja obrazu bardzo ułatwia zastosowanie danych teledetekcyjnych w procesie aktualizacji map zasadniczych. W niedalekiej perspektywie, należy się spodziewać, iż wizualnie produkt ortorektyfikacji nie będzie oglądany na ekranie komputera w dwóch wymiarach, lecz w trzech wizualizacja pokrycia powierzchni Ziemi na bardzo dokładnych modelach rzeźby, uwzględniających topografię miasta. Do tego celu nie będzie konieczne używanie okularów do obserwacji trójwymiarowej, ponieważ na rynku pojawiły się monitory generujące same obraz trójwymiarowy (np. LL-151-3D 15'' XGA LCD Monitor). Większość prac rozwojowych dotyczących ortorektyfikacji dotyczy danych wysokorozdzielczych danych satelitarnych. W przypadku tych danych satelitarnych najbardziej popularnym tematem badawczym jest rozwój i ewaluacja wirtualnych algorytmów ortorektyfikujących (Rigorous Sensor Model) i modeli RPC. Ortorektyfikacja metodą wirtualnego modelu kamery jest dokładniejsza i mniej pracochłonna, ale występuje w niewielu pakietach oprogramowania. Ortorektyfikacja metodą RPC (Rational Polynomial Coefficients) występuje praktycznie w każdym oprogramowaniu przeprowadzającym ortorektyfikację danych satelitarnych, ale wymaga większej ilości fotopunktów oraz nie uwzględnia poprawek orbitalnych. Do wykonania ortorektyfikacji niezbędne jest posiadanie punktów kontrolnych pomierzonych GPS oraz dokładnych modeli DEM. Precyzja modeli DEM im większa tym lepiej. Niemniej jednak dla terenów płaskich odpowiedni wydaje się już DTED-2 (Zdunek, 2005). Dokładność ortofotomap uzyskiwanych z danych satelitarnych odpowiada średnioskalowym zdjęciom lotniczym. 23

3.5. Bibibliografia do podrozdziału 3 Barnsley M. J., Kay S. A., 1990: The relationship between sensor geometry and, vegetation-canopy geometry and image variance. International Journal of Remote sensing. Vol. 11, No 4, pp. 1075-1083. Becker F., Nerry F. 1988: Towards a quantitative uses of Aerial Color Infrared Films. Photogrammetric Engineering and Remote Sensing, Vol. 44, No. 6. Bujakiewicz A., Aspekty technologiczne nowoczesnych metod fotogrametrii cyfrowej, Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Cavayas F., 1987: Modelling and correction of topographic effect using multitemporal satellite images. Canadian Journal of Remote Sensing, Vol. 13, No. 1, pp. 49-67. Chrien N.L., Bruegge C.J., Gaitley B.J. (2001): AirMISR Labolatory Calibration and In-flight Perfomance Results. Remote Sensing of Environment. Vol. 77. pp. 328-337. Cierniewski J., 2001: Model kierunkowego odbicia od gleb uprawnych uwzględniający obecność agregatów glebowych oraz mikroreliefu powierzchni gleby. Bogucki Wyd. Nauk. Poznań. Crippen R., 1987: The regression intersection method of adjusting image data for band rationing. International Journal of Remote Sensing. Vol. 9, No. 1, pp. 137-155 Dave D. V., Berstein R., 1982: Effects of terrain orientation and solar position satellite level luminance observations. Remote Sensing of Environment, Vol. 12 No. 1, pp. 331-348. Diner J.D., Beckert J.C., Reilly T.H., Bruegge C.J., Conel J.E., Kahn R.A., Martonchik J.V., Ackerman P.T., Davies R., Gerstl S.A.W., Gordon H.R., Muller J.P., Myneni B.R., Sellers P.J., Pinty B., Verstraete M.M., (1998): Multi-angle Imiging Spectroradiometer (MISR) Instrumetn Description and Experiment Overview. IEE Transactions on Geoscience and Remote Sensing. Vol 36. No. 4. 1072-1088. Duggin M. J., Robinove C. J., 1990: Assumption implicit in remote sensing data acquisition and analysis. International Journal of Remote Sensing, Vol. 11, No. 10, pp. 1669-1694 Dymond, J. P., 1988, Nonparametric modeling of radiance in hill Country. Remote Sensing of Environment. Vol. 25, No. 1, pp. 3-21. Dymond, J. P., 1992, Nonparametric modeling of radiance in hill country for digital classification of aerial photographs. Remote Sensing of Environment. Vol. 39, No. 1, pp. 95-102. Franklin S.E., Giles Ph.T., 1995: Radiometric processing of aerial and satellite remote sensing imagery. Computers & Geoscience. Vol. 21, No. 3, pp. 413-423. Franklin S.E., Wilson B. A., 1991: Spatial and spectral methods in remote sensing. Computers & Geoscience. Vol. 17, No. 8, pp. 1151-1172. Gu D., Gillespie A., 1998: Topographic normalization of Landsat TM images of forest based on subpixel Sun-canopysensor geometry. Remote Sensing of Environment. Vol. 64, 166-175. Holben B., Fraser S. N., 1984: Red and Near-Infrared response to Off-Nadir Viewing. International Journal of Remote Sensing. Vol. 5, 145-154. 24

Itten K. I., Meyer P., 1993; Geometric and radiometric correction of TM Data of mountainous Forested areas: IEEE Trans. Geosciences and Remote Sensing, Vol. 31, No. 4, pp. 764 770. Katarzyna Osińska-Skotak. Korekcja geometryczna a wyniki klasyfikacji zdjęć wielospektralnych. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Katarzyna Osińska-Skotak. Wpływ korekcji atmosferycznej zdjęć satelitarnych Na wyniki cyfrowej klasyfikacji wielospektralnej. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Królewicz S., Wyrównywanie barw zdjęć lotniczych w oparciu o metodę trendu powierzchniowego. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Milton E. J., 1989: Principles of Field Spectroscopy. Remote Sensing Yearbook, 1988-1989, 79-99. Milton E. J., Webb J. P., 1987: Ground radiometry and airborne, multispectral survey of bare solis, Int. J. Rem. Sens. 18, 3-14. Muller E. 1993: Evaluation and correction of angular anisotropic effects in multidate SPOT and Thematic Mapper data. Remote Sensing of Environment. Vol. 45, No. 3, 295-309. Muller E. 1993: Evaluation and correction of angular anisotropic effects in multidate SPOT and Thematic Mapper data. Remote Sensing of Environment. Vol. 45, No. 3, 295-309. Norman J.M., Welles J.M., Walter E.A., 1985: Contrast among bidirectional reflectance of leaves, canopies and soils. IEEE Trans. Geosciense. Rem. Sens., GE-23: 659-667. Slater Ph. N., 1975: Photographic Systems for Remote Sensing. [w]: Manual of Remote Sensing First Edition. American Society of Photogrammetry, Falls Church, Virginia. Smith J.A., Lin T.L., Ranson J.K. The Lambertian assumption and Landsat data. Photogrammetric Engineering and Remote Sensing. Vol. 46, No. 9, 1183-1189. Taylor G. R. i in., 1996: Characterization of saline soils using airborne radar imagery. Remote Sensing of Environment. Vol. 57: 127-142. Teillet P.M., 1986: Image corrections for radiometric effects in remote sensing. International Journal of Remote Sensing. Vol. 7, No. 12, pp. 1637-1651 Watkins C.D., Sadun A., Marenka S., 1995: Nowoczesne metody przetwarzania obrazu, WNT, Warszawa. Wójcik S., 1989: Zdjęcia lotnicze. PPWK. W-wa. Yang C., Vidal A., 1991: Combination of digital elevation model SPOT HRV multispectral imagery for reflectance factor mapping. Remote Sensing of Environment. Vol. 32, No. 1, 35-45. Zdunek Z., Dane obrazowe QuickBird - dziś i jutro. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. 25

4. Algorytmy segmentacji i klasyfikacji obrazów dla potrzeb aktualizacji SIP 4.1. Idea metodyki aktualizacji danych w ramach SIP z wykorzystaniem danych teledetekcyjnych Utrzymywanie baz danych, zawierających informacje ewidencyjne o charakterze geodezyjno-kartograficznym (GIS), wymaga regularnego monitorowania zmian środowiska i stałej aktualizacji zasobów informatycznych. Jednym ze sposobów wykrywania zmian jest komputerowa analiza zobrazowań lotniczych lub satelitarnych. Zespół wykonawców grantu indywidualnego KBN nr 4T12E 016 26 podjął się rozwinięcia i wdrożenia własnej idei weryfikacji i aktualizacji baz danych na podstawie analizy obrazów teledetekcyjnych. Bazuje ona na wykorzystaniu relacji przestrzennych między definicją geometryczną obiektów w bazie danych a ortoobrazem zorientowanym w tym samym układzie współrzędnych. W oparciu o pozyskane z zasobu bazodanowego informacje generowane są klasyfikacyjne pola wzorcowe dla określonej grupy (podklasy) obiektów. Oryginalność tej idei polega na tym, że poprzez bezpośrednie powiązanie bazy danych z obrazem uzyskuje się możliwość selekcji obszarów uczących za pośrednictwem języka zapytań do bazy danych. Tą samą drogą można pozyskać dane do wskazania obszarów wyłączonych z klasyfikacji, a nawet zastosować wagowanie kryteriów i wskazywanie obszarów potencjalnego występowania poszukiwanych klas obiektów, na przykład określonych upraw w terenach użytkowanych rolniczo. Implementacja metody jako narzędzia określonego systemu informacji przestrzennej (na przykład Geo-Info) pozwoli na prowadzenie wspólnych analiz wektorowo-rastrowych włączających klasyfikację w proces analiz geoprzestrzennych. Podjęto trzy próby sprawdzenia różnych narzędzi informatycznych pod kątem przydatności w rozwoju powyższej idei. Klasyczne podejście do klasyfikacji obiektów na obrazach teledetekcyjnych, zakładające rozpoznawanie szczegółów terenowych pogrupowanych w kilka kategorii tematycznych, reprezentowanych przez cechy radiometryczne kilkukanałowego obrazu rastrowego, nadal wymaga coraz bardziej zaawansowanych metod podnoszenia skuteczności. Zadanie rozpoznawania rozważane w pracy należy scharakteryzować jako trudne przynajmniej z dwóch powodów. Po pierwsze, zdjęcia lotnicze charakteryzują się znacznym zróżnicowaniem cech (jasność, kontrast, długość cienia zależna od kąta padania promieni słonecznych, itp.). Ponadto, detekcja tak złożonych obiektów jak drogi i ulic wymaga skomplikowanego, wieloetapowego algorytmu, którego działanie kontrolowane jest przez wiele parametrów. 4.2. Automatyczna detekcja zmian zabudowy Zaproponowana wyżej idea została zastosowana do analizy zmian zabudowy terenu (Jelonek, 2005). Przyjęto, że monitorowanie powinno uwzględniać dwojaki charakter zmian. Po pierwsze, wynik analizy powinien wskazywać na obszary, gdzie określone zabudowania zostały usunięte i tym samym informacja o nich powinna być wycofana z bazy danych. Po drugie, system analizy powinien dostarczyć użytkownikowi informację gdzie w analizowanym terenie pojawiły się nowe zabudowania, które wymagają nowych wpisów do bazy danych. Dzięki tym założeniom, możliwe staje się w praktyce efektywnie rozpoznawanie samowoli budowlanej oraz korygowanie nieaktualnych bądź błędnych wpisów. Do przetestowania, przedstawionego powyżej podejścia, wykorzystano zdjęcie lotnicze obejmujące peryferia miasta Nekla wraz z otaczającym je obszarem rolniczym. 4.2.1. Podstawy teoretyczne Z uwagi na znane problemy fotointerpretacji, takie jak nierównomierność oświetlenia, cienie, zachodzenie na siebie obiektów, podjęto tu próbę wykrywania pewnej klasy obiektów terenowych w oparciu o analizę ich kształtu. Zastosowano operator Sobela, jako metodę pomocniczą w wykrywaniu krawędzi budynków. Operator ten może być z równym 26

skutkiem wykorzystywany do uwypuklenia charakterystyki teksturalnej gruntów ornych (Ryc.16) i innych klas obiektów terenowych. W odniesieniu do analizy zabudowy algorytm obejmuje następujące czynności: 1) Zmiana obrazu barwnego RGB na monochromatyczny, 2) Detekcja pionowych i poziomych krawędzi za pomocą operatora Sobela, 3) Binaryzacja otrzymanych obrazów, 4) Detekcja obszarów graniczących z pionowymi i poziomymi krawędziami, 5) Filtracja uzyskanego obrazu wynikowego, za pomocą wybranych filtrów geometrycznych (powierzchnie, kształt), 6) Selekcja (i ewentualne łączenie) obszarów rozłącznych. Ryc. 16. Sposób wykrywania krawędzi na tonalnym obrazie terenu zabudowanego, przy użyciu Operatora Sobela Ryc.17. Zastosowanie Operatora Sobela dla terenów rolnych 4.2.2. Implementacja metody Metodę przetestowano na obiekcie testowym, obejmującym obraz i bazę danych o obiektach na przedmieściu Nekli. Opis geometrii obiektów budowlanych pozyskano z pliku wsadowego Geo-Info (fragment): # EKSPORT z układu 1965_S4, osnowa 1965_S4, gmina 63641, operator Operator DEMO # DATA: 27-02-2004, GODZ: 11:09 27

# FORMAT: WSAD #_WERSJA=2000 #_SEPARATOR=; #BUDYNKI=Kod;Nowy_numer;Dotychczasowy_numer;Metoda_pozysk_danych;Numer_operatu;Rzędna_Hg_H1;Rzędn a_hd_h2;pow_z_ewidencji;skala_symb_w_osi_x;skala_symb_w_osi_y;funkcja;liczba_kondygnacji;typ_budynku;nu mer_arkusza_ew;numer_obrębu;miejscowość;ulica;numer_porządkowy;uwagi #_PUNKTY=Kod;Numer_obrębu;Numer_arkusza_ew;Nowy_numer;X_w_ukł_bieżącym;Y_w_ukł_bieżącym;H_w_ukł_bi eżącym;_typ #_OSOBY=Kod;Nazwa_Nazwisko;Pełna_nazwa_Imiona;_Charakter #_SEPARATOR= ESBZO 141 1 Pomiar na osnowę i obliczenia w tym pom. GPS powiąz. z osnową? 1 1 3 Inny w tym technicznego uzbrojenia terenu 1 Ognioodporny 12 209 Nekla ZAWODZIE 9 EPINN 209 12 8705 5704519.786 3753452.054 P EPINN 209 12 8706 5704520.371 3753447.844 P EPINN 209 12 8704 5704517.499 3753447.445 P EPINN 209 12 8671 5704518.125 3753442.234 P EPINN 209 12 8674 5704511.182 3753441.341 P EPPGS 209 12 1200193 5704509.98 3753450.69 P ESBZO 142 1 Pomiar na osnowę i obliczenia w tym pom. GPS powiąz. z osnową? 1 1 3 Inny w tym technicznego uzbrojenia terenu 1 Ognioodporny 12 209 Nekla ZAWODZIE 9 EPINN 209 12 8671 5704518.125 3753442.234 P EPINN 209 12 8668 5704519.167 3753434.135 P EPINN 209 12 8672 5704512.224 3753433.242 P EPINN 209 12 8674 5704511.182 3753441.341 P Na rycinie 18 zilustrowano wynik zastosowania operatora wykrywania krawędzi w dwóch prostopadłych kierunkach: -1-2 -1-1 0 1 0 0 0-2 0 2 1 2 1-1 0 1 Ryc. 18. Zastosowania operatora wykrywania krawędzi w dwóch prostopadłych kierunkach. 28

Po złożeniu dwóch wynikowych obrazów uzyskano zbiorczy (ryc.19), który następnie wykorzystano do analiz zmian zabudowy w połączeniu z informacją bazodanową. Ryc. 19. Złożenie dwóch obrazów wynikowych. Efekty kolejnych czynności analitycznych ilustruje kolejna rycina 20. Ryc. 20. Kolejne etapy analizy obrazu. Efektem działania algorytmu jest liczna grupa wskazań, które mogą określać potencjalne miejsca nowych lub usuniętych budowli. Eliminacja szumów i korelacji z otoczeniem daje efekty zilustrowane na kolejnych rycinach 21 i 22. Ryc. 21. Jedno ze wskazań obiektu istniejącego w bazie danych a niewidocznego na zdjęciu 29

Ryc. 22. Wskazanie obiektu zlewającego się na zdjęciu z otoczeniem (korony drzew) 4.2.3. Podsumowanie metody Na podstawie dotychczas przeprowadzonych badań można sformułować następujące wnioski: zaproponowany algorytm detekcji zmian urbanistycznych charakteryzuje się zarówno dużą efektywnością (krótki czas przetwarzania i analizy obrazu) jak również stosunkowo dobrymi wynikami rozpoznawania zmian środowiskowych, algorytm, ze względu na stosowaną analizę kształtu (a nie charakterystykę barwną obiektów), odporny jest na zmienne warunki pogodowe ekspozycji zdjęć, lepsze wyniki dotyczą sytuacji wykrywania nieistniejących domów niż wykrywania miejsc gdzie powstały nowe zabudowania, w celu zmniejszenia liczby fałszywych alarmów w przypadku detekcji nowych zabudowań, planuje się uzupełnienie zbioru analizowanych cech o atrybuty segmentacyjne, przedstawiony algorytm (podobnie jak większość algorytmów przetwarzania i analizy obrazu) wymaga eksperymentalnego ustalania wartości parametrów; jednak optymalny dobór wartości parametrów algorytmu może zostać zautomatyzowany i będzie przedmiotem dalszych prac. 30

4.3. Adaptacyjny algorytm rozpoznawania obrazów dla detekcji dróg Metodę detekcji ciągów komunikacyjnych na zdjęciach lotniczych, wykorzystującą techniki rozpoznawania obrazów oraz automatyczną optymalizację parametrów tego procesu opracował K. Krawiec (2005). Również i ten algorytm przeznaczony jest do wspomagania procesów tworzenia i/lub korygowania map wektorowych na podstawie zdjęć lotniczych. Danymi wejściowymi dla algorytmu są: obraz rastrowy (zdjęcie lotnicze) oraz dane uczące, obejmujące niewielką liczbę wybranych z bazy danych obszarów reprezentujących klasę pozytywną (drogi) oraz klasę negatywną (nie-drogi, np. obszary leśne, zabudowania, etc.). Dysponując tymi częściowymi informacjami, algorytm ma za zadanie dokonać możliwie trafnej detekcji pozostałych dróg obecnych na obrazie, minimalizując zarówno liczbę błędów fałszywie dodatnich (nie-drogi zaklasyfikowane przez algorytm jako drogi) jak i fałszywie ujemnych (drogi zaklasyfikowane jako nie-drogi). Proces dostrajania parametrów procedury interpretującej obraz postanowiono zautomatyzować z wykorzystaniem metod sztucznej inteligencji. Aby uniknąć czasochłonnej procedury ręcznego doboru parametrów procesu rozpoznawania przez użytkownika i uniezależnić się od zmienności charakterystyki poszczególnych zdjęć, algorytm przeprowadza, kierując się danymi uczącymi, automatyczny dobór parametrów przez ich heurystyczną lokalną optymalizację. W rozdziale tym zaprezentowano opracowany algorytm, krótko omówiono szczegóły dotyczące jego implementacji komputerowej, oraz zademonstrowano działanie algorytmu i otrzymane wyniki dla przykładowych zdjęć lotniczych. 4.3.1. Podstawy teoretyczne Można wyróżnić dwie fazy realizacji omawianego algorytmu: Faza 1 obejmuje wstępną standaryzację obrazu, a następnie konstrukcję modeli obszarów należących do klasy pozytywnej i negatywnej; Faza 2 składa się z trzech kroków segmentacji, czyli podziału obrazu na homologiczne regiony, pomiaru podobieństwa segmentów do modelu pozytywnego, a w końcu wykrycia i pomiaru niezgodności. Zastosowany problem optymalizacyjny ma na celu minimalizację przyjętej funkcji celu poprzez modyfikacje jej argumentów (zmiennych) z uwzględnieniem pewnych ograniczeń. Za funkcję celu przyjęto miarę zgodności wyników procedury interpretacyjnej z rzeczywistością. Jej podstawą jest cząstkowa informacja o rzeczywistej przynależności punktów obrazu do dwóch wspomnianych wcześniej klas. Zmiennymi są progi algorytmu segmentacji i próg podobieństwa obszarów, zaś ograniczeniami dziedziny zmiennych. Przedstawiony schemat optymalizacyjny ilustruje rycina nr 23. Procedura rozpoznająca Funkcja celu Obraz wejściowy Parametry procedury Algorytm przeszukiwania Dane wektorowe Ryc. 23. Schemat metody. 31

Dane wzorcowe dla obu rozpatrywanych klas pozyskiwane są z obrazu najpierw z miejsc leżących pod osią drogi wskazaną przez system, a następnie z najbliżej leżących pikseli o podobnych wartościach radiometrycznych. Do omawianej procedury przyjęto 7-wymiarową przestrzeń zmiennych. Optymalizowana funkcja celu ma bliżej nieznaną charakterystykę i może obfitować w minima lokalne. W celu ominięcia problemu uwikłania w jedno z takich minimów przyjęto heurystyczny algorytm optymalizacji, wywodzący się z idei przeszukiwania lokalnego stromego. Algorytm tego przeszukiwania jest następujący: 1) Wygeneruj rozwiązanie cząstkowe x; 2) Powtarzaj następujące kroki: wygeneruj zbiór rozwiązań N(x) stanowiących lokalne otoczenie rozwiązania x oceń wszystkie rozwiązania funkcją celu f jeśli istnieje lepsze rozwiązanie y, przypisz y za x, a jeśli nie to zakończ; 3) Określ sąsiedztwo według zasady, że każdy sąsiad jest generowany poprzez nieznaczną modyfikację wyników rozwiązania bieżącego x dla wybranego parametru. 4.3.2. Test praktyczny Rycina 24 ilustruje dobór danych uczących na obiekcie testowym, a następna zakres pikseli przypisanych do grupy uznanej za pozytywną. Ryc. 24. Dobór danych uczących się na obiekcie testowym. 32

W tabeli 1 zestawiono przykładową sekwencję kroków procedury optymalizacyjnej, a na rycinie 25 efekt wstępnej klasyfikacji. Krok Liczba poziomów segmentacji Próg relacji podobieństwa obszarów Próg1 Próg2 Waga podobieństwa obszarów (R) Waga podobieństwa obszarów (G) Waga podobieństwa obszarów (B) 0 3,93 5,02 124,60 54,55 0,32 0,55 0,49 0,00 0,00 0,00 1 3,93 5,02 124,60 59,55 0,32 0,55 0,49-0,52 0,57 0,06 2 4,93 5,02 124,60 59,55 0,32 0,55 0,49-0,55 0,60 0,06 Funkcja oceniająca Tabela 1. Przykład sekwencji kolorów procedury optymalizującej. TP FP Ryc. 25. Efekt wstępnej klasyfikacji. Oceniając wyniki uzyskane w pierwszym kroku algorytmu (kolor niebieski) można stwierdzić, że znalezione zostały dwie klasy obiektów spełniających warunek pozytywny (drogi i ulice) oraz drobne elementy wewnątrz działek, które w znacznym stopniu są wewnętrznymi ciągami komunikacyjnymi ich mieszkańców. Natomiast pominięte zostały jezdnie o zdecydowanie jasnej nawierzchni (piasek lub bruk). Zatem musi nastąpić dalszy etap klasyfikacji, który (1 ) wyeliminuje obiekty nie spełniające kryteriów geometrycznych (krótkie, nie połączone z innymi obiektami przypisanymi do tej samej klasy), a (2 ) dołączy podklasę dróg i ulic o odmiennych cechach radiometrycznych, odpowiadających w rzeczywistości innej nawierzchni. Prace nad tymi zagadnieniami trwają i zaowocują w przyszłości lepszymi wynikami. 4.3.3. Wnioski z pierwszych prób implementacji metody W podsumowaniu prezentowanej pracy należy stwierdzić, że spełnia pokładane w niej nadzieje odnośnie poszukiwania (sub)optymalnego modelu obiektów w fotointerpretacji i może znaleźć wykorzystanie w klasyfikacji sterowanej z poziomu systemu informacji przestrzennej. Zaletą tego podejścia jest automatyczna estymacja parametrów przy stosunkowo niewielkiej informacji wejściowej. Dalsze prace nad metodą obejmą włączenie nienumerycznych parametrów w proces optymalizacji oraz o uogólnienie podejścia fotointerpretacyjnego. 33

4.4. Analiza użyteczności algorytmu segmentacji gęstościowej Spośród współcześnie wprowadzanych rozwiązań na szczególną uwagę zasługują metody określane mianem obiektowych, które bazują na analizach fragmentów obszaru mapy bitowej, pogrupowanych według określonych kryteriów homologiczności. Segmentację obrazu można uzyskać różnymi metodami, które rozwijane są w licznych dziedzinach zastosowań informatyki. W interpretacji obrazów teledetekcyjnych opracowano rozwiązania dostosowane do specyfiki tychże obrazów. W niniejszej pracy podjęto temat takiego szczególnego wykorzystania techniki grupowania obiektów spełniających określone kryteria dokładnościowe. Scharakteryzowano metodę gęstościową analiz baz danych i jej modyfikację dostosowaną do analiz obrazów rastrowych, a następnie podano proponowany sposób dalszego rozwoju metody z wykorzystaniem dostępnej informacji wektorowej. Wywód zilustrowano za pomocą uproszczonego modelu obrazu teledetekcyjnego. 4.4.1. Podstawy teoretyczne metody gęstościowej Ilustracją dla wyjaśnienia algorytmu metody gęstościowej niech będzie zbiór punktów rozmieszczonych na prostokątnym fragmencie powierzchni płaskiej, tak jak to przedstawiono na rycinie 26. Zakładamy przy tym, że nieistotne są inne cechy punktów niż ich położenie. Ryc. 26. Przykłady grup obiektów w bazach danych punktowych Zgodnie z ustaleniami autorów metody DBSCAN, podstawowymi jej parametrami są promień wyszukiwania Eps i graniczna liczba punktów MinPts. Parametry te zastosowane indywidualnie do wszystkich obiektów, w naszym przykładzie punktów, leżących w granicach analizowanej dziedziny D stanowią kryterium zawierania się wewnątrz skupiska, co można wyrazić matematycznie: gdzie: jeżeli p że N Eps (p) MinPts wówczas p C (1) p punkt z dziedziny D, C klaster (skupisko) wewnątrz dziedziny D, N Eps sąsiedztwo w promieniu Eps (Eps-sąsiedztwo). N Eps jest podstawową miarą oceny bliskiego położenia dwóch punktów. Eps-sąsiedztwo punktu p, oznaczane N Eps (p), jest definiowane jako: 34

N Eps (p)={q D dist(p,q) Eps} (2) Kryterium przynależności kilku punktów p i do skupiska wyznaczonego przez punkt q jest jednoczesne spełnienie warunku (1) i warunku Eps-sąsiedztwa, czyli: p i N Eps (q) (3) Jest to tak zwany warunek bezpośredniej dostępności gęstościowej punktów q i p i. Warunek ten jest oczywiście przemienny dla pary punktów wewnętrznych, a nieprzemienny wówczas, gdy któryś z punktów p i leży na granicy klastra. Para punktów, z których choć jeden jest dostępny z drugiego nazywana jest też parą połączoną. W konsekwencji, atrybut łączności pary p, q jest przemienny w obie strony. W przypadku skupisk o nieregularnych kształtach może się okazać, że część punktów nie spełnia warunku bezpośredniej dostępności, wówczas znajduje zastosowanie uogólniona jego postać, zakładająca istnienie punktu s bezpośrednio dostępnego z obu punktów p i q. W ten sposób definiuje się warunek pośredniej dostępności gęstościowej: p N Eps (s) i q N Eps (s) (4) N Eps (s) MinPts Ten ostatni warunek jest niezwykle użyteczny w analizie punktów leżących na obrzeżu skupisk, gdyż stanowi kryterium ich przynależności do określonego klastra. W oparciu o powyższe ustalenia można zatem zdefiniować pojęcie klastra. Niech D będzie dziedziną pewnej grupy obiektów (punktów). Klaster C, spełniający kryterium gęstości (Eps, MinPts) jest niepustym podzbiorem zbioru D spełniającym następujące warunki: 1) jeśli p,q że, jeśli p C a q jest dostępne gęstościowo z p, wówczas q C 2) jeśli p,q C że p jest dostępny gęstościowo z q. Punkty nie wchodzące w strukturę klastra stanowią szum. Ostatecznie procedura wyszukiwania skupisk w dowolnej bazie danych, według Estera i in. (1996), przebiega następująco: 1) ocena wszystkich punktów pod względem zawierania się w jakimkolwiek skupisku, poprzez spełnienie warunku (1); punkty spełniające ten warunek uzyskują etykietę punktu wewnętrznego, 2) ocena bezpośredniej dostępności punktów za pomocą kryterium (2); wszystkie punkty wzajemnie dostępne uzyskują etykietę przynależności do wspólnego klastra, 3) spośród pozostałych punktów wyszukiwanie tych, które są pośrednio dostępne względem punktów przypisanych wcześniej do poszczególnych klastrów. Czynność trzecia przebiega iteracyjne do momentu, kiedy żaden z punktów nie przypisanych jeszcze do żadnego skupiska nie spełnia warunku dostępności gęstościowej. 4.4.2. Implementacja Niniejsze rozwiązanie testowano na symulowanych danych obrazowych. Celem jego jest opracowanie i przetestowanie algorytmu, podczas gdy jego weryfikację praktyczną pozostawiono na dalszy etap prac badawczych. Na rycinach 2 a-d przedstawiono efekt segmentacji gęstościowej obrazu wygenerowanego poprzez rasteryzację bazy danych o budynkach dla obszaru testowego Nekla. Kolejne rysunki na ilustracji 27 przedstawiają kolejno: a) wektorowy obraz zapisanej w bazach danych Geo-Info informacji o budynkach, 35

b) wypełnienie powierzchni wybranych obiektów metodą selekcji w bazie danych według kryterium sposobu użytkowania i liczby kondygnacji, c) obraz przetworzony do postaci rastrowej o rozdzielczości 1x1 m i losowo zdegradowany szumem (pojedyncze piksele na budynkach i terenie otaczającym), d) wynik segmentacji gęstościowej pojedynczej klasy obiektów w zbiorze binarnym. a) b) c) d) Ryc. 27. Symulowanie danych obrazowych na podstawie danych wektorowych. Powyższa ilustracja nie obejmuje czynnika barwy. Dla uwzględnienia tego czynnika niezbędna była modyfikacja metody, dodająca do modelu również miarę odległości w przestrzeni barwnej. Dla wyróżnienia odległość tę nazwano ColorEps, podczas gdy odległość Euklidesową opisano jako SpatialEps. Dla oceny przynależności poszczególnych obiektów do poszczególnych klas barwnych uwzględnia się tu równocześnie obie miary odległości. Wygenerowano obraz składający się z obiektów o trzech odcieniach i obciążony znacznymi zakłóceniami (szum), co ilustruje następująca rycina 28. 36

Ryc. 28. Obraz barwny z zakłóceniami. Po przeprowadzeniu pełnego zakresu procedury grupowania uzyskano efekt uwidoczniony na kolejnej rycinie 29. Ryc. 29 Wynik procedury grupowania. Prace aplikacyjne będą przedmiotem dalszych badań w tym zakresie, przy czym w większym stopniu planuje się wykorzystywać informację kontekstową i inne źródła wiedzy. 4.5. Wnioski końcowe Opisane tu trzy metody wykrywania obiektów, różniące się między sobą, ilustrują wielowątkowe podejście do procesów teledetekcyjnych, których celem ma być implementacja w ramach systemu typu GIS. Jeśli zostanie osiągnięty ten cel, zaistnieją warunki do rozwoju tych metod w badaniach zmian środowiska człowieka, które są tak ważnymi czynnikami warunkującymi dalszy zrównoważony rozwój naszego społeczeństwa. 37

4.6. Bibibliografia do podrozdziału 4 Jelonek J. Automatyczna detekcja zmian urbanistycznych na podstawie zdjęć lotniczych. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. Jelonek J. Teledetekcyjne wykorzystanie metody grupowania obiektów w oparciu o analizę gęstości. Materiały konferencja z cyklu Wiosna w geodezji i kartografii Teoria i praktyka współczesnej Geodezji i fotogrametrii. Jeziory Poznań 16-17.04.05. 38

5. Zastosowanie metod teledetekcyjnych w rolnictwie i leśnictwie 5. 1. Zastosowanie ortofotomapy w gospodarce leśnej. W Polsce zdjęcia lotnicze stosuje się w gospodarce leśnej od ponad 30-stu lat. W latach siedemdziesiątych wykorzystywano zdjęcia głównie do korekt podziału powierzchniowego lasów. W latach osiemdziesiątych rozpoczęto najszerszą skalę stosować dane teledetekcyjne, zwłaszcza do inwentaryzacji szkód i szacowania ich skali. W latach dziewięćdziesiątych rozpoczął się etap tworzenia systemów informacji przestrzennej w przedsiębiorstwie Lasy Państwowe. W tym przedsięwzięciu podstawą dla SIP-u są ortofotomapy terenów leśnych. Wykorzystanie ortofotomapy na przykładzie Planu Ochrony Karkonoskiego Parku Narodowego przedstawili Rączka i Strzeliński. Rozdzielczość terenowa piksela osiągnęła 36 cm, Tak rozdzielczośc pozwoliła na szerokie wykorzystanie zdjęć zarówno w celu uzyskania wiarygodnych danych geometrycznych jak i informacji temrtycznych. Zdjęcia wykonano kolorowe. W pracach urządzeniowych ortofotomapa została wykorzystana głównie do realizacji trzech głównych grup zadań: korekta i wyznaczanie granic, prace z zakresu inwentaryzacji zasobów i stanu lasu, lokalizacja stałych-kontrolnych powierzchni próbnych. Korekta granic dotyczyła nie tylko zasięgów oddziałów leśnych, lecz także granic działek obiektów turystycznych, znajdujących się na terenie KPN. Przykład takiej korekty przedstawiono na ryc. 30. Ryc. 30. Korekta granic nartostrady przebiegającej w granicach KPN. Prace związane z inwentaryzacją w zakresie zgromadzenia informacji pomocniczych objęły na podstawie ortofotomapy: - określanie składu gatunkowego drzewostanów (ryc. 31), - określanie formy zmieszania gatunków, - określenie stopnia uszkodzenia drzewostanów, - określenie ilości zalegającego posuszu stojącego i leżącego, - weryfikację zasięgu zbiorowisk potencjalnych, - fazy rozwojowe drzewostanu, - stopień pokrycia powierzchni przez górne warstwy drzewostanu, - forma zwarcia, - procent powierzchni zajętej przez martwe drzewa, 39

- niektóre rodzajów uszkodzeń drzew (drzewa zamierające, drzewa z martwymi wierzchołkami). Ryc. 31. Ustalenie składu gatunkowego na podstawie orfotomapy niebieskim kolorem odwiedziono zasięg lasu bukowego z domieszką jaworu (kolor czerwony). Ortofotomapa oraz dokładny model wysokościowy posłużyły do wyznaczenia górnej granicy lasu. Dokładna analiza pozwoliła na zmianę kwalifikacji niektórych powierzchni zaliczanych do gruntów zadrzewionych Porównanie możliwości wykorzystania ortofotomapy w zakresie omawianych zadań, w stosunku do nakładu czasu i kosztów poniesionych na jej wykonanie, jednoznacznie wskazuje na bardzo dużą przydatność tego materiału w pracach urządzeniowych. Obok skrócenia czasu trwania prac terenowych oraz rezygnacji z części prac pomiarowych (zwłaszcza geodezyjnych), wymierną korzyścią wykorzystania ortofotomapy była możliwość zastosowania analiz teledetekcyjnych i fotogrametrycznych. A są to technologie będące podstawą nowoczesnego monitoringu i inwentaryzacji, a co za tym idzie także usprawnieniem w zakresie planowania, kontroli i prognozowania. Potwierdza to wiele prac, prezentujących wyniki wykorzystywania metod teledetekcyjnych i fotogrametrycznych w pracach z zakresu urządzania lasu. A jest to tym bardziej ciekawe, że część z nich omawia wynika badań prowadzonych na materiale o zdecydowanie słabszej rozdzielczości, jaką dają obrazy satelitarne w porównaniu do zdjęć lotniczych (Zajączkowski i Wężyk, 2004; Zawiła-Niedźwiecki, 1999, 2004; Zawiła-Niedźwiedzki i in., 2001; za Raczka i Strzeliński 2005). 40