PORÓWNANIE ALGORYTMÓW EKSTRAKCJI PUNKTÓW ISTOTNYCH W UPRASZCZANIU NUMERYCZNYCH MODELI TERENU O STRUKTURZE HYBRYDOWEJ



Podobne dokumenty
home.agh.edu.pl/~krisfoto/lib/exe/fetch.php?id=fotocyfrowa&cache=cache&media=fotocyfrowa:true_orto.pdf

Podstawy przetwarzania danych pochodzących z lotniczego skanowania laserowego w oprogramowaniu LP360 firmy QCoherent

DERIVATION OF DIGITAL TERRAIN MODEL (DTM) FROM ELEVATION LASER SCANNER DATA

Aspekty tworzenia Numerycznego Modelu Terenu na podstawie skaningu laserowego LIDAR. prof. dr hab. inż.. Andrzej Stateczny

ZASTOSOWANIE KOMPRESJI RLE DO REDUKCJI WIELKOŚCI ZBIORÓW TYPU GRID APPLICATION OF RLE COMPRESSION FOR SIZE REDUCTION OF GRID TYPE FILES

GENERALIZACJA NMT W OPRACOWANIU METODOLOGII REPREZENTACJI RZEŹBY TERENU

Podstawy przetwarzania danych pochodzących z lotniczego skanowania laserowego w oprogramowaniu LP360 firmy QCoherent

EFEKTYWNE WYKORZYSTANIE DANYCH LIDAR W DWUWYMIAROWYM MODELOWANIU HYDRAULICZNYM

ANALIZA DOKŁADNOŚCI PRZESTRZENNEJ DANYCH Z LOTNICZEGO, NAZIEMNEGO I MOBILNEGO SKANINGU LASEROWEGO JAKO WSTĘP DO ICH INTEGRACJI

Trendy nauki światowej (1)

Wybrane zagadnienia w pracy z danymi rastrowymi w ArcGIS Marcin Paź Esri Polska

OCENA WPŁYWU NMT O RÓŻNEJ ROZDZIELCZOŚCI NA DOKŁADNOŚĆ POZYSKIWANIA LINII CIEKOWYCH

PORÓWNANIE DZIAŁANIA ALGORYTMÓW AKTYWNEGO MODELU TIN I PREDYKCJI LINIOWEJ DO SEGMENTACJI PUNKTÓW TERENOWYCH

W OPARCIU JEDNOWIĄZKOWY SONDAŻ HYDROAKUSTYCZNY

TEMATYKA PRAC DYPLOMOWYCH MAGISTERSKICH STUDIA STACJONARNE DRUGIEGO STOPNIA ROK AKADEMICKI 2011/2012

Metryki i metadane ortofotomapa, numeryczny model terenu

Ocena dokładności i porównywalność danych wysokościowych (chmury punktów) pozyskiwanych z różnych kolekcji danych

Zastosowanie Numerycznego Modelu Terenu w pracach projektowych

Dane LiDAR jako wsparcie podczas opracowań raportów OOŚ

Data sporządzenia materiałów źródłowych: zdjęcia:..., NMT:... Rodzaj zdjęć: analogowe/cyfrowe

Podstawowe informacje o projekcie ISOK Rola GUGiK w projekcie ISOK

Wstęp. Jerzy WYSOCKI, Paweł ORŁOWSKI

Zastosowanie zobrazowań SAR w ochronie środowiska. Wykład 4

PÓŁAUTOMATYCZNE MODELOWANIE BRYŁ BUDYNKÓW NA PODSTAWIE DANYCH Z LOTNICZEGO SKANINGU LASEROWEGO

Zastosowanie metody interpolacji warstwic do tworzenia NMT. dr inż. Ireneusz Wyczałek Zakład Geodezji POLITECHNIKA POZNAŃSKA

Zakład Hydrologii i Geoinformacji, Instytut Geografii UJK. Modelowanie przestrzeni geograficznej. Konwersatorium: 11 i 12

ANALIZA DOKŁADNOŚCI PODSTAWOWYCH PRODUKTÓW FOTOGRAMETRYCZNYCH UZYSKANYCH Z ZOBRAZOWAŃ POZYSKANYCH TRZYLINIJKOWĄ CYFROWĄ LOTNICZĄ KAMERĄ ADS40

SINGLE-IMAGE HIGH-RESOLUTION SATELLITE DATA FOR 3D INFORMATIONEXTRACTION

Wyznaczanie obszarów zagrożonych powodzią - realizacja założeń Dyrektywy Powodziowej w ramach projektu ISOK. Monika Mykita

WYBÓR PUNKTÓW POMIAROWYCH

Wykorzystanie chmury punktów z lotniczego skanowania laserowego i produktów jego przetwarzania w gospodarce i administracji

ZAGADNIENIE METODY OCENY DOKŁADNOŚCI CYFROWYCH MODELI TERENU W ASPEKCIE IMPLEMENTACJI EUROPEJSKIEJ DYREKTYWY INSPIRE

OPRACOWANIE KONCEPCJI BADANIA PRZEMIESZCZEŃ OSUWISK NA PODSTAWIE GEODANYCH

GENEROWANIE NUMERYCZNEGO MODELU TERENU NA PODSTAWIE WYNIKÓW POMIARU SKANEREM LASEROWYM

TELEDETEKCJA ŚRODOWISKA dawniej FOTOINTERPRETACJA W GEOGRAFII. Tom 51 (2014/2)

Generowanie produktów pochodnych lotniczego skanowania laserowego w oprogramowaniu LP360

FOTOGRAMETRIA ANALITYCZNA I CYFROWA

"poznajmy się moŝe moŝemy zrobić coś wspólnie".

DOKŁADNOŚĆ AUTOMATYCZNEGO GENEROWANIA NMT NA PODSTAWIE DANYCH HRS SPOT 5 ORAZ HRG SPOT 4

Główne założenia metodyk dotyczących opracowania map zagrożenia powodziowego

Wykorzystanie metody przekrojów i jej wizualizacja dla celów w ochrony przeciwpowodziowej dolin rzecznych prof. dr hab. inż.. Andrzej Stateczny Akadem

Koncepcja pomiaru i wyrównania przestrzennych ciągów tachimetrycznych w zastosowaniach geodezji zintegrowanej

NUMERYCZNE MODELE TERENU

Wektoryzacja poziomic z map topograficznych. kilkanaście uwag o zagadnieniu skanowaniu, binaryzacji kolorów, wektoryzacji i DTM-ach

Przydatność osnowy kartograficznej i metody obiektywnego upraszczania obiektów do aktualizacji danych w BDT. Tadeusz Chrobak

Zarządzanie przestrzenią miejską - wykorzystanie danych lotniczego skanowania laserowego pochodzących z projektu ISOK

ANALIZA NMT W POSTACI GRID I TIN NA PRZYKŁADZIE DANYCH Z OKI NMT (GRID/TIN) ANALYSIS - OKI DATA EXAMPLE. Beata Hejmanowska

PORÓWNANIE WŁAŚCIWOŚCI CHMURY PUNKTÓW WYGENEROWANEJ METODĄ DOPASOWANIA OBRAZÓW ZDJĘĆ LOTNICZYCH Z DANYMI Z LOTNICZEGO SKANOWANIA LASEROWEGO

PRACA LICENCJACKA SPECJALNOŚĆ: GEOINFORMACJA PROPONOWANA PROBLEMATYKA W ROKU AKADEMICKIM 2016/2017

Dane wejściowe do opracowania map zagrożenia powodziowego i map ryzyka powodziowego

Monika Ciak-Ozimek. Mapy zagrożenia powodziowego i mapy ryzyka powodziowego stan obecny i wdrażanie

PRZESTRZENNY MODEL PRZENOŚNIKA TAŚMOWEGO MASY FORMIERSKIEJ

WIZUALIZACJA WYNIKÓW MODELOWANIA HYDRODYNAMICZNEGO Z WYKORZYSTANIEM SYSTEMÓW GIS 3D1

SYSTEMY INFORMACJI PRZESTRZENNEJ

GEODEZJA MAPY WYKŁAD. Katedra Geodezji im. K. Weigla ul. Poznańska 2/34

DIGITALIZACJA GEOMETRII WKŁADEK OSTRZOWYCH NA POTRZEBY SYMULACJI MES PROCESU OBRÓBKI SKRAWANIEM

SCENARIUSZ LEKCJI. Streszczenie. Czas realizacji. Podstawa programowa

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ

Wprowadzenie. Jerzy WYSOCKI, Paweł ORŁOWSKI

Kompleksowy monitoring dynamiki drzewostanów Puszczy Białowieskiej z wykorzystaniem danych teledetekcyjnych

PORÓWNANIE FOTOGRAMETRII I LOTNICZEGO SKANINGU LASEROWEGO JAKO ŹRÓDEŁ DANYCH DO OPRACOWANIA NMT DLA CELÓW PROJEKTOWYCH

Геодезія, картографія і аерофотознімання. Вип

PRACA DYPLOMOWA Magisterska

METODA OptD DO REDUKCJI DANYCH W OPRACOWANIU WYNIKÓW POMIARÓW LINII ELEKTROENERGETYCZNYCH

PILOTAŻOWE PRZYGOTOWANIE MAP ZAGROŻENIA POWODZIOWEGO NA OBSZARZE REGIONU GÓRNEJ WISŁY

Detekcja drzew z wykorzystaniem lotniczego skanowania laserowego

Grzegorz Wałek Zakład Hydrologii i Geoinformacji Instytut Geografii UJK

SYSTEM INFORMACJI GIS DLA POTRZEB GOSPODARKI WODNEJ WOJ. ZACHODNIOPOMORSKIEGO

ZASTOSOWANIE METOD OPTYMALIZACJI W DOBORZE CECH GEOMETRYCZNYCH KARBU ODCIĄŻAJĄCEGO

Analiza wykonalności dla wskaźnika: dostępność obszarów pod zabudowę

Filtrowanie tekstur. Kinga Laurowska

OKREŚLENIE ZAKRESU WYKORZYSTANIA POMIARÓW AUTOKORELACYJNYCH W ASPEKCIE WYZNACZENIA MODELI 3D BUDYNKÓW

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Kierunek: Geodezja i Kartografia Poziom studiów: Studia I stopnia Forma i tryb studiów: Stacjonarne. Wykład Ćwiczenia

Budowa pionowa drzewostanu w świetle przestrzennego rozkładu punktów lotniczego skanowania laserowego

Wprowadzenie do opracowania map zagrożenia i ryzyka powodziowego

GENEROWANIE REFERENCYJNEGO NUMERYCZNEGO MODELU TERENU O ZASIĘGU KRAJOWYM W OPARCIU O LOTNICZE SKANOWANIE LASEROWE W PROJEKCIE ISOK

Próba formalizacji doboru parametrów generalizacji miejscowości dla opracowań w skalach przeglądowych

Proste pomiary na pojedynczym zdjęciu lotniczym

Archiwum Fotogrametrii, Kartografii i Teledetekcji Vol. 9,1999, s ISBN Streszczenie

ORGANIZACJA POMIARU SKANEREM LASEROWYM ORGANIZATION OF MEASUREMENT WITH LASER SCANNER

ANALIZA DZIAŁALNOŚCI NIEMIECKIEGO TOWARZYSTWA FOTOGRAMETRII, TELEDETEKCJI I GEOINFORMATYKI

7. Metody pozyskiwania danych

10.3. Typowe zadania NMT W niniejszym rozdziale przedstawimy podstawowe zadania do jakich może być wykorzystany numerycznego modelu terenu.

TEMATYKA PRAC DYPLOMOWYCH INŻYNIERSKICH STUDIA NIESTACJONARNE PIERWSZEGO STOPNIA ROK AKADEMICKI 2012/2013

ANALIZA UBYTKU DRZEWOSTANÓW Z WYKORZYSTANIEM LOTNICZYCH DANYCH FOTOGRAMETRYCZNYCH DLA WARSZAWSKIEJ DZIELNICY WILANÓW

OCENA JAKOŚCI NMPT TWORZONEGO METODĄ DOPASOWANIA CYFROWYCH ZDJĘĆ LOTNICZYCH*

Kierunek: Geodezja i Kartografia Poziom studiów: Studia I stopnia Forma i tryb studiów: Niestacjonarne. Wykład Ćwiczenia

Potencjał wysokorozdzielczych zobrazowań Ikonos oraz QuickBird dla generowania ortoobrazów.

WYKORZYSTANIE DANYCH FOTOGRAMETRYCZNYCH DO INWENTARYZACJI ZIELENI NA TERENACH ZURBANIZOWANYCH

Archiwum Fotogrametrii, Kartografii i Teledetekcji, Vol. 17b, 2007 ISBN

ANALIZA DOKŁADNOŚCI MODELOWANIA 3D BUDYNKÓW W OPARCIU O DANE Z LOTNICZEGO SKANOWANIA LASEROWEGO

Generowanie ortofotomapy w aplikacji internetowej Orthophoto Generation in the Web Application

NAZIEMNY SKANING LASEROWY W INWENTARYZACJI ZIELENI MIEJSKIEJ NA PRZYKŁADZIE PLANT W KRAKOWIE* TERRESTRIAL LASER SCANNING FOR AN URBAN GREEN INVENTORY

Dobre dane referencyjne oraz ich praktyczne wykorzystanie podstawą planowania i realizacji zadań

Magda PLUTA Agnieszka GŁOWACKA

GEOMATYKA. dr inż. Paweł Strzeliński Katedra Urządzania Lasu Wydział Leśny UP w Poznaniu

Podsumowanie działań Głównego Urzędu Geodezji i Kartografii w zakresie produkcji i wykorzystania danych przestrzennych w latach

MAPY ZAGROŻENIA POWODZIOWEGO I MAPY RYZYKA POWODZIOWEGO A DYREKTYWA POWODZIOWA FLOOD HAZARD MAPS AND FLOOD RISK MAPS AND FLOODS DIRECTIVE

MOŻLIWOŚCI GENEROWANIA PRECYZYJNEGO NMT NA PODSTAWIE CHMURY PUNKTÓW Z PROJEKTU ISOK

Transkrypt:

Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 26, s. 11-21 ISSN 2083-2214, eissn 2391-9477 DOI: 10.14681/afkit.2014.001 PORÓWNANIE ALGORYTMÓW EKSTRAKCJI PUNKTÓW ISTOTNYCH W UPRASZCZANIU NUMERYCZNYCH MODELI TERENU O STRUKTURZE HYBRYDOWEJ THE COMPARISON OF ALGORITHMS FOR KEY POINTS EXTRACTION IN SIMPLIFICATION OF HYBRID DIGITAL TERRAIN MODELS Krzysztof Bakuła 1 1 Zakład Fotogrametrii, Teledetekcji i Systemów Informacji Przestrzennej, Wydział Geodezji i Kartografii, Politechnika Warszawska SŁOWA KLUCZOWE: numeryczny model terenu, punkty istotne, redukcja ilościowa danych, generalizacja, indeks pozycji topograficznej (TPI), Very Important Points (VIP), Z-tolerance STRESZCZENIE: Przedstawione badania dotyczą opracowania algorytmu redukcji ilości danych wysokościowych w postaci numerycznego modelu terenu z lotniczego skanowania laserowego (ALS) dla potrzeb modelowania powodziowego. Redukcja jest procesem niezbędnym w przetwarzaniu ogromnych zbiorów danych z ALS, a jej przebieg nie może mieć charakteru regularnej filtracji danych, co często ma miejsce w praktyce. Działanie takie prowadzi do pominięcia szeregu istotnych form terenowych z punktu widzenia modelowania hydraulicznego. Jednym z proponowanych rozwiązań dla redukcji danych wysokościowych zawartych w numerycznych modelach terenu jest zmiana jego struktury z regularnej siatki na strukturę hybrydową z regularnie rozmieszczonymi punktami oraz nieregularnie rozlokowanymi punktami istotnymi. Celem niniejszego artykułu jest porównanie algorytmów ekstrakcji punktów istotnych z numerycznych modeli terenu, które po przetworzeniu ich z użyciem redukcji danych zachowają swoją dokładność przy jednoczesnym zmniejszeniu rozmiaru plików wynikowych. W doświadczeniach zastosowano algorytmy: indeksu pozycji topograficznej (TPI), Very Important Points (VIP) oraz Z-tolerance, które posłużyły do stworzenia numerycznych modeli terenu, podlegających następnie ocenie w porównaniu z danymi wejściowymi. Analiza taka pozwoliła na porównanie metod. Wyniki badań potwierdzają możliwości uzyskania wysokiego stopnia redukcji, która wykorzystuje jedynie kilka procent danych wejściowych, przy relatywnie niewielkim spadku dokładności pionowej modelu terenu sięgającego kilku centymetrów. 1. WPROWADZENIE Redukcja ilościowa danych wysokościowych jest procesem zbliżonym do typowej generalizacji. Jej głównym celem jest zmniejszenie liczebności punktów zawartych w numerycznym modelu terenu w taki sposób, aby nie zmniejszyć lub w nieznaczny jedynie sposób obniżyć dokładność przetworzonego modelu terenu. Jest procesem 11

Krzysztof Bakuła niezbędnym w przygotowaniu danych do dwuwymiarowego modelowania hydraulicznego fali wezbraniowej, jeżeli analizie przejścia fali ma podlegać obszar o znacznej powierzchni. Wynika to z faktu, iż oprogramowania tworzące mapy zagrożenia związanego z kataklizmem powodzi, bazują na dużych zbiorach danych charakteryzujących ukształtowanie i wysokości terenu w formie numerycznego modelu terenu, ale są przy tym ograniczone maksymalną liczebnością punktów w pojedynczej analizie lub ograniczeniem tym jest wydajność sprzętu komputerowego czy też czas (Bakuła, 2011) Redukcja danych wysokościowych jako problem i zagadnienie badawcze pojawiła się wraz z rozwojem współczesnych technik pomiaru dających w efekcie ogromne zbiory danych zawierających wiele informacji nadliczbowych. Jedną z takich technologii jest lotnicze skanowanie laserowe. Bardzo wysoka gęstość punktów dostarczonych przez skaning laserowy jest bardzo korzystna dla poprawy jakości NMT, ale stawia użytkowników zarządzającymi tymi danymi przed poważnymi trudnościami (Kraus, 2003; Casas et al., 2010). Problem ten wynika również z parametrów, z jakimi skanowana jest powierzchnia Polski. W wielu krajach np. w państwach Skandynawii przyjęta gęstość skanowania wynosi średnio 0.5 pkt./m 2, co uwarunkowane było również specyfiką występującej tam roślinności. Gęstość taka jest znacznie mniej problematyczna, gdyż już same parametry takiej chmury narzucają tworzenie NMT o rozdzielczości kilkumetrowej. Polskie realia zakładały, że możliwość skanowania większości obszaru kraju szybko się nie powtórzy, toteż i gęstość skanowania nie była przypadkowa. Wysoka gęstość obserwacji prowadzi jednak do znacznego wzrostu ilości danych, nakładając wyzwania w odniesieniu do ich archiwizacji i przetwarzania (Liu i Zhang, 2008). W praktyce bardzo często, jako formę najprostszej redukcji danych wysokościowych w sytuacji, gdy wymagane jest przyspieszenie lub umożliwienie obliczeń hydraulicznych dla dużych obszarów, stosuje się zmianę rozdzielczości NMT poprzez zwiększenie jego oczka siatki kwadratów (GRID), co prowadzi do zmniejszenia plików, ale również generalizacji, zmniejszającej jego dokładność. Przykładowe wyniki dokładności NMT po jego przepróbowaniu do siatek o niższej rozdzielczości zawarte zostały w tabeli 1, która pokazuje znaczący spadek dokładności odwzorowania koron wałów istotnych dla modelowania hydraulicznego (szczególnie widoczny w wartości średniej różnicy wysokości h śr, błędzie średnim RMS oraz wartości minimalnej różnicy wysokości min). Szczególnie ważne są tu widocznie coraz niższe wysokości koron wałów ( h śr ) wraz ze zwiększaniem rozdzielczości rastra NMT, co związane jest z wygładzającym działaniem filtra uśredniającego. Tab. 1. Dokładności odwzorowania wysokości koron wałów przeciwpowodziowych przy zastosowaniu zmniejszenia rozdzielczości regularnej siatki NMT Parametr GRID 2m GRID 3m GRID 5m GRID 10 m stopień redukcji ~75% ~88% ~96% ~99% h śr [m] -0.06-0.10-0.28-0.78 σ [m] 0.04 0.07 0.16 0.46 RMSE [m] 0.07 0.12 0.32 0.91 min [m] -0.16-0.30-0.77-1.85 max [m] 0.11 0.19 0.30 0.80 12

Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu... Co zatem jest powodem stosowania w modelowaniu hydraulicznym przetworzonych danych NMT z ISOK o niższej rozdzielczości i związaną z tym utratą dokładności danych źródłowych? Powodów jest wiele, wśród których wymienić można: ograniczenia możliwości programu do modelowania hydraulicznego 2D, długotrwałość procesu obliczeniowego modelowania hydraulicznego 2D, terminy zapisane w Dyrektywie Powodziowej (Dz.U. UE, 2007) narzucające czas wykonania map zagrożenia powodziowego, brak doświadczenia hydrologów (jak i innych specjalistów) w pracy z wielkimi zbiorami danych ALS - dane te znalazły się w państwowym zasobie po raz pierwszy, przyzwyczajenia w stosowaniu danych o niższej rozdzielczości z jednoczesną integracją z danymi z pomiaru bezpośredniego. Czym może skutkować stosowanie najprostszej metody redukcji danych w postaci NMT, czyli przepróbkowanie poprzez zmniejszenie rozdzielczości NMT? Najbardziej widocznym efektem tego działania jest niższa rzędna wałów przeciwpowodziowych, widoczne "wypłaszczenie" rzeźby terenu skutkujące również zanikiem małych form terenowych. Działanie takie skutkuje również koniecznością integracji przetworzonego NMT z danymi geodezyjnymi z pomiaru bezpośredniego wałów przeciwpowodziowych, które to i tak są zawsze mierzone przy budowaniu modelu hydraulicznego z racji konieczności pozyskania danych o dnie koryta rzeki w postaci przekrojów poprzecznych. Inną opcją poprawiania przetworzonego NMT jest włączanie w jego struktury pozyskanych linii grzbietowych wałów przeciwpowodziowych (np. Bakuła i Kurczyński, 2013). Współczesne algorytmy przetwarzania chmur punktów charakteryzują się dużą automatyzacją stąd w literaturze można znaleźć liczne przykłady tego typu podejść w automatycznej ekstrakcji linii nieciągłości (np. Briese, 2004) Kolejna opcja, którą postanowiono przeanalizować w ramach przedstawionych badań jest przetworzenie NMT w taki sposób, aby otrzymać z niego regularną siatkę o mniejszej rozdzielczości uwzględniającą dodatkowe nieregularnie rozmieszczone punkty istotne. W literaturze można znaleźć wiele określeń definiujących wspomniane punkty w opisywaniu rzeźby terenu za pomocą NMT. Są to określenia: punkty istotne (ang. critical, significant points), punkty kluczowe (ang. key points), punkty ważne (ang. important points). Niezależnie od nazwy, punkty te powinny reprezentować miejsca związane z minimami i maksimami lokalnymi terenu, a także opisywać swoim położeniem linie strukturalne (ciekowe i grzbietowe) oraz linie nieciągłości (ang. breaklines). Swoją integracją z regularną siatką o niższej rozdzielczości zachowują one dokładność źródłowego NMT. Temat tworzenia modeli o strukturze hybrydowej nie jest zagadnieniem nowym. Problem nadliczbowości i ogromu danych z lotniczego skanowania laserowego w ich efektywnym wykorzystaniu rzuca jednak na niego nowe światło związane z wykorzystaniem danych o bardzo wysokiej rozdzielczości, której nie mogły zagwarantować sensory z pułapu lotniczego w czasach, gdy powstawały algorytmy określania punktów istotnych. 2. METODYKA BADAŃ W rozdziale tym zaprezentowano algorytmy ekstrakcji punktów istotnych numerycznego modelu terenu. Algorytmy te zaadoptowano do badań, w których z NMT pozyskiwano 13

Krzysztof Bakuła punkty istotne i z ich pomocą tworzono wtórne modele o strukturze nieregularnej siatki TIN bądź strukturze hybrydowej (punkty regularnie rozmieszczone w większym interwale z dodatkowymi punktami istotnymi). 2.1. Dane Wybrany obszar testowy obejmuje zachodnią część Kotliny Jasielsko Krośnieńskiej oraz widoczne obszary o bardziej zróżnicowanej rzeźbie terenu fragmenty Pogórza Jasielskiego od południa i Strzyżowskiego od północy. Jest to obszar leżący w zlewni Wisłoki, u ujścia jej dwóch dopływów: Ropy (lewobrzeżnego) i Jasiołki (prawobrzeżnego). Jest to obszar miasta Jasło stanowiący 6 sekcji mapy topograficznej w skali 1:10000 o następujących godłach: M-34-79-D-b-3, M-34-79-D-b-4, M-34-79-D-d-1, M-34-79-D-d-2, M-34-80-C-a-3, M-34-80-C-c-1. Graficzne przedstawienie obszaru w postaci modelu cieniowanego znajduje się na rysunku 1. Do badań wykorzystano NMT o regularnej strukturze GRID w rozdzielczości 1 m pozyskanych w ramach systemu ISOK. Rys. 1. Obszar testowy miasta Jasło - obszar obejmujący 6 sekcji mapy topograficznej w skali 1:10 000. 2.2. Wykorzystane algorytmy 2.2.1. VIP Algorytm Very Important Points (VIP) opracowany został przez Chen i Guevara (1987) jako metoda pozyskiwania punktów istotnych dla tworzenia modelu terenu o strukturze nieregularnych trójkątów TIN z danych w postaci regularnej siatki GRID, gdzie celem było odtworzenie oryginalnej powierzchni terenu za pomocą jak najmniejszej liczby punktów. Do tego celu należało wybrać punkty bardziej istotne od punktów mniej istotnych, 14

Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu... które powinny zostać wyeliminowane z nieregularnej siatki punktów. W celu określenia istotności punktów zastosowano tutaj filtr górnoprzepustowy stosowany w przetwarzaniu obrazów. Efekt działania takiego filtru stosowany jest często dla wzmocnienia krawędzi przetwarzanego obrazu w celu detekcji obrazowanych obiektów. O istotności danej komórki ( oczka siatki GRID) decyduje jego sąsiedztwo. Punkt jest istotny tylko w przypadku, gdy jego wysokość nie jest możliwa do określenia przez jego sąsiedztwo (Chen i Guevara, 1987). W tym celu każdej komórce przypisywana jest wartość istotności poprzez przetworzenie NMT w postaci rastra operatorem Laplace a. Graficzne przedstawienie działania metody ukazano na rysunku 2. Wybierając punkty istotne określany jest procent punktów o najwyższym współczynniku istotności. Rys. 2. Przykładowy NMT przetworzony algorytmem VIP z ukazaniem fragmentu rastra istotności; NMT ukazany w palecie barwnej, wskazane przykładowe najistotniejsze punkty według algorytmu VIP zaznaczono kolorem czerwonym 2.2.2. TPI Indeks pozycji topograficznej (ang. Topographic Position Index - TPI) został zaprezentowany przez Weissa w 2001 roku jako koncepcja analizy sąsiedztwa podczas analizy numerycznych modeli terenu w celu usprawnienia automatycznego klasyfikowania form krajobrazowych związanych z nachyleniem terenu (grzbiety, stoki, doliny etc.), a także wykrywania określonych form terenowych (m.in. kaniony, strome doliny, płaskowyże, równiny etc.) (Weiss, 2001). Algorytm tworzenia tego indeksu jest dosyć prosty i polega na stworzeniu modelu różnicowego pomiędzy szczegółowym NMT i jego uogólnieniem, co ma na celu wyeksponowanie lokalnie występujących deniwelacji terenu. Najprostszą metodą tworzenia takich modeli jest zastosowanie filtra uśredniającego (dolnoprzepustowego), a następnie odjęcie takiego przetworzonego NMT od modelu. Podczas wyliczania indeksu TPI analizie podlega wysokość rozpatrywanej komórki regularnej siatki NMT, od której odejmowana jest wysokość wyznaczona na podstawie wysokości w sąsiednich oczkach siatki GRID. Sąsiedztwo to opisane może być zarówno poprzez maskę o kształcie kwadratu jak i koła opisanych parametrami odpowiednio długości boku maski bądź jej promienia (w przypadku maski w kształcie koła). W celu ekstrakcji punktów istotnych za pomocą indeksu TPI wykorzystuje się jego skrajne wartości (minimalne i maksymalne) wskazujące na punkt o kluczowej roli w NMT. 15

Krzysztof Bakuła Rys. 3. Wartości indeksu TPI dla trzech różnych wielkości sąsiedztwa (Jenness, 2006) 2.2.3. Z-tolerance Algorytm Z-tolerance jest dostępny w oprogramowaniu ArcGIS i pełni w nim dosyć istotną rolę związaną z wyświetlaniem dużych zbiorów danych wysokościowych. Tak jak dla wyświetlania wysokorozdzielczych zobrazowań istotne jest stworzenie piramidy obrazów, które w zależności od skali wyświetlania dobiera odpowiedni jej poziom stworzony wcześniej z użyciem przepróbkowania wybrana metodą, tak dla NMT w strukturze GRID metoda ta nie sprawdza się najlepiej uśredniając wysokości przetwarzanego modelu. Drugą istniejąca metodą tworzenia piramid w odniesieniu do NMT, zachowującą w lepszy sposób dokładność wysokościową jest piramida Delaunay a, która należy do metod kompresji danych przestrzennych (de Floriani, 1989). W oprogramowaniu ArcGIS problem ten rozwiązany jest dzięki algorytmowi Z-tolerance tworzącemu piramidy dla modelu TIN redukujące dane wraz ze zmniejszaniem skali wyświetlania. Na każdym kolejnym poziomie piramidy wykorzystywanych jest coraz mniej pomiarów, co wiąże się również ze spadkiem dokładności wysokościowej. Metoda ta na każdym stopniu generalizacji wykorzystuje punkty źródłowe, a typowe przepróbkowanie nie jest stosowane. Zagadnienie to szczególnie istotne jest w problematyce szybkiej wizualizacji danych oraz generalizacji modelu terenu dla opracowań w skalach mniejszych. Punkty istotne uzyskane w tej metodzie są węzłami utworzonej wtórnie siatki modelu TIN. 16 Rys. 4. Graficzne przedstawienie parametru Z-tolerance podczas tworzenia modelu TIN z wejściowego modelu GRID (ArcGIS Resource Center, 2014)

Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu... Rys. 5. Porównanie wyników redukcji ilościowej danych z wykorzystaniem analizowanych algorytmów: VIP (czerwony), TPI (fioletowy) i Z-tolerance (zielony) ukazujące zależność wzrostu błędu średniego RMS [m] od współczynnika redukcji ilościowej [%] dla analizowanych 6 obszarów testowych. 3. REZULTATY Opisane algorytmy wykorzystane były w analizach uwzględniając dobór różnych ich parametrów. Celem badań było ukazanie zależności pomiędzy dokładnością modeli opracowanych z udziałem punktów istotnych pozyskanych w drodze ekstrakcji z NMT 17

Krzysztof Bakuła a ilością wykorzystywanych danych względem danych wejściowych. Wyniki te dla 6 sekcji w obszarze testowym miasta Jasło prezentuje rysunek 5. Wykresy te przedstawiają zależność spadku dokładności tworzonego NMT (błąd średni RMS) wraz z coraz mniejszym procentem wykorzystywanych danych wejściowych. Spadek ten zilustrowany został krzywymi przypisanymi trzem analizowanym metodom. Warto zauważyć, że dla każdej z metod najwolniejszy spadek dokładności wraz z malejącym procentem wykorzystanych punktów zaobserwować można dla metody wykorzystującej algorytm Z-tolerance. Wyniki nieco gorsze uzyskano przy pomocy algorytmu TPI, a najsłabsze VIP. Różnice pomiędzy wynikami dla każdej z metod są najmniej zauważalne dla terenów najmniej zróżnicowanych topograficznie (np. sekcja M-34-80-C-c-1). Różnica jednak dla niektórych obszarów przy zadanym procencie różni się aż o 15-20 cm. Przy doborze parametrów redukcji należy kierować się przewidywanym spadkiem dokładności wynikowego NMT. W przypadku każdej z metod wyniki związane z wyznaczonym błędem punktów pomiarowych na koronach wałów sprawiły, iż uznać można ich wyższość względem typowego uśredenienia związanego ze zwiększeniem oczka regularnej siatki NMT. Analiza dokładności związana ze spadkiem dokładności na punktach koron wałów znajduje się w tabeli 2. Pokazuje ona, iż w każdej z metod przy wykorzystaniu jedynie 10% danych obniżenie wysokości na analizowanych punktach wałów wynosi ok. 1cm (gdzie przy przepróbkowaniu wyniosło ono ok. 10 cm). Przy wykorzystaniu już tylko 1% mamy doczynienie ze spadkiem dokładności (wzrost błędu średniego). Nadal jednak przy wykorzystaniu metody Z-tolerance spadek ten liczony jest w pojedynczych centymetrach. Tab. 2. Wyniki porównania wysokości koron wałów na przetworzonym w procesie redukcji ilościowej NMT z wykorzystaniem algorytmów VIP, TPI i Z-tolerance (Z-tol). Parametr VIP 10 VIP 1 TPI 10% TPI 1% Z-tol 0.2 Z-tol 0.05 współczynnik redukcji ok. 10% ok. 1.5% ok. 10% ok. 1.5% ok. 10- ok. 0.5-15% 1% średnia różnica wysokości -0.01-0.63 0.00-0.58-0.01-0.08 h śr [m] Odchylenie standardowe różnic wysokości 0.05 0.49 0.03 0.47 0.03 0.09 σ [m] błąd średni kwadratowy 0.05 0.80 0.03 0.74 0.03 0.12 RMSE [m] wartość minimalna różnic wysokości -1.15-2.23-0.16-2.12-0.12-0.53 min h [m] wartość minimalna różnic wysokości max h [m] 0.12 0.97 0.20 0.97 0.07 0.31 18

Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu... 4. WNIOSKI Przedstawione algorytmy ekstrakcji punktów istotnych dają możliwości wykorzystania kilku procent danych wejściowych nie tracąc przy tym znacząco na dokładności wynikowego NMT, co czyni je przydatnym narzędziem w procesie generalizacji NMT, efektywniejszym od zwykłego przepróbkowania. Najbardziej efektywne algorytmy potrafią zredukować zbiory danych wysokościowych do poziomu 1-2% zachowując kilkucentymetrową dokładność względem oryginalnych danych. Kontrolowany proces redukcji danych wysokościowych związany z generalizacją NMT za pomocą ekstrakcji punktów istotnych skutkuje niewielkim spadkiem dokładności wynikowych modeli - niższym niż dokładność samych danych wejściowych. Porównując analizowane algorytmy najlepsze wyniki uzyskano dla algorytmu Z-tolerance. Algorytm ten z powodzeniem może być stosowany w wielu zastosowaniach w tym przy generalizacji NMT z lotniczego skanowania laserowego dla celów modelowania hydraulicznego. Algorytm ten pod różnymi nazwami, jak i algorytmy podobne do niego, są zaimplementowane w wielu specjalistycznych oprogramowaniach zarządzających i przetwarzających ogromne zbiory danych 3D. W przypadku ArcGIS jest on dostępny w oprogramowaniu, z którego i tak większość dziedzin związanych z danymi geoprzestrzennymi korzysta. W odniesieniu do dwóch pozostałych algorytmów: VIP i TPI również otrzymano satysfakcjonujące wyniki redukcji danych. Algorytm VIP z racji prostej idei działania jest narzędziem łatwo dostępnym. TPI zaś, bardziej stosowany jako metoda przetworzenia NMT w celu wyeksponowania pewnych cech terenu, daje również dużą możliwość zaadoptowania w procesie generalizacji NMT. PODZIĘKOWANIA Badania finansowane są w ramach programu VENTURES Fundacji na Rzecz Nauki Polskiej ze środków Programu Operacyjnego Innowacyjna Gospodarka (PO IG), w ramach osi priorytetowej 1: Badania i rozwój nowoczesnych technologii, Działanie 1.2. Pragnę również podziękować mgr inż. Miłoszowi Gnatowi za pomoc w automatyzacji wykonywanych badań. 19

Krzysztof Bakuła 5. LITERATURA Bakuła K., 2011. Reduction of DTM obtained from LiDAR data for flood modeling, Archiwum Fotogrametrii, Kartografii i Teledetekcji, vol. 22, s. 51-61. Bakuła K., Kurczyński Z., 2013. The role of structural lines extraction from high-resolution digital terrain models in the process of height data reduction, 13th SGEM GeoConference on Informatics, Geoinformatics And Remote Sensing, SGEM2013 Conference Proceedings, vol. 1, s. 579-586. Briese C., 2004. Three-dimensional modelling of breaklines from airborne laser scanner data. ISPRS Congress, Commission III, WG III/3. Casas A., Lane S., Yu D., Benito G., 2010. A method for parametrising roughness and topographic sub-grid scale effects in hydraulic modelling from LiDAR data. Hydrology and Earth System Sciences, vol. 14, s. 1567-1579. Chen, Z. T., Guevara, J. A., 1987. Systematic selection of very important point (VIP) from digital terrain model for constructing triangular irregular networks. Proceedings of International Symposium on Computer-Assisted Cartography (AUTO-CARTO 8), s. 50-56. De Floriani, L., 1989. A pyramidal data structure for triangle-based surface description. IEEE Computer Graphics and Applications, vol. 9(2), s. 67-78. Dziennik Urzędowy Unii Europejskiej, L. 2. (2007). Dyrektywa 2007/60/WE Parlamentu Europejskiego i Rady z dnia 23 października 2007 r. w sprawie oceny ryzyka powodziowego i zarządzania nim. Jenness J., 2006. Topographic Position Index (tpi_jen. avx) extension for ArcView 3.x, v. 1.3 a. Jenness Enterprises. Kraus K., 2003. LaserScanDTMs for Modeling Flood Risk Areas. Photogrammetric Week, Stuttgart, Germany: http://www.ifp.uni-stuttgart.de/publications/phowo03/kraus.pdf). Liu X., Zhang Z., 2008. LiDAR data reduction for efficient and high quality DEM generation, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. XXXVII, Part B3b, s. 173-178. Weiss A., 2001. Topographic Position and Landforms Analysis. Esri User Conference. San Diego. ArcGIS Resource Center, http://help.arcgis.com/en/arcgisdesktop/10.0/help/ (1.09.2014) 20

Porównanie algorytmów ekstrakcji punktów istotnych w upraszczaniu numerycznych modeli terenu... THE COMPARISON OF ALGORITHMS FOR KEY POINTS EXTRACTION IN SIMPLIFICATION OF HYBRID DIGITAL TERRAIN MODELS KEY WORDS: Digital Terrain Model, critical points, data reduction, generalization, Topographic Position Index (TPI), Very Important Points (VIP), Z-tolerance Summary The presented research concerns methods related to reduction of elevation data contained in digital terrain model (DTM) from airborne laser scanning (ALS) in hydraulic modelling. The reduction is necessary in the preparation of large datasets of geospatial data describing terrain relief. Its course should not be associated with regular data filtering, which often occurs in practice. Such a method leads to a number of important forms important for hydraulic modeling being missed. One of the proposed solutions for the reduction of elevation data contained in DTM is to change the regular grid into the hybrid structure with regularly distributed points and irregularly located critical points. The purpose of this paper is to compare algorithms for extracting these key points from DTM. They are used in hybrid model generation as a part of elevation data reduction process that retains DTM accuracy and reduces the size of output files. In experiments, the following algorithms were tested: Topographic Position Index (TPI), Very Important Points (VIP) and Z-tolerance. Their effectiveness in reduction (maintaining the accuracy and reducing datasets) was evaluated in respect to input DTM from ALS. The best results were obtained for the Z-tolerance algorithm, but they do not diminish the capabilities of the other two algorithms: VIP and TPI which can generalize DTM quite well. The results confirm the possibility of obtaining a high degree of reduction reaching only a few percent of the input data with a relatively low decrease of vertical DTM accuracy to a few centimetres. The presented paper was financed by the Foundation for Polish Science - research grant no. VENTURES/2012-9/1 from Innovative Economy program of the European Structural Funds. Dane autorów: Mgr inż. Krzysztof Bakuła e-mail: k.bakula@gik.pw.edu.pl telefon: 22 234 7694 Przesłano 20.10.2014 Zaakceptowano 20.12.2014 21