Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu kampusu WNGIG wykonanej na podstawie zdjęć fotograficznych z UAV Sławomir Królewicz 1, Michał Wyczałek 2, J. Ceglarek 1, Jan Piekarczyk 3, Cezary Kaźmierowski 1, Karolina Lewińska 1, K. Herodowicz 1 1 Uniwersytet im. Adama Mickiewicza w Poznaniu Instytut Geografii Fizycznej Kształtowania Środowiska Przyrodniczego Zakład Gleboznawstwa i Teledetekcji Gleb skrol@amu.edu.pl, cezark@amu.edu.pl, karolina.lewinska@amu.edu.pl 2 Politechnika Poznańska, Zakład Geodezji, Instytut Inżynierii Lądowej Wydział Budownictwa i Inżynierii Środowiska michal.wyczalek@put.poznan.pl 3 Uniwersytet im. Adama Mickiewicza w Poznaniu Instytut Geografii Fizycznej i Kształtowania Środowiska Przyrodniczego Zakład Geomatyki i Kartografii piekjan@amu.edu.pl Zarys treści: Przygotowanie ortofotomap ze zdjęć wykonanych z niskiego pułapu dla niewielkich obszarów ale o bardzo dużej szczegółowości obrazu, z kamer umieszczonych na zdalnie sterowanych bezzałogowych urządzeniach latających (ang. UAV Unmanned Aerial Vehicle, potocznie dron) i wyposażonych w niemetryczne aparaty fotograficzne staje się coraz bardziej popularne. Niniejsza praca prezentuje ocenę dokładności takiej ortofotomapy oraz modelu wysokościowego wykorzystanego w procesie ortorektyfikacji zdjęć. W pracy przeanalizowano również wpływ na uzyskane wyniki parametrów fotografowania, sposobu zapisu obrazu, zniekształceń geometrycznych układu optycznego i prędkości lotu. Wstęp Omówienie literatury Do typowych produktów fotogrametrycznych zaliczamy ortofotomapę i cyfrowy model powierzchni terenu. Ortofotomapa powstaje poprzez montaż skorygowanych geometrycznie pojedynczych zdjęć do postaci mozaiki. Proces ortorektyfikacji to przetworzenie zdjęć wykonanych w rzucie środkowym do geometrii rzutu ortogonalnego (równoległego), stosowanego w kartografii. Ortorektyfikacja płaskiego obrazu jest możliwa do wykonania na podstawie trójwymiarowego mo- 17
Ryc. 1. Podział zdjęcia na dwie części, wynikający ze sposobu obserwacji: dosłonecznej i odsłonecznej (A). Pozostały efekt dwukierunkowego odbicia spektralnego na zmontowanej ortofotomapie jasne ciemne pasy udostępnianej poprzez Geoportal (B) 18 delu obiektów odfotografowanych na zdjęciu. Trójwymiarowy model tworzony jest poprzez przetwarzanie stereoskopowe kolejnych par zdjęć. W wyniku tego procesu otrzymujemy zbiór punktów o trzech współrzędnych X, Y i Z, zwany współcześnie chmurą punktów. Gęstość punktów w przestrzeni oraz dokładność ich lokalizacji zależy przede wszystkim od rozdzielczości naziemnej, czyli od szczegółowości obrazu, od rodzaju pokrycia terenu oraz zniekształceń obrazu wprowadzonych przez układ optyczny i warunki fotografowania. Na podstawie chmury punktów można obliczyć model cyfrowy powierzchni i zapisać w postaci nieregularnej siatki trójkątów (TIN Triangulated Irregular Network) lub jako uporządkowane regularne modele rastrowy lub siatkowy. Tworzenie ortofotomap, w tak zwanej wersji true-orthophoto, w której ortorektyfikacji podlegają całe obrazy na podstawie bardzo dokładnych i precyzyjnych modeli pokrycia terenu, nie było dość szeroko rozpowszechnione w przypadku lotniczej fotografii analogowej. Uzyskanie bardzo dokładnych modeli trójwymiarowych pokrycia terenu było trudne i kosztowne. Wymagało stosowania dużych pokryć podłużnych między zdjęciami, co powodowało zwiększenie liczby zdjęć. Czas opracowania był długi ze względu na żmudne czynności manualne i samo przetwarzanie danych. W efekcie koszty takiego opracowania były bardzo wysokie. W praktyce fotogrametrycznej podczas tworzenia ortofotomapy ortorektyfikacji podlegała tylko naturalna powierzchnia terenu, a trójwymiarowe elementy pokrycia (Günay i in. 2007), wystające ponad powierzchnię terenu, pozostawały na obrazie pochylone, np. budynki czy drzewa. Mozaikowanie pojedynczych zdjęć do postaci ciągłych ortofotomap jest najbardziej złożonym etapem procesu fotogrametrycznego. Obejmuje wyrównanie rozkładów naświetleń poszczególnych zdjęć i wyznaczenie linii cięć montażowych pomiędzy zdjęciami (ang. seamline, cutline). Różne rozkłady naświetlenia dla poszczególnych zdjęć wynikają z dwóch zjawisk: winietowania i dwukierunkowego odbicia spektralnego. Winietowanie jest radialnym ściemnieniem obrazu od środka na zewnątrz i wynika z budowy układów optycznych o stożkowym polu widzenia. Wpływ winietowania jest zmienny dla każdego obiektywu, zależy od ogniskowej i od wielkości przysłony. Winietowanie jako zjawisko zachodzące w obiektywie jest stosunkowo łatwe do modelowania i korygowania. Efekt dwukierunkowego odbicia spektralnego, czyli ilość odbitej energii spektralnej w danym kierunku, zależy od kierunku oświetlenia i kierunku obserwacji. Zjawisko to zachodzi poza układem optycznym. Powoduje ono podział zdjęcia na dwie części: w jednej obserwowane są obiekty od strony oświetlonej przez promienie słoneczne, w drugiej zacienione części obiektów (ryc. 1A). Linia dzieląca
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu zdjęcie na te dwie części jest prostopadła do kierunku oświetlenia. Wpływ obu wymienionych zjawisk nakłada się na siebie. Usunięcie wpływu winietowania dla współczesnych kamer czy aparatów cyfrowych używanych w fotografii lotniczej nie stanowi problemu. Wyrównywanie rozkładu naświetlenia wynikającego z dwukierunkowego odbicia spektralnego nie jest łatwe, a według niektórych autorów niemal niemożliwe (Haest i in. 2009, Pyka 2011). Efekt ten bardzo często widoczny jest na ortofotomapach cząstkowych, tworzących ortofotomapę kraju udostępnianą przez Geoportal (ryc. 1B). Wprowadzenie technik skaningu laserowego do fotogrametrii stworzyło możliwość opracowywania bardzo dokładnych modeli wysokościowych powierzchni terenu. Z czasem wprowadzono zestawy fotogrametryczne składające się z cyfrowej kamery obrazowej i skanera laserowego. W tym przypadku precyzyjny model powierzchni terenu powstaje poprzez opracowanie chmury punktów pozyskanej poprzez skanowanie laserem, a nie przez opracowanie stereograficzne zdjęć (Günay i in. 2007). Skróciło to dość znacznie opracowanie całej ortofotomapy. Gęstość chmury punktów uzyskiwanej w wyniku skaningu laserowego przeciętnie wynosi do kilkunastu punktów na metr kwadratowy. Gęstość skaningu laserowego dla potrzeb Informatycznego Systemu Ochrony Kraju (ISOK) dochodzi do 12 punktów na metr kwadratowy (Kurczyński, Bakuła 2013). Innym kierunkiem postępu w fotogrametrii był rozwój oprogramowania do przetwarzania cyfrowych ramkowych zdjęć lotniczych. Jakość tego oprogramowania opiera się na rozwoju lotniczych i satelitarnych systemów obrazowych, sprzętu komputerowego, algorytmów przetwarzania i usług sieciowych (Sechin Yu 2014). Wprowadzone na przełomie XX i XXI w. kamery cyfrowe z jednej strony umożliwiły znaczne obniżenie kosztów pozyskania zdjęć (brak kosztów obróbki fotochemicznej oraz skanowania), a z drugiej ułatwiły przez zapis cyfrowy rejestrację zdecydowanie większej liczby zdjęć, w tym o większym pokryciu podłużnym i poprzecznym. Współczesne kamery umożliwiają rejestrację z pokryciem podłużnym sięgającym ponad 90%, a szybki zapis zdjęć możliwy jest dzięki wprowadzeniu dysków SSD (Solid State Drive). Ten sam punkt może być sfotografowany na 19 kolejnych zdjęciach w szeregu. Wspomniany rozwój oprogramowania był ukierunkowany na stworzenie nowych algorytmów do generowania chmury punktów ze zdjęć o bardzo dużym pokryciu wzajemnym. W efekcie rozwinięto techniki zwane ogólnie angielskim terminem multistereomatching. Położenie tego samego punktu jest wyznaczane na podstawie co najmniej kilku stereogramów, a nie jednego, jak to miało miejsce w klasycznym podejściu. Stosowanie tej techniki podniosło dokładność wyznaczania położenia punktów, która jest porównywalna z precyzją urządzeń laserowych. Chmury punktów generowane w oparciu o multistereomatching osiągają gęstość porównywalną lub przewyższającą te uzyskiwane ze skaningu laserowego. Ten kierunek rozwoju fotogrametrii jest mocno wspierany przez firmę Microsoft, poprzez oddział zajmujący się produkcją cyfrowych kamer szeregowo-pomiarowych (seria UltraCam) i oprogramowania fotogrametrycznego (Leberl i in. 2012). Powszechny dostęp do technik obrazowania, czyli umieszczenie zminiaturyzowanego aparatu fotograficznego w telefonie komórkowym, a następnie 19
w smartfonie, doprowadziło do dalszego rozwoju fotogrametrii poprzez powstanie otwartych projektów, w ramach których rozwijano oprogramowanie wykorzystujące zdjęcia z powszechnie dostępnych urządzeń. W efekcie powstało bezpłatne oprogramowanie generujące praktycznie automatycznie trójwymiarowe modele obiektów na podstawie zdjęć fotograficznych (Baros i in. 2014). Obecnie wynikiem tych prac jest powstanie aplikacji działających poprzez przeglądarki internetowe, gdzie rolą użytkownika jest tylko załadowanie odpowiednio wykonanych zdjęć i odebranie gotowego modelu. Kolejny kierunek rozwoju w fotogrametrii to pozyskiwanie zdjęć z różnego rodzaju dronów, określanych angielskim terminem UAV (Unmanned Aerial Vehicle). Umieszczenie tanich urządzeń obrazujących na pokładach takich statków powietrznych umożliwia wykonywanie zdjęć w dużej skali, dla małych obszarów, przy niskich kosztach, kiedy zastosowanie samolotów z zestawami kamer szeregowo- -pomiarowych i urządzeniami do skaningu laserowego jest po prostu nieopłacalne. W ostatnich latach oprogramowanie fotogrametryczne coraz powszechniej wykorzystuje wsparcie sprzętowe w przetwarzaniu danych obrazowych. Chodzi przede wszystkim o wykorzystanie w obliczeniach możliwości procesorów graficznych i implementacje przetwarzania równoległego w postaci wielu jednoczesnych wątków. W efekcie można przetwarzać bardzo duże zbiory zdjęć w zdecydowanie krótszym czasie. Opisany w skrótowy sposób rozwój fotogrametrii w ostatnich latach doprowadził do rozszerzenia listy zastosowań technik fotogrametrycznych w różnych dziedzinach. Na przykład w archeologii do dokumentowania wykopalisk, zabytków trwałych (skorupy, budowle), do ich wirtualnej prezentacji, w szerokim zakresie w monitoringu środowiska przyrodniczego czy inwentaryzacji na podstawie bardzo dokładnych ortofotomap itp. Wspomniany rozwój niekomercyjnych projektów fotogrametrycznych spowodował obniżenie cen oprogramowania komercyjnego. Powstało również kilka nowych komercyjnych programów fotogrametrycznych, ale zdecydowanie tańszych i dostosowanych przede wszystkim do przetwarzania zdjęć wykonywanych z dronów. Przykładami takiego oprogramowania jest Photoscan Professional firmy Agisoft czy Pix4Dmapper Pro firmy Pix4D (Petrie 2013). Dokładność prac fotogrametrycznych uzyskiwanych dzięki wymienionemu oprogramowaniu jest porównywalna z uznanymi, obecnymi na rynku od 20 30 lat systemami fotogrametrycznymi (Ginia i in. 2013). Celem pracy była ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu w bardzo wysokiej rozdzielczości przestrzennej stworzonych obszaru kampusu Wydziału Nauk Geograficznych i Geologicznych na podstawie zdjęć wykonanych niemetrycznym aparatem fotograficznym zamontowanym na pokładzie UAV. Wykonanie zdjęć założono w warunkach światła rozproszonego, przy niskiej wysokości lotu w stosunku do różnic wysokości między elementami pokrycia terenu. 20
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu Metodyka i obszar badań Zdjęcia kampusu Wydziału Nauk Geograficznych i Geologicznych wykonano 21 lutego 2015 r., cyfrowym aparatem fotograficznym SONY alfa 6000 z matrycą o wielkości 24 mln pikseli z obiektywem stałoogniskowym SIGMA o odległości obrazowej równej 19 mm. Pojedynczy piksel matrycy ma wymiar 4 µm. Rejestracja obrazu odbywała się przy całkowitym zachmurzeniu, przy podstawie chmur wynoszącej 400 m, bez rejestracji środków rzutu, przy zastosowaniu automatycznych ustawień parametrów naświetlania. Aparat fotograficzny umieszczony był w samopoziomującym specjalnym mocowaniu, zwanym Gembalem, na dronie z sześcioma wirnikami, skonstruowanym według autorskiego projektu firmy Geomatic. Większość zdjęć zrobiono z wysokości około 75 m nad powierzchnią terenu, z wyjątkiem tych na początku lotu, kiedy dron się wznosi. Zdjęcia zapisywano w formacie stratnym JPEG, wybierając w ustawieniach aparatu minimalny stopień kompresji obrazu. Dla określenia prędkości ruchu obrazu w trakcie ekspozycji w stosunku do wielkości rzeczywistej elementu światłoczułego wykorzystano następujące równanie: d = (v*t)*(f/h) (1) gdzie: v prędkość drona, t czas naświetlania, f ogniskowa, H wysokość fotografowania. W celu ustalenia wielkości dystorsji radialnej i tangencjalnej wykonano dwuwymiarową kalibrację obiektywu, posługując się zdjęciami matrycy monitora, na której wyświetlany był specjalny obraz czarno-białej szachownicy. Na podstawie analizy tych zdjęć, za pomocą programu Lens firmy Agisoft oszacowano współczynniki równania Browna stosowanego do opisu zniekształceń geometrycznych układów optycznych (Brown 1971). Do określenia orientacji zewnętrznej zbioru zdjęć i dokładności ortofotomapy wykorzystano 40 punktów naziemnych, których położenie określono GPS-em, odbiornikiem geodezyjnym HiperPro firmy Topcon. Punkty zostały podzielone na dwa zbiory, jeden wykorzystano w procesie odtwarzania orientacji zewnętrznej, drugi do weryfikacji dokładności ortofotomapy i modelu powierzchni terenu. Ortofotomapę i model powierzchni ziemi przygotowano za pomocą oprogramowania Photoscan Professional firmy Agisoft w wersji 1.2.0. Przetwarzanie foto grametryczne w tym programie składa się z następujących etapów: 1. otworzenie orientacji zewnętrznej zdjęć (współrzędne X, Y, Z środków rzutu oraz kąty skręcenia układu optycznego phi, omega, kappa); 2. obliczenie chmury punktów dla odfotografowanej powierzchni; 3. Budowa modelu geometrycznego odfotografowanej powierzchni (ang. model TIN Triangulated Irregular Network); 4. obliczenie cyfrowego modelu odfotografowanej powierzchni (ang. DSM Digital Surface Model); 21
5. automatyczny montaż zdjęć do postaci ciągłej ortofotomapy. Na każdym z tych etapów wybiera się jeden z pięciu stopni precyzji przetwarzania. Dla potrzeb niniejszego opracowania wybierano wysoki stopień dokładności. Do analizy dokładności wyników i ich prezentacji wykorzystano dodatkowo oprogramowanie Excel w wersji Office365 udostępnianej na stronie www. office365.amu.edu.pl oraz TNTmips firmy MicroImages Inc w wersji 8.2. Omówienie wyników Ocena jakości zdjęć Nad obszarem otaczającym Wydział Nauk Geograficznych i Geologicznych wykonano łącznie 144 pionowe zdjęcia lotnicze. Zdjęcia objęły swym zasięgiem główny budynek wydziału oraz budynek laboratoryjno-dydaktyczny wraz z otoczeniem, bez budynku Instytutu Geologii. Przed startem drona w aparacie fotograficznym włączony został samowyzwalacz, który w określonym interwale czasu powoduje wykonywanie kolejnych zdjęć w przypadku opisywanego nalotu była to jedna sekunda. Dron, poruszając się w powietrzu, musi się zmierzyć ze zmiennymi warunkami wietrznymi, dlatego jego prędkość postępowa nie jest zawsze jednakowa. W efekcie zdjęcia czasami są wykonywane z niemal jednakowych pozycji. Dlatego przed modelowaniem fotogrametrycznym można dokonać selekcji zdjęć, ograniczając ich ilość. Z uzyskanego zbioru 144 zdjęć ostatecznie wybrano Ryc. 2. Lokalizacje zdjęć wykonanych nad kampusem WNGiG 22
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu 101 do dalszego przetwarzania. Blok zdjęć składał się z czterech szeregów (ryc. 2). Wpływ warunków lotu (drgania silników wirnikowych, oddziaływanie wiatru) na pionowość zdjęć, a zarazem efektywność działania żyroskopowej gondoli, w której umieszczony był aparat fotograficzny, można ocenić poprzez analizę kątów skręcenia poprzecznego (omega) i podłużnego (phi). Bezwzględne, średnie i maksymalne wartości tych kątów dla pełnego zbioru zdjęć zestawiono w tabeli 1. W całym zbiorze tylko trzy zdjęcia nie są pionowe (warunkiem pionowości jest odchylenie osi optycznej mniejsze od 3 stopni). Modelowanie fotogrametryczne współcześnie dopuszcza wykorzystanie zdjęć niepionowych, czego nie robiono dawniej, przetwarzając zdjęcia analogowe. Automatyczne ustawienia warunków naświetlania w tym przypadku dla aparatu Sony ILCE-6000 oznaczały stałą wartość przysłony i czasu naświetlania. Dla wszystkich zdjęć, w warunkach pełnego zachmurzenia, światłomierz aparatu ustalił liczbę przysłony na 4, a czas naświetlania na 1/1250 sekundy. Dla poszczególnych zdjęć zmienna była czułość matrycy, od 500 do 1200 ISO. Przyczyną tej zmienności jest zmieniająca się na każdym zdjęciu kompozycja różnych elementów pokrycia terenu, o innym stopniu odbicia światła. Odległość hiperfokalna dla tych ustawień naświetlania wynosi 4,43 m, zatem ustawienie ostrości na nieskończoność, z uwzględnieniem wysokości fotografowania i wysokości najwyższych elementów pokrycia terenu, spowodowało, że wszystkie obiekty na zdjęciach znajdowały się w granicach głębi ostrości. Ponieważ kompaktowe aparaty fotograficzne nie mają kompensacji ruchu obrazu, stosowanej w profesjonalnych kamerach fotogrametrycznych, sprawdzono, czy prędkość ruchu obrazu przekraczała wymiar elementu światłoczułego matrycy cyfrowej. Na podstawie pozycji środków rzutów obliczono wartości prędkości i odległości przemieszczania się drona pomiędzy kolejnymi ekspozycjami. Wykorzystując równanie (1), obliczono wartości ruchu obrazu dla poszczególnych zdjęć. Na rycinie pokazano prędkości ruchu obrazu w zależności od prędkości drona pomiędzy kolejnymi ekspozycjami. Wartości te zmieniały się od 1,24 µm do nieco ponad 3,0 µm i są mniejsze niż rzeczywisty wymiar piksela, który dla aparatu Sony ILCE-6000 wynosi 4 µm. Na wykresie widać również, jak prędkość ruchu drona zmniejszała bądź zwiększała się skokowo zależnie od siły wiatru. Na tej podstawie można stwierdzić, że ruch obrazu nie miał wpływu na ewentualne jego rozmycie. Ustalenie średniej rozdzielczości obrazu (GSD Ground Spatial Resolution) nie jest w tym przypadku jednoznaczne, bowiem znaczną część ortofotomapy zajmuje budynek wydziału, który wznosi się miejscami ponad 20 m nad powierzchnię terenu. Uwzględniając średnią wysokość fotografowania 65 m, należy stwier- Tabela 1. Bezwzględne wartości poprzecznego kąta skręcenia (omega) i podłużnego kąta skręcenia (phi) dla 101 zdjęć lotniczych Kąt Średnia Maksimum Poprzeczny kąt skręcenia (omega) 0,32 26,32 Podłużny kąt skręcenia (phi) 0,12 18,24 23
Ryc. 3. Rozmycie obrazu wskutek zastosowania kompresji stratnej (JPEG) na przykładzie kostki brukowej chodnika i drogi dojazdowej dzić, że średni rzeczywisty wymiar piksela osiągnął 1,4 cm, dla obszarów dachów ta rozdzielczość wynosi około 1 cm. Jakość zdjęć można scharakteryzować za pomocą różnych wskaźników. W oprogramowaniu Photoscan do tego celu służy funkcja badająca jakość obrazu na podstawie rozkładu ostrości, która w efekcie oblicza wskaźnik jakości zdjęcia. Ostrość obrazu jest elementem odgrywającym kluczową rolę w korelacji cech pokrywających się na zdjęciach. Jeśli wskaźnik jest poniżej wartości 0,5, to obraz nie powinien być wykorzystywany w modelowaniu fotogrametrycznym. W przypadku omawianego zbioru zdjęć wartości współczynnika jakości zmieniają się od 0,6 do 0,9. Teoretycznie wszystkie spełniają wspomniane kryterium ostrości. Rozdzielczość i ilościowa ocena wskazują na możliwość rozpoznawania bardzo małych szczegółów. Generalnie rozpoznawaniu obiektów sprzyja również brak cienia zdjęcia wykonano przy pełnym zachmurzeniu. Jakość zdjęć oceniono też poprzez ich bezpośrednie przejrzenie w powiększeniu dwukrotnie większym niż jeden do jeden (jeden piksel na jedną plamkę ekranu). Ostrość obrazu jest zmienna i mocno obniżana przez kompresję JPEG. Dotyczy to zwłaszcza powierzchni jednolitych pod względem barwy, takich jak np. kostka brukowa chodnika i uliczek dojazdowych wokół kampusu. Są takie miejsca w obrębie parkingu, gdzie granice między kostkami brukowymi są widoczne, a dosłownie 2 3 m dalej granice są już niewidoczne (ryc. 3). Rozdzielczość przestrzenna zdjęć mogłaby być dwu- lub nawet trzykrotnie wyższa, zwłaszcza dla powierzchni roślinnych, co podniosłoby czytelność szczegółów w ich obrębie. Na ostrość obrazu wpływ miał również duży otwór względny przysłony (F=4), który negatywnie wpływa na ostrość obrazu, poprzez szeroki strumień światła. 24
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu Ryc. 4. Zależność między prędkością obrazu w zależności od prędkości drona Ocena dokładności fotogrametrycznej W celu oceny wielkości zniekształceń geometrycznych występujących w układzie optycznym obiektywu SIGMA wykonano kalibrację układu optycznego. Na jej podstawie ustalono zmienność dystorsji radialnej i tangencjalnej w miarę oddalania się od środka zdjęcia oraz obliczono współczynniki równania układu optycznego (ryc. 4). Wielkość dystorsji radialnej rośnie w miarę oddalania się od środka zdjęcia i osiąga około 70 pikseli przy dłuższej krawędzi zdjęcia. Dystorsja tan- Ryc. 5. Wykresy dystorsji radialnej i tangencjalnej oraz współczynniki równania układu optycznego uzyskane na podstawie dwuwymiarowej kalibracji układu optycznego SIG- MA o ogniskowej 19 mm 25
gencjalna osiąga wartości podpikselowe, a więc nie istnieje w kontekście obrazu cyfrowego, w którym najmniejszym elementem jest piksel. Uzyskane równanie układu optycznego wykorzystano w procesie przetwarzania fotogrametrycznego do korekcji zniekształceń geometrycznych. W wyniku przetwarzania fotogrametrycznego, wykorzystując równanie układu optycznego uzyskane w procesie kalibracji oraz 13 punktów naziemnych, których położenie pomierzono GPS geodezyjnym, w pierwszym etapie odtworzono orientację zewnętrzną zdjęć. Następnie uzyskano chmurę złożoną z ponad 82 mln punktów. Przed obliczeniem cyfrowego modelu powierzchni terenu przeprowadzono filtrację odszumiającą, czyli odrzucającą punkty niespełniające przyjętych kryteriów, czyli znajdujące się poza zakresem przyjętej dopuszczalnej zmienności wysokości, w obrębie analizowanego obszaru, czyli ponad 24 m w odległości 1 m, punkty zdublowane, których odległość wzajemna jest mniejsza niż 2 cm. Następnie obliczono cyfrowy model terenu o rozdzielczości 2 cm, który przedstawiono na rycinie 6A. Na podstawie tego modelu dokonano ortorektyfikacji i montażu zdjęć do postaci ciągłej ortofotomapy o rozdzielczości naziemnej piksela równej 2 cm. Całościowy widok ortofotomapy prezentowany jest na rycinie 6B. W celu określenia dokładności przestrzennej uzyskanych produktów fotogrametrycznych wykonano pomiary położenia 27 punktów na ortofotomapie wraz z odczytaniem rzędnej wysokości z cyfrowego modelu powierzchni i porównano to położenie z rzeczywistym uzyskanym poprzez pomiar GPS geodezyjnym. Ryc. 6. Cyfrowy model powierzchni terenu i ortofotomapa uzyskana na podstawie przetwarzania fotogrametrycznego w programie Photoscan Professional 1.2.0. Wizualizacji modelu wysokościowego z wykorzystaniem nieliniowego rozciągania kontrastu dla lepszego ukazania zróżnicowania wysokościowego 26
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu Tabela 2. Średnie i maksymalne wartości różnic położenia dla punktów kontrolnych dla współrzędnych X, Y i Z Kierunek (współrzędna) X Y Z Średnia wartość błędu położenia w [m] 0,036 0,042 0,108 Maksymalna wartość błędu położenia w [m] 0,147 0,201 0,420 Średnia wartość błędu położenia w pikselach 1,8 2,1 5,4 Maksymalna wartość błędu położenia w pikselach 7,35 10,05 21 W tabeli drugiej zestawiono średnie i maksymalne błędy położenia na kierunkach X i Y oraz błędy oszacowania rzędnej wysokości (Z) dla punktów kontrolnych. Wartości błędów wyrażono w jednostkach bezwzględnych, tj. w metrach, oraz w jednostkach obrazowych, czyli pikselach. Odczyt współrzędnych na obrazie nie może być dokonany z większą precyzją niż jeden piksel, czyli w przypadku omawianej ortofotomapy piksel ma 2 cm. Średnia dokładność odczytu położenia jest na poziome dwóch pikseli, czyli około 4 cm, średnia dokładność dla rzędnej wysokości to 5 pikseli. Nie odbiega to zasadniczo od standardów przyjętych w fotogrametrii. Gdyby przygotować wydruk stworzonej ortofotomapy, przyjmując jakość na poziomie 300 pikseli na cal co odpowiada rozdzielczości oka ludzkiego z odległości dobrego widzenia wówczas skala takiego opracowania wyniosłaby Ryc. 7. Nałożenie granic wektorowych wybranych warstw tematycznych mapy miejskiej Poznania na fragment ortofotomapy kampusu WNGiG 27
Ryc. 8. Model wysokościowy fragmentu kampusu WNGiG około 1:236, a średni błąd położenia (patrz tab. 2) wyniósłby 0,008 cm w skali opracowania. Dokładność wizualną sprawdzono poprzez nałożenie warstw tematycznych udostępnianych w ramach mapy miejskiej miasta Poznania, dostępnej poprzez protokół WMS (Web Map Service) dla pracowników i studentów WNGIG w ramach umowy o współpracy podpisanej między Urzędem Miasta Poznania a Uniwersytetem im. Adama Mickiewicza 7 maja 2012 r. Fragment takiej wizualizacji pokazano na rycinie 7. Przebieg linii wyznaczających granice ulic, chodników, trawników, wysepek na parkingu czy budynków jest zasadniczo zgodny z obrazem ortofotomapy. Model trójwymiarowy powierzchni terenu zawiera bardzo dokładne informacje o różnicach wysokości. Gęstość danych wysokościowych jest ogromna w porównaniu z danymi punktowymi, dostępnymi w ramach mapy miejskiej (patrz ryc. 7). Na podstawie tego modelu można analizować kierunki spływu wody opadowej po chodnikach czy drogach dojazdowych, gęstość zasadzonych w ostatnich latach żywopłotów, co przedstawiono na rycinie 8. Podsumowanie Opracowane dla kampusu WNGiG ortofotomapa i model wysokościowy powierzchni spełniają ogólnie przyjęte w fotogrametrii standardy dokładności. Tak wysokorozdzielcze dane mogą być wykorzystane w różnych analizach przyrodniczych i urbanistycznych. Przewiduje się dalsze badania nad tworzeniem ortofotomap ze zdjęć pozyskiwanych niemetrycznymi aparatami fotograficznymi umieszczonymi na dronach. Dalsze zwiększenie dokładności tych opracowań związane jest z pojawieniem się aparatów kompaktowych z dużymi matrycami, powyżej 28
Geodezyjna ocena dokładności ortofotomapy i cyfrowego modelu powierzchni terenu 100 mln pikseli, szybszymi kartami pamięci, co pozwoli rejestrować obrazy w trybie negatywu, a więc niezdegradowane kompresją stratną. Literatura Bartoš K., Pukanská K., Sabová J.,, 2014. Overview of Available Open-Source Photogrammetric Software, its Use and Analysis. International Journal for Innovation Education and Research, 2(04): 62 70. Brown D., 1971. Close-Range Camera Calibration. Photo. Eng., XXXVII(8): 855 866. Haest B., Biesemans J., Horsten W., Everaerts J.,, 2009. Radiometric calibration of digital photogrammetric camera image data. Proceedings of ASPRS, 2009 Annual Conference Baltimore, Maryland, March 9 13. Ginia R., Pagliarib D., Passonib D., Pintob L., Sona G., Dosso P., 2013. UAV photogrammetry: block triangulation comparisons. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XL-1/W2, UAV-g2013, 4 6, Rostock, Germany, s. 157 162. Günay A., Arefi H., Hahn M., 2007. True orthophoto production using lidar data. Joint Workshop Visualization and Exploration of Geospatial Data, June 27 29, Stuttgart, Germany. ISPRS Archives, XXXVI-4/W45 (http://www.isprs.org/proceedings/ XXXVI/4-W45/PDF/02_Guenay.pdf). Kurczyński Z., Bakuła K., 2013. Generowanie referencyjnego numerycznego modelu terenu o zasięgu krajowym w oparciu o lotnicze skanowanie laserowe w projekcie ISOK. Archiwum Fotogrametrii, Kartografii i Teledetekcji, wydanie specjalne: Geodezyjne Technologie Pomiarowe. PTFiT, Warszawa. Pyka K., 2011. Wykorzystanie transformacji falkowej do oceny spadku jakości radiometrycznej w procesie mozaikowania ortofotomapy. Biuletyn WAT, LX(3): 353 364. Leberl F., Gruber M., Ponticelli M., Wiechert A., 2012. The ultracam story. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, XXXIX-B1, XXII ISPRS Congress, 25 August 1 September, Melbourne, Australia. Petrie G., 2013. Commercial Operation of Lightweight. Geoinformatics, 16: 29 39. Schenk T., 2005. Introduction to Photogrammetry. The Ohio State University. Sechin Yu A., 2014. Digital Photogrammetric Systems Main Trends and Developments. Geoinformatics, 4: 32 34. 29