Piotr Walczykowski załącznik nr 2a do wniosku o przeprowadzenie postępowania habilitacyjnego Autoreferat 1. Dane osobowe i adres do korespondencji Piotr Walczykowski Wojskowa Akademia Techniczna Wydział Inżynierii Lądowej i Geodezji Instytut Geodezji Zakład Teledetekcji, Fotogrametrii i Rozpoznania Obrazowego ul. S. Kaliskiego 2, 00-908 Warszawa tel. 261 839 021 e-mail: piotr.walczykowski@wat.edu.pl 2. Posiadane dyplomy, stopnie naukowe z podaniem nazwy, miejsca i roku ich uzyskania oraz tytułu rozprawy doktorskiej 2003 stopień naukowy: doktor nauk technicznych w dyscyplinie geodezja i kartografia, specjalność teledetekcja, uzyskany na Wydziale Inżynierii, Chemii i Fizyki Technicznej Wojskowej Akademii Technicznej w Warszawie. Tytuł rozprawy doktorskiej: Analiza wykorzystania wielospektralnej techniki video do wyróżniania maskowanych obiektów z tła naturalnego. 3. Informacje o dotychczasowym zatrudnieniu w jednostkach naukowych 1994-1997 inżynier, Wojskowa Akademia Techniczna 1997-2003 asystent, Wojskowa Akademia Techniczna 2003 adiunkt, Wojskowa Akademia Techniczna 2008 kierownik zakładu, Wojskowa Akademia Techniczna 1
4. Wskazanie osiągnięcia wynikającego z art. 16 ust. 2 ustawy z dnia 14 marca 2003 r. o stopniach naukowych i tytule naukowym oraz o stopniach i tytule w zakresie sztuki (Dz.U. 2016 r., poz. 882 ze zm. w Dz.U. z 2016 r., poz. 1311): a) tytuł osiągnięcia naukowego: Teledetekcja z niskich pułapów b) autor, rok wydania, tytuł publikacji, nazwa wydawnictwa: P. Walczykowski, 2017, Teledetekcja z niskich pułapów, Wydawnictwo Wojskowej Akademii Technicznej, ISBN 978-83-7938-137-1 c) omówienie celu naukowego ww. pracy i osiągniętych wyników wraz z omówieniem ich ewentualnego wykorzystania. Dane pozyskiwane z niskich pułapów mają coraz większe znaczenie w analizach teledetekcyjnych. Składają się na to przede wszystkim potrzeby użytkowników w zakresie coraz szybszego dostępu do danych oraz wyników ich analiz. Szczególnego znaczenia nabiera to w obszarze bezpieczeństwa i obronności, gdzie szybkość dostępu do informacji jest parametrem kluczowym. Obrazowanie powierzchni Ziemi z niskich pułapów jest jednym z obszarów, w którym pozyskiwane dane są analizowane w czasie zbliżonym do rzeczywistego, zapewniając natychmiastowy dostęp do informacji, co powoduje dynamiczny rozwój obrazowania z pokładów systemów bezzałogowych klasy mini i mikro. Pułapy obrazowania powierzchni Ziemi nie są precyzyjnie zdefiniowane. Szczególnego znaczenia nabierają pułapy niskie, których zasięg pionowy określa się najczęściej do 1 km (Aber i inni, 2010), co pozwala na stosowanie uproszczonych algorytmów przetwarzania zobrazowań, a tym samym na szybki dostęp do informacji. W celu uzyskania informacji o obiektach i zjawiskach, pozyskane zobrazowania należy poddać przetwarzaniu i analizie. Wyróżniamy dwie podstawowe metody analizy danych: ilościową i jakościową. Metody ilościowe stosowane są w celu oceny właściwości obiektów i ich liczbowego opisu, natomiast metody jakościowe, by zidentyfikować obiekty lub zjawiska oraz opisać ich względne nasilenie. Zastosowanie obrazów jako podstawowego źródła danych powoduje, że metody te opierają się na wartościach poszczególnych pikseli obrazu. 2
Jeden z podstawowych problemów ilościowych analiz zobrazowań związany jest ze sposobem tworzenia piksela obrazu. W szczególności dotyczy zmienności wartości pikseli reprezentujących na obrazie obiekt o niezmiennych właściwościach odbiciowych. Problem ten ma mniejsze znaczenie przy analizach jakościowych, jednak w analizach ilościowych jest kluczowy. Skoro wartość piksela jest podstawą ilościowego opisu właściwości obiektu, to przy zmiennej wartości piksela nie można wykonać wiarygodnej i powtarzalnej analizy ilościowej. Najpowszechniej wykorzystywane dzisiaj sensory cyfrowe zbudowane są na bazie matryc elementów półprzewodnikowych CCD/CMOS. Każdy piksel obrazu jest tworzony przez pojedynczy detektor. Promieniowanie odbite od obiektu dociera do detektora, w którym generowany jest ładunek. Detektor rejestruje promieniowanie docierające od obiektu. Strumień tego promieniowania jest zmienny i nie zależy tylko od właściwości obiektu, lecz także od strumienia promieniowania docierającego do obiektu (czyli charakterystyki źródła promieniowania i skuteczności transmisji). Kolejnym czynnikiem powodującym zmienność wartości piksela jest proces konwersji ładunku zgromadzonego w detektorze. Czynniki te powodują, że uzyskana wartość piksela jest wartością bezwymiarową, zależną nie tylko od właściwości obiektu. W celu zachowania odpowiedniego zakresu pomiarowego konieczne jest sterowanie czasem eksponowania detektora na promieniowanie do niego docierające. Czas ten wyznacza się w oparciu o promieniowanie odbite od obiektu (fotografowanej sceny). Przy braku informacji o właściwościach obiektu i promieniowaniu docierającym do niego nie ma możliwości zapewnienia powtarzalności wartości piksela dla obiektów o niezmiennych właściwościach. Parametry ekspozycji są tak dobierane, aby zapewnić jak najlepszą rozróżnialność poszczególnych obiektów na obrazie. W związku z tym, przy zmiennych parametrach oświetlenia i zmiennej dynamice sceny, wartość piksela obrazu obiektu o niezmiennych właściwościach będzie zmienna na różnych obrazach. Problem ten powoduje, że prowadzenie analiz ilościowych przy wykorzystaniu surowych bezwymiarowych i zmiennych wartości pikseli nie jest możliwe. Analizy ilościowe muszą być prowadzone na danych zależnych tylko od właściwości obiektu. Aby podnieść dokładność analiz ilościowych, a przede wszystkim zapewnić ich powtarzalność, wartości pikseli obrazu powinny być wstępnie przetworzone z bezwymiarowej i zmiennej wartości DN do wartości niezmiennej zależnej tylko od właściwości obiektu. Takie założenia spełnia współczynnik odbicia, który jest ilorazem strumienia promieniowania odbitego od obiektu do 3
strumienia promieniowania padającego na obiekt (Sanecki, 2006), (Schaepman, 1998), (Białousz i inni, 1978)., ρ (1) gdzie: ρ widmowy współczynnik odbicia, Φρ strumień promieniowania odbitego, Φ strumień promieniowania padającego. W literaturze można również spotkać oznaczenie współczynnika odbicia przez R (Jaworski i inni, 1979). Współczynnik odbicia nosi także nazwę reflektancji (Januszajtis, 1991). Jak łatwo zauważyć, w zależności od tego, czy obiekt w ogóle nie odbije promieniowania, czy odbije całe padające promieniowanie, uzyskamy współczynnik odbicia z zakresu od 0 do 1. Znajomość wartości współczynnika odbicia wyznaczonego na podstawie obrazu pozwala na wnioskowanie o właściwościach obiektu czy też wyróżnianie obiektów o określonych właściwościach na obrazie. Zadania te często realizowane są w oparciu o zbiory współczynników odbicia gromadzone w tzw. bibliotekach spektralnych (Zagajewski i inni, 2009), (Baldridge i inni, 2009), (Hejmanowska i inni, 2004). Niestety, w klasycznym podejściu do fotografii nie wykonuje się pomiaru strumienia promieniowania docierającego do obiektu, więc nie można bezpośrednio wyznaczyć współczynnika odbicia obiektu. Współczynniki odbicia wyznacza się najczęściej metodami spektrometrii, przy czym w zastosowaniach polowych wykorzystuje się spektroradiometry. Jest to związane z tym, że spektroradiometr, w przeciwieństwie do spektrofotometru, rejestruje promieniowanie pochodzące z zewnętrznego źródła. Wymaga to jednak stosowania wzorca odbicia i wymusza określoną metodykę pomiaru. Metodyka pomiaru jest dwuetapowa i wymaga pomiarów promieniowania odbitego od wzorca odbicia i od badanego obiektu. Sprawia to trudności przy pomiarach terenowych, szczególnie w aspekcie zmienności warunków zewnętrznych i punktowego zbierania danych. Powoduje to problemy związane z prowadzeniem pomiarów 4
z platform znajdujących się w ruchu, z pozyskiwaniem współczynników odbicia wielu obiektów w krótkim czasie, czy też z wyznaczaniem reflektancji obiektów o powierzchni mniejszej niż pole widzenia sensora. Istnieją metody pozwalające na wyznaczenie współczynników odbicia na podstawie obrazu. Jedną z nich jest korekcja radiometryczna. Ma ona na celu transformację zarejestrowanych przez detektor bezwymiarowych wartości pikseli do współczynników odbicia. Składa się z trzech etapów: kalibracji detektora, korekcji atmosferycznej oraz korekcji topograficznej i słonecznej. Metoda ta wymaga nie tylko znajomości parametrów kalibracyjnych detektora, ale przede wszystkim precyzyjnego określenia stanu atmosfery w celu modelowania transmisji promieniowania (Jakomulska i inni, 2001), i jest wykorzystywana w odniesieniu do zobrazowań satelitarnych. Złożoność algorytmów obliczeniowych oraz charakter dostępu do danych nie pozwalają na stosowanie tej metody w czasie rzeczywistym lub zbliżonym do rzeczywistego. W fotografii z pułapów lotniczych wykorzystuje się wzorce odbicia rozmieszczane na fotografowanej scenie. Podejście to nie zawsze jest możliwe do zrealizowania np. w wielu zastosowaniach związanych z obronnością. Wymaga także stosowania dużych powierzchni wzorcowych. Wzorce przeznaczone dla pomiarów spektroradiometrycznych są bardzo drogie, a ich wymiary stosunkowo niewielkie. Z tego powodu często stosuje się materiały o zmierzonym współczynniku odbicia, zastępujące cechowane produkty (Hruska i inni, 2012), (Laliberte i inni, 2011). Jednym z takich materiałów jest np. teflon. Jego właściwości odbiciowe są bardzo zbliżone do wzorców laboratoryjnych. Jednak na podstawie analizy zobrazowań teflonu pozyskanych w zakresie 900-1700 nm stwierdziłem, że teflon charakteryzuje się transmisją promieniowania (jest przezroczysty). Na rys. 1 widać taśmę przyklejoną na spodniej stronie płyty teflonowej. 5
Rysunek 1. Jednolita płyta teflonu z widocznymi podklejonymi od spodu pasami taśmy. Zobrazowanie wykonane w zakresie 900-1700 nm Na podstawie przeprowadzonych analiz mogę stwierdzić, że brakuje metod pozwalających na wyznaczanie współczynników odbicia w czasie zbliżonym do rzeczywistego na podstawie zobrazowań pozyskanych z niskich pułapów. Celem naukowym mojej pracy było opracowanie metodyki wyznaczania współczynników odbicia na podstawie zobrazowań zarejestrowanych z niskich pułapów przy jednoczesnym pomiarze irradiancji. Osiągnięcie założonego celu wymagało udowodnienia następującej hipotezy badawczej: jeżeli zobrazowania będą pozyskiwane z niskich pułapów (niewielka grubość atmosfery), to ciągła rejestracja parametrów irradiancji pozwoli na powtarzalne i wysoko dokładne wyznaczenie współczynnika odbicia na podstawie zarejestrowanych zobrazowań. Idea przyjętego przeze mnie rozwiązania bazuje na jednoczesnym pomiarze strumienia promieniowania padającego i odbitego od obiektu. Zastosowałem dwa schematy rozwiązania problemu badawczego. Pierwszy (rys. 2) bazuje na wyznaczeniu takiego czasu ekspozycji, przy którym będzie zachodziła stała, powtarzalna korelacja pomiędzy wartościami współczynnika odbicia a wartościami pikseli obrazu. 6
Kameralna kalibracja kamery Pomiar irradiancji Współczynniki kalibracji Wyznaczenie czasu ekspozycji Rejestracja zobrazowania DN = f(ρ) Rysunek 2. Algorytm wyznaczania współczynników odbicia w czasie rzeczywistym Takie podejście pozwoli na wykorzystanie zarejestrowanych zobrazowań do prowadzenia analiz ilościowych w czasie zbliżonym do rzeczywistego. Drugie podejście (rys. 3) bazuje na wyznaczeniu formuł obliczeniowych (uniwersalnych dla określonego układu sensora i różnych warunków oświetleniowych), które pozwolą na przetworzenie zarejestrowanych zobrazowań do wartości współczynnika odbicia. Kameralna kalibracja kamery Pomiar irradiancji Rejestracja zobrazowania DN f(ρ) Przetworzenie zobrazowania DN = f(ρ) Współczynniki kalibracji Rysunek 3. Algorytm wyznaczania współczynników odbicia w post-processingu Główne problemy badawcze, jakie zidentyfikowałem, dotyczyły pomiaru strumienia promieniowania docierającego do obiektu oraz wyznaczenia na podstawie zarejestrowanego obrazu strumienia promieniowania odbitego. 7
Po przeanalizowaniu dostępnych rozwiązań w zakresie rozwiązania pierwszego głównego problemu badawczego, tj. pomiaru strumienia promieniowania docierającego do obiektu, doszedłem do wniosku, że żadne gotowe rozwiązania nie mogą być przeze mnie wykorzystane. Większość dostępnych przenośnych mierników, które można umieścić na pokładzie platformy bezzałogowej, przystosowana jest do pomiaru natężenia oświetlenia, a nie irradiancji. Te, które mierzą irradiancję, charakteryzują się niską dokładnością pomiaru i przede wszystkim nie pozwalają na precyzyjną lokalizację położenia czujnika pomiarowego, co ostatecznie może skutkować brakiem powtarzalności pomiarów, szczególnie w zakresie laboratoryjnej kalibracji kamery. Urządzenia laboratoryjne charakteryzują się dużo większą dokładnością pomiaru, jednak ich montaż na pokładzie platformy bezzałogowej byłby problematyczny, a często praktycznie niemożliwy. Z tego powodu opracowałem własne rozwiązanie pomiaru oświetlenia i zbudowałem prototypowy miernik irradiancji. Miernik składa się z trzech podstawowych podzespołów: a) czujników irradiancji TSL-2561 (12 szt.), układu nadajnika danych, układu odbiornika danych. b) 8
c) Rysunek 4. Miernik rozkładu irradiancji: a) czujnik TSL-2561, b) odbiornik danych, c) pole czujników irradiancji z zintegrowanym nadajnikiem danych Czujniki irradiancji TSL-2561 to podzespoły standardowe, dostępne komercyjnie. Każdy czujnik posiada dwa przetworniki analogowo-cyfrowe (ADC), które całkują prądy jednocześnie z dwóch zintegrowanych fotodiod jednej szerokopasmowej pracującej w zakresie widzialnym i bliskiej podczerwieni oraz drugiej pracującej w zakresie bliskiej podczerwieni. Dwa zintegrowane przetworniki analogowo-cyfrowe dokonują konwersji prądu fotodiody na wyjście cyfrowe w dwóch kanałach (data 0 i data 1), które odpowiadają mierzonej irradiancji. Bardzo niewielkie rozmiary czujnika, ok. 1 x 1,5 mm (rozmiar całej płytki ok. 1 x 1,5 cm), sprawiają, że czujnik ten z powodzeniem można wykorzystać do zabudowy w systemach bezzałogowych. Do wykonywania kalibracji kamer w warunkach laboratoryjnych zintegrowałem w oparciu o platformę Arduino dwanaście czujników TSL-2561 (rys. 4c). W nadajniku zlokalizowanym pod polem czujników znajdują się cztery układy Arduino nano, do których podłączone są przewodowo, poprzez magistralę I2C, czujniki TSL-2561. Czas integracji czujników może być regulowany za pomocą odpowiednich zworek. Dane z czujników są zbierane i transmitowane bezprzewodowo do odbiornika (rys. 4b) przy wykorzystaniu modułów radiowych nrf2401+ pracujących na częstotliwości 2,4 GHz. W odbiorniku (opartym na module Arduino mega2560) dane z kanałów data0 i data1 są wyświetlane oraz zapisywane w plikach tekstowych na karcie pamięci SD. Dzięki zastosowaniu zegara czasu rzeczywistego RTC DS3231 zapisywana jest informacja o czasie rejestracji każdego pakietu danych. 9
Oddzielenie układu pomiarowego od rejestrującego wpłynęło na ograniczenie czynników zakłócających poprzez zminimalizowanie wpływu użytkownika na warunki pomiaru. W opracowanym urządzeniu zastosowałem uproszczenie polegające na tym, że nie wykonałem bezwzględnej kalibracji czujników, tzn. wartości pomiarowe uzyskiwane z poszczególnych czujników odzwierciedlają irradiancję, jednak nie są wyskalowane do określonych jednostek (W/m2). Założyłem, że kalibracja kamery (w celu wyznaczania strumienia promieniowania odbitego od obiektu) i pomiar irradiancji w trakcie akwizycji zobrazowań będą się opierały na danych pozyskanych tym samym egzemplarzem czujnika. W celu stosowania różnych czujników do kalibracji kamery i rejestracji irradiancji w czasie akwizycji obrazów należy wykonać kalibrację względną wskazań czujników w stosunku do wskazań jednego wybranego jako wzorcowy. Rozwiązanie drugiego głównego problemu badawczego polegającego na wyznaczeniu strumienia promieniowania odbitego od obiektu na podstawie zarejestrowanego obrazu wymagało opracowania sposobu kalibracji kamery. Kalibracja kamery polega na określeniu wpływu irradiancji na wartości pikseli rejestrowanych obrazów. Dla konkretnego sensora wartości pikseli obrazu są funkcją czasu ekspozycji, przysłony, irradiancji i współczynnika odbicia obiektu. Założyłem pewne uproszczenie, które jest powszechnie stosowane w fotografii lotniczej, tj. założyłem stałość przysłony, czyli po uproszczeniu wartość piksela jest funkcją czasu i irradiancji oraz współczynnika odbicia obiektu. Założenie liniowej odpowiedzi detektora kamery pozwala postawić hipotezę o liniowej proporcjonalności sygnału wejściowego do sygnału wyjściowego. Sygnał wejściowy jest modulowany przez ilość promieniowania padającego na obiekt. Sygnał wyjściowy w postaci skwantowanej wartości piksela (DN) również będzie zależny od parametrów padającego promieniowania. W związku z tym można zapisać:,,, z czego można wyznaczyć: 10 (2)
gdzie: (3) E irradiancja, t czas ekspozycji, n kolejny numer zarejestrowanego zobrazowania, c, d, g, h współczynniki kalibracji kamery. Powyższe formuły pozwalają na obliczenie współczynnika odbicia obiektu na podstawie wartości piksela (DN) jego obrazu, czasu ekspozycji i poziomu irradiancji, jak też na wyznaczenie właściwego czasu ekspozycji, aby uzyskać wartość DN obrazu odpowiadającą procentowo współczynnikowi odbicia w skali rozdzielczości radiometrycznej np. dla obrazów 12-bitowych (zakres wartości DN od 0 do 4095) współczynnik odbicia 50% oznacza wartość DN równą 2048, a dla zobrazowań 10-bitowych wartość piksela równa 768 oznacza współczynnik odbicia równy 75%. Można więc zapisać, że obiekt charakteryzujący się współczynnikiem odbicia równym współczynnikowi odbicia wzorca wykorzystanego do kalibracji kamery dla zadanego poziomu irradiancji i określonego czasu ekspozycji powinien uzyskać wartość DN na obrazie równą:., (4) co pozwala na zapisanie następującej formuły na współczynnik odbicia dowolnego obiektu: gdzie:., (5) R współczynnik odbicia obiektu w skali rozdzielczości radiometrycznej, DNobr wartość piksela reprezentującego obiekt na obrazie, Rwz współczynnik odbicia wzorca wykorzystywanego w procesie kalibracji kamery. Jeżeli priorytetem są analizy ilościowe wykonywane w czasie rzeczywistym, to można sterować ekspozycją w sposób zapewniający korelację wartości DN obrazu z reflektancją 11
obiektów. Zapewni to uzyskiwanie powtarzalnych wartości DN na obrazie obiektów charakteryzujących się określonym współczynnikiem odbicia niezależnie od poziomu irradiancji (warunków oświetleniowych). Równanie na wyznaczenie czasu naświetlania zapewniającego korelację wartości piksela ze współczynnikiem odbicia można zapisać następująco: %, (6) gdzie: DNmax liczba poziomów kwantyzacji sygnału, np. dla zobrazowań 12-bitowych DNmax = 4096. Na podstawie współczynników kalibracji kamery można wyznaczyć współczynnik odbicia pod warunkiem jednoczesnej akwizycji obrazu i pomiaru irradiancji. Można także wyznaczyć taki czas ekspozycji, dla którego wartości pikseli będą odpowiadały współczynnikowi odbicia wyrażonemu w skali radiometrii sensora. To drugie podejście jest o tyle istotne, że pozwala na uzyskiwanie wartości pikseli odpowiadających współczynnikowi odbicia w czasie zbliżonym do rzeczywistego. Zaproponowany przeze mnie sposób kalibracji kamery wykorzystuje zobrazowania wzorca odbicia zarejestrowane przy różnych poziomach irradiancji w różnych czasach ekspozycji (rys. 5). Takie podejście wymaga pozyskania bardzo dużej liczby zobrazowań. Aby przyspieszyć pracę, skonstruowany przeze mnie miernik irradiancji składa się z dwunastu czujników. Punktowy charakter oświetlenia w warunkach laboratoryjnych skutkuje zmiennością rozkładu irradiancji w badanym obszarze. W każdym miejscu obrazu pozyskanego w określonym czasie jest inny poziom irradiancji. Można zatem znacznie ograniczyć liczbę pomiarów niezbędnych do kalibracji kamery, wykorzystując dwanaście punktów pomiarowych o różnym poziomie irradiancji na każdym ze zobrazowań zarejestrowanych przy różnym czasie ekspozycji. 12
a) b) c) d) e) f) Rysunek 5. Wybrane przykłady zobrazowań pola czujników (a) oraz wzorca odbicia przy czasie ekspozycji 100 µs (b), 300 µs (c), 500 µs (d), 700 µs (e), 900 µs (f) Należy jednak zwrócić uwagę, że czujniki TSL-2561 nie były skalibrowane bezwzględnie. W związku z tym nawet dla tej samej irradiancji podawały inne mierzone wielkości. Konieczna jest ich kalibracja wzajemna, którą wykonałem w stosunku do jednego z centralnie umieszczonych czujników. Wyznaczyłem formuły poprawek wskazań pozostałych czujników w stosunku do wskazań tego wybranego. Jak się okazało, były to zależności liniowe (rys. 6), co potwierdziło informacje zawarte w notach katalogowych o liniowej pracy czujników. 13
różnica pomiędzy wartościami kanału data 0 (poprawka) 350 300 250 200 150 100 Czujnik 1 50 Czujnik 6 0 0 1000 2000 3000 4000 5000 6000 7000 kanał data 0 Rysunek 6. Poprawki do wskazań czujników 1 i 6 w stosunku do czujnika 8 Na podstawie pozyskanych zobrazowań wyznaczyłem zależności funkcyjne DN od czasu ekspozycji. Są to zależności liniowe zgodnie z teorią pracy analizatorów CCD, które zostały scharakteryzowane współczynnikami a i b. Liniowość pracy detektora (poprawność pracy w całym zakresie parametrów ekspozycji) powinna być jednak sprawdzana, gdyż sporadycznie zdarzają się przypadki odstępstw (Walczykowski i inni, 2014). Przykładowa zależność wartości piksela od czasu ekspozycji dla pomiarów wykonanych przy wskazaniach czujnika irradiancji na poziomie 966 przedstawiona jest na rys. 7. 14
4000 3500 3000 DN 2500 2000 1500 1000 500 0 0 0,001 0,002 0,003 0,004 0,005 0,006 0,007 0,008 czas ekspozycji [s] Rysunek 7. Zależność czasu ekspozycji od wartości DN dla wskazań czujnika irradiancji = 966. Współczynnik a = 522149, współczynnik b = 66 Po wyznaczeniu liniowych równań regresji uzyskałem współczynniki kierunkowe a i wyrazy wolne b w zależności od poziomu irradiancji. Tabela 1. Współczynniki a i b opisujące zależność DN od czasu ekspozycji przy różnym poziomie irradiancji Irradiancja Współczynnik a Współczynnik b 966 522 149 66 2 517 1 267 258 99 3 626 1 792 429 123 4 517 2 246 397 111 6 266 3 077 922 146 9 140 4 471 445 183 Współczynniki przedstawione w tab. 1 opisują zależność czasu ekspozycji od uzyskiwanych wartości piksela przy różnych poziomach irradiancji. Wysoka wartość współczynnika a świadczy o bardzo dużej zależności wartości piksela od czasu ekspozycji. Niewielka zmiana czasu ekspozycji powoduje istotną zmianę wartości piksela. Na podstawie zależności współczynników a i b przy różnych wartościach irradiancji wyznaczyłem parametry kalibracji kamery opisujące odpowiedź detektora na oświetlenie. 15
Wykorzystując równania (2) i współczynniki a i b, można wyznaczyć współczynniki kalibracji c, d, g, h opisujące odpowiedź detektora na naświetlenie. 5000000 4500000 współczynnik a 4000000 3500000 3000000 2500000 2000000 1500000 1000000 500000 0 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 irradiancja Rysunek 8. Zależność współczynnika kierunkowego a od poziomu irradiancji pozwalająca na wyznaczenie współczynników c = 483,442 i d = 51603,050 200 180 współczynnik b 160 140 120 100 80 60 40 20 0 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 10000 irradiancja Rysunek 9. Zależność współczynnika kierunkowego b od poziomu irradiancji pozwalająca na wyznaczenie współczynników g = 0,014 i h = 60,501 Współczynniki obliczone na podstawie formuł (5) i (6) umożliwiają wyznaczenie współczynnika odbicia lub czasu ekspozycji, dla którego występuje korelacja wartości piksela 16
ze współczynnikiem odbicia. Zapewnienie dokładności wyznaczenia współczynnika odbicia na poziomie 0,1% wymaga wyznaczenia współczynników kalibracji z dokładnością 0,001. Ocenę dokładności metody przeprowadziłem na niezależnych danych pomiarowych pozyskanych w odstępie dwóch tygodni od danych użytych do wyznaczenia zależności DN(E,t) przy wykorzystaniu innej lampy oświetlającej (ASD ProLamp). Do oceny dokładności wykorzystałem 42 obrazy pozyskane przy trzech poziomach irradiancji i różnych czasach ekspozycji. Uzyskałem błąd wyznaczenia współczynnika odbicia równy 33,1 wartości DN w skali 12-bitowej, co w odniesieniu do zakresu pomiarowego daje dokładność na poziomie 0,8%. Można stwierdzić, że zaproponowana metoda charakteryzuje się dość wysoką dokładnością wyznaczania współczynników odbicia, co pozwoli na jej wykorzystanie do pozyskiwania i przetwarzania zobrazowań w celu wykonywania szeregu analiz, w tym analiz ilościowych w czasie rzeczywistym. Zaproponowana metoda jest jedną z metod korekcji radiometrycznej. Podobnie jak w standardowych metodach korekcji radiometrycznej, wynikiem jest współczynnik odbicia. Poprzez analogię można więc stwierdzić, że obszarów zastosowania jest bardzo dużo, poczynając od tworzenia kompozycji barwnych, obliczania wskaźników roślinności, klasyfikację obrazów, a skończywszy na wyrafinowanych technikach analizy obrazów (Osińska-Skotak, 2007). Poziom rejestrowanego sygnału ma bardzo duże znaczenie w identyfikacji i ocenie właściwości obiektów. Możliwa jest identyfikacja przy zastosowaniu pomiaru jednokanałowego. Jej dokładność jest zależna w największym stopniu od dokładności wyznaczenia współczynnika odbicia. Ryzykowne jest prowadzenie jednoznacznej identyfikacji obiektów czy analiz ilościowych, gdy nie mamy zaufania do poziomu współczynnika odbicia. Do określania właściwości obiektów często wykorzystuje się przetworzenia danych oparte na operacjach międzykanałowych. Często operacje te nazywane są indeksowaniem. Jednym z najczęściej wykorzystywanych wskaźników jest wskaźnik NDVI (Budzyńska i inni, 2011), (Dąbrowska-Zielińska i inni, 2011), (Jarocińska i inni, 2008), (Kycko i inni, 2014), (Osińska-Skotak, 2007). Analizując możliwość rozróżnienia dwóch obiektów o podobnych właściwościach, wykorzystam igły sosny (współczynnik odbicia zaczerpnięty z biblioteki USGS (Clark i inni, 17
2007)) oraz hipotetyczne pokrycie maskujące, które z założenia musi być podobne do reflektancja otoczenia. 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 długośc fali [µm] Igły sosny Pokrycie kamuflażowe Rysunek 10. Przykład dwóch obiektów trudno wyróżnialnych reflektancja na zbliżonym poziomie Tabela 2. Wartości współczynnika odbicia i indeksu NDVI dla obiektów trudno wyróżnialnych Igły sosny, Pokrycie kamuflażowe Różnica 0,051 0,049 0,002 0,555 0,535 0,020 0,831 0,832-0,001 Dla obiektów o zbliżonych właściwościach odbicia zastosowanie pomiaru jednokanałowego jest problematyczne. Widać wyraźnie, że przy braku korekcji radiometrycznej (co skutkuje brakiem zaufania do poziomu przebiegu charakterystyki odbiciowej) nie można rozróżnić pokrycia kamuflażowego od igieł sosny, nawet przy zastosowaniu NDVI (różnice na poziomie 0,001 są praktycznie niewykrywalne w większości analiz środowiskowych). Jeżeli natomiast chcielibyśmy wykorzystać zaproponowaną metodę pozyskiwania danych opartą na pomiarze irradiancji w czasie akwizycji zobrazowań, to teoretycznie możliwość rozróżnienia tych obiektów istnieje, gdyż metoda ta powinna zapewniać dokładności lepsze niż 1%. Różnica reflektancji w kanale 880 nm jest na poziomie 2%, czyli jest na granicy dokładności metody. Warto zwrócić uwagę, że stosowanie klasycznych pomiarów dwukanałowych zwanych indeksowaniem obrazu nie przynosi żadnych 18
efektów. Można zatem stwierdzić, że stosowanie dotychczas wykorzystywanych metod z całą pewnością nie pozwoli na rozróżnienie tych dwóch obiektów, natomiast zastosowanie metody zaproponowanej przeze mnie być może to umożliwi. Rozróżnienie dwóch obiektów charakteryzujących się większymi różnicami w przebiegu widmowych współczynników odbicia przy wykorzystaniu metody zaproponowanej przeze mnie nie powinno już nastręczać problemów. Przy wzroście różnicy reflektancji igieł sosny i pokrycia kamuflażowego do 8% w kanale 880 nm wykorzystanie współczynników odbicia wyznaczonych na podstawie zobrazowań pozyskanych z jednoczesną reflektancja rejestracją irradiancji zapewni wystarczającą dokładność. 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 długość fali [µm] Igły sosny Pokrycie kamuflażowe Rysunek 11. Przykład dwóch obiektów średnio rozróżnialnych reflektancja różna w zakresie bliskiej podczerwieni Tabela 3. Wartości współczynnika odbicia i indeksu NDVI dla obiektów średnio wyróżnialnych, Igły sosny Pokrycie kamuflażowe Różnica 0,051 0,045 0,006 0,555 0,474 0,081 0,831 0,826 0,005 19
Niestety, zastosowanie indeksu NDVI wykazuje różnicę zaledwie na poziomie 0,005, co jest wartością zbyt małą do wyróżnienia obiektów. Dopiero wzrost różnicy reflektancji w zakresie bliskiej podczerwieni do 14% powoduje wzrost wartości indeksu NDVI do poziomu powyżej 0,01, co daje nadzieję wyróżnienia reflektancja obiektów. 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 długość fali [µm] Igły sosny Pokrycie kamuflażowe Rysunek 12. Przykład dwóch obiektów dobrze rozróżnialnych reflektancja znacząco różna w zakresie bliskiej podczerwieni Tabela 4. Wartości współczynnika odbicia i indeksu NDVI dla obiektów dobrze wyróżnialnych, Igły sosny Pokrycie kamuflażowe Różnica 0,051 0,041 0,010 0,555 0,414 0,141 0,831 0,8196 0,012 Zastosowane podejście do wyróżniania obiektów wymaga doboru odpowiednich kanałów spektralnych do pozyskiwania danych (Walczykowski i inni, 2010), skutkującego maksymalnym kontrastem obiektu i tła. 20
Powyższa analiza jest tylko przykładem ilustrującym znaczenie znajomości dokładnej wartości współczynników odbicia. Jest to istotne we wszystkich zastosowaniach obejmujących analizy ilościowe. Tym niemniej, ma również wpływ na wzrost dokładności metod jakościowych (Osińska-Skotak, 2005), (Jakomulska i inni, 2001). Możliwość dokładnego wyznaczania współczynników odbicia w czasie niemal rzeczywistym lub taki dobór parametrów ekspozycji, który pozwoli na bezpośrednie odniesienie wartości piksela DN do współczynnika odbicia, znajdzie zastosowanie nie tylko w ilościowych analizach różnego rodzaju wykonywanych w postprocessingu, lecz także przede wszystkim będzie nieocenioną pomocą w analizach prowadzonych on-line w czasie realizacji misji rozpoznawczych. Szczególną przydatność będzie można zaobserwować w zastosowaniach wojskowych, gdzie praca analityka dokonującego na bieżąco interpretacji zobrazowań transmitowanych ze statku powietrznego (a często również pilotującego ten statek powietrzny) będzie mogła być znacznie usprawniona. Zazwyczaj zadaniem analityka jest znalezienie określonego obiektu. Jeśli w grę wchodzi celowe utrudnianie tego przez przeciwnika poprzez stosowanie np. pokryć kamuflażowych, zadanie to jest bardzo trudne, a wyniki jego realizacji zależą w dużym stopniu od doświadczenia analityka. Jeżeli natomiast obrazy pozyskiwane przez system bezzałogowy będą odniesione do wartości współczynnika odbicia, to możliwe będzie wyróżnianie na tych obrazach obiektów o założonych właściwościach (na rys. 9 szukany obiekt zaznaczono na czerwono). Wniesie to nową jakość do analiz obrazu wykonywanych w czasie rzeczywistym. 21
Rysunek 13. Obraz z systemu MQ-9 Reaper (http://army-news.ru/images_stati/izobrazhenie_s_kamery.jpg dostęp 07-01-2017) za (Leśnikowski, 2016), zmodyfikowane Metoda zaproponowana przeze mnie ma pewne ograniczenia. Najważniejsze wynika z przyjętego założenia pomiaru strumienia promieniowania docierającego do obiektu na poziomie sensora, a nie na poziomie obiektu. Z uwagi na małą warstwę atmosfery w większości przypadków to założenie jest słuszne. Jednak w szczególnych przypadkach, kiedy na fotografowanej scenie będą występowały znaczne deniwelacje, stosowanie mojej metody może nie dać pożądanych rezultatów. Taka sytuacja będzie występowała rzadko, więc w większości przypadków zastosowanie mojej metody znacznie ułatwi pracę analityka i podniesie wiarygodność wyników analiz. Opisane osiągnięcie zostało szczegółowo przedstawione w monografii pt. Teledetekcja z niskich pułapów. Bibliografia: Aber J.S., Marzolff I., Ries J.B. 2010. Small-Format Aerial Photography. Principles, Techniques and Geoscience Applications, Amsterdam: Elsevier, 2010, ISBN: 978-0-444-53260-2. Baldridge A.M. i inni. 2009. The ASTER spectral library version 2.0. Remote Sensing of Environment, 2009, 113, strony 711-715. 22
Białousz S., Girard M.C. 1978. Współczynnik odbicia spektralnego gleb w pasmach pracy satelity Landsat. Fotointerpretacja w Geografii, 1978, 13, strony 118-130. Budzyńska M. i inni. 2011. Monitoring przyrodniczy Bagien Biebrzańskich z zastosowaniem teledetekcji. Woda rodowisko Obszary wiejskie, 2011, Tom 11, 3. Clark R.N. i inni. 2007. USGS Digital Spectral Library splib06a. U.S. Geological Survey. [Online] 2007. [Zacytowano: 7.01.2017] https://speclab.cr.usgs.gov/spectral.lib06/ds231/datatable.html. Dąbrowska-Zielińska K. i inni. 2011. Monitoring of agricultural drought in Poland using data derived from environmental satellite images. Geoinformation Issues, 2011, Tom 3, 1. Hejmanowska B., Głowienka E. 2004. Wstępne wyniki pomiarów spektrometrycznych i klasyfikacji obrazów hiperspektralnych rekultywowanego obszaru tarnobrzeskiego zagłębia siarkowego. Geoinformatica Polonica, 2004, 6, strony 49-57. Hruska R. i inni. 2012. Radiometric and Geometric Analysis of Hyperspectral Imagery Acquired from an Unmanned Aerial Vehicle. Remote Sensing, 2012, 4, strony 27362752. Jakomulska A. i Sobczak M. 2001. Korekcja radiometryczna obrazów satelitarnych metodyka i przykłady. Teledetekcja rodowiska, 2001, 32. Januszajtis A. 1991. Fizyka dla politechnik. Cz. III. Fale, Warszawa: Wydawnictwo Naukowe PWN, 1991. Jarocińska A., Zagajewski B. 2008. Korelacje naziemnych i lotniczych teledetekcyjnych wskaźników roślinności dla zlewni Bystrzanki. Teledetekcja rodowiska, 2008, 40. Jaworski B. i Dietłaf A. 1979. Procesy falowe, optyka, fizyka atomowa i jądrowa, Warszawa: PWN, 1979. Kycko M., Zagajewski B., Kozłowska A. 2014. Variability in spectral characteristics of trampled high-mountain grasslands. Miscellanea Geographica, 2014, Tom 18, 2. Laliberte A.S. i inni. 2011. Multispectral Remote Sensing from Unmanned Aircraft: Image Processing Workflows and Applications for Rangeland Environments. Remote Sensing, 2011, 3, strony 2529-2551. Leśnikowski W. 2016. Drony. Bezzałogowe aparaty latające od starożytno ci do współczesno ci, Toruń: Wydawnictwo Adam Marszałek, 2016, ISBN: 978-83-8019456-4. 23
Osińska-Skotak K. i inni. 2005. CHRIS/PROBA superspectral data for inland water quality studies. Proceedings of 4th EARSeL Workshop on Imaging Spectroscopy. New quality in environmental studies, Zagajewski B., Sobczak M., Wrzesień M. (eds), 2005, strony 357-366. Osińska-Skotak K. 2005. Wpływ korekcji atmosferycznej zdjęć satelitarnych na wyniki cyfrowej klasyfikacji wielospektralnej. Geodesia et Descriptio Terrarum, 2005, 4, strony 41-53.. 2007. Znaczenie korekcji radiometrycznej w procesie przetwarzania zdjęć satelitarnych. Archiwum Fotogrametrii, Kartografii i Teledetekcji, 2007, 17b, strony 577-590. Sanecki J. 2006. Teledetekcja. Pozyskiwanie danych, Warszawa: Wydawnictwa Naukowo-Techniczne, 2006. Schaepman M.E. 1998. Calibration of a Field Spectroradiometer, Zurych: Universität Zürich, 1998. Walczykowski P., Orych A., Paluchowski Ł. 2010. Wstępna selekcja kanałów spektralnych w procesie rozpoznania. Biuletyn Wojskowej Akademii Technicznej, Vol. 59, nr 2, strony 325-337. Walczykowski P. i inni. 2014. Evaluating Sensor Linearity of Chosen Infrared Sensors. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2014, Tomy XL-1, strony 421-424. Zagajewski B., Sędzikowski Z. 2009. Biblioteka spektralna gatunków zielnych Ogrodu Botanicznego Uniwersytetu Warszawskiego. Teledetekcja rodowiska, 2009, 41, strony 121-133. 5. Omówienie pozostałych osiągnięć naukowo-badawczych (artystycznych) Na początku mojej pracy naukowej miałem przyjemność i zaszczyt uczestniczyć w badaniach realizowanych pod kierunkiem płk. dr. hab. inż. Wiesława Dębskiego, prof. WAT. Badania te dotyczyły pozyskiwania, przetwarzania i udostępniania danych pozyskiwanych z pokładów załogowych systemów rozpoznawczych. Miały na celu przyspieszenie i udokładnienie procesu pozyskiwania i analizy zobrazowań. 24
Praca w zespole prof. Dębskiego ukierunkowała moje ówczesne zainteresowania naukowe na tematykę szeroko pojętych zagadnień dotyczących rozpoznania obrazowego. Obecnie moje zainteresowania naukowe skoncentrowane są głównie na następującej problematyce: wyróżnianiu obiektów, a szczególnie obiektów maskowanych z tła, wyznaczaniu widmowych współczynników odbicia, budowie systemów do wielokanałowej rejestracji zobrazowań, ocenie jakości zobrazowań, wyznaczaniu terenowej zdolności rozdzielczej sensorów pracujących w zakresie widzialnym, bliskiej podczerwieni i termalnym, pozyskiwaniu danych obrazowych i nawigacyjnych w czasie rzeczywistym, wielospektralnej i hiperspektralnej analizie zobrazowań. Zainteresowania te pozwalają mi na pracę w zespołach badawczych i eksperckich oraz realizację projektów badawczych. Od 1995 do 2009 r. aktywnie uczestniczyłem w realizacji międzynarodowego Traktatu o otwartych przestworzach, w ramach którego pozyskuje się informacje obrazowe metodami teledetekcji. Początkowo moje uczestnictwo jako inspektora związane było ściśle z realizacją postanowień Traktatu. Później z uwagi na posiadaną wiedzę i umiejętności byłem odpowiedzialny za planowanie i kontrolę realizacji lotów obserwacyjnych, a charakter uczestnictwa zmienił się na ekspercki. W ramach tego Traktatu współpracowałem z przedstawicielami takich państw-stron Traktatu jak: Niemcy, Wielka Brytania, USA, Ukraina, Rosja, Włochy, Francja. Udział w różnych obszarach realizacji Traktatu pozwolił mi na zaproponowanie usprawnień w jego realizacji przeznaczonych dla strony polskiej. Jestem autorem, docenianego również przez innych sygnatariuszy Traktatu, systemu komputerowego planowania oraz śledzenia przebiegu lotu obserwacyjnego. Jestem również autorem systemu do archiwizacji danych obrazowych i nawigacyjnych z misji obserwacyjnych Open Skies. Współtworzyłem system wyznaczania parametrów prowadzenia lotów obserwacyjnych, metodykę badań sensytometrycznych materiałów fotograficznych stosowanych w misjach Open Skies oraz system do kontroli obróbki fotochemicznej materiałów światłoczułych wykorzystywanych w ramach realizacji Traktatu. 25
Powyższe opracowania zostały wdrożone z sukcesem i w dalszym ciągu są podstawowym narzędziem wykorzystywanym przez oficerów WP podczas każdej misji realizowanej w ramach Traktatu Open Skies. Jedno z podstawowych założeń Traktatu stanowi kryterium rozdzielczości przestrzennej pozyskiwanych zobrazowań. Brałem udział w pracach zespołu, który skonstruował paskowy test kalibracyjny do wyznaczania terenowej zdolności rozdzielczej na podstawie analizy zobrazowań pozyskanych w zakresie widzialnym. Do tej pory jest to jedyny test wykorzystywany przez stronę polską w ramach Traktatu Open Skies, na podstawie którego sprawdzana może być zgodność stosowanych sensorów z założeniami Traktatu. Doświadczenia zdobyte przy konstruowaniu i wykorzystaniu testu paskowego zaowocowały podjęciem prac związanych z wyznaczaniem rozdzielczości przestrzennej sensorów pracujących w innych zakresach. Szczególnie istotny w zastosowaniach dotyczących obronności był zakres podczerwieni termalnej. Koncepcje wykorzystujące cele aktywne nie zaowocowały praktycznymi wdrożeniami. W związku z tym wspólnie z zespołem podjęliśmy prace koncepcyjne i projektowe, które zakończyły się budową pasywnego celu kalibracyjnego do wyznaczania rozdzielczości przestrzennej sensorów termalnych. Za to rozwiązanie w 2010 r. otrzymałem brązowy medal na IV Międzynarodowej Wystawie Innowacji w Warszawie. Znajomość rozdzielczości przestrzennej, a przede wszystkim wpływu parametrów lotu i pracy sensora na rozdzielczość przestrzenną, jest jednym z kluczowych parametrów charakteryzujących jakość pozyskiwanych danych w aspekcie możliwości realizacji określonych analiz rozpoznawczych. Jest to zagadnienie szczególnie istotne w wojskowym rozpoznaniu obrazowym. Kompleksowe rozwiązanie dotyczące wyznaczania terenowej zdolności rozdzielczej w oparciu o mobilne pole testowe zrealizowałem wraz z zespołem, którego byłem kierownikiem, w latach 2013-2015 w ramach pracy badawczej pt. Badanie możliwo ci wykorzystania optycznych sensorów obrazujących znajdujących się na wyposażeniu SZ RP do realizacji misji rozpoznawczych, w tym zabezpieczających proces targetingu. Celem projektu finansowanego przez Departament Nauki i Szkolnictwa Wojskowego było wyznaczenie współzależności parametrów sensorów, ich konfiguracji i technik prowadzenia rozpoznania w zakresie realizacji zadań rozpoznawczych. Główny problem badawczy dotyczył opracowania metodyki precyzyjnego wyznaczania parametrów zobrazowań pozyskanych za pomocą sensorów znajdujących się na wyposażeniu Sił Zbrojnych RP w aspekcie oceny 26
rozdzielczości przestrzennej i określania położenia obiektów. Opracowana metodyka opiera się na wykorzystaniu autorskiego mobilnego pola testowego pozwalającego na badanie sensorów pracujących w zakresie ultrafioletu, widzialnym, bliskiej podczerwieni i podczerwieni termalnej. W ramach realizacji pracy wykonano pole testowe i przebadano wszystkie typy systemów rozpoznania obrazowego (załogowe i bezzałogowe) będące na wyposażeniu Sił Zbrojnych RP. Z uwagi na charakter pracy, obejmujący zagadnienia związane z obronnością państwa, wyniki nie mogły być publikowane. Duży obszar moich zainteresowań naukowych stanowią zagadnienia związane z wyróżnianiem obiektów. Jest to obszar priorytetowy w rozpoznaniu obrazowym. Początkowo zajmowałem się wpływem rozdzielczości przestrzennej na możliwość wykrywania obiektów na podstawie zobrazowań pozyskiwanych przez różne sensory. Następnie prowadziłem badania dotyczące polepszenia rozdzielczości czasowej nawet za cenę spadku rozdzielczości przestrzennej. Ostatnim etapem są badania dotyczące rozdzielczości spektralnej. Szczególnie ważne w zastosowaniach dotyczących obronności jest poszukiwanie obszarów występowania kontrastów pomiędzy tłem a szukanym obiektem, gdyż tylko w takich zakresach możliwe jest wyróżnienie obiektu. Stosuję tu dwa podejścia. Pierwsze opiera się na widmowych współczynnikach odbicia pozyskiwanych metodami spektrometrycznymi zarówno w warunkach laboratoryjnych, jak i polowych. Wyniki pomiarów zapisywane w postaci bibliotek spektralnych stanowią podstawę zarówno do analiz możliwości wyróżniania obiektów, jak i do doboru kanałów rejestracji zobrazowań w celu optymalizacji możliwości wyróżniania obiektów na zobrazowaniach. Podejście to pozwoliło na ocenę właściwości różnych pokryć kamuflażowych, w tym również na wydanie negatywnej opinii odnośnie do właściwości maskujących partii mundurów polowych. Wykorzystując spektroradiometryczne pomiary współczynników odbicia, określałem także skuteczność zasłon dymnych różnych typów w różnych warunkach atmosferycznych. Drugie podejście w badaniach dotyczących wpływu rozdzielczości spektralnej na możliwość wyróżniania obiektów dotyczy budowy systemów do wielokanałowej rejestracji zobrazowań. Początkowo, z uwagi na ograniczone możliwości techniczne, zajmowałem się systemem czterokanałowym zbudowanym w oparciu o sensory CCD i interferencyjne filtry optyczne, następnie systemem wielokanałowym zbudowanym w oparciu o pojedynczą kamerę CCD i filtr optoelektroniczny (LCTF), a od 2012 r. swoje badania opieram na 27