WODA W GLEBIE POMIARY NAZIEMNE I SATELITARNE W BADANIACH ZMIAN KLIMATU

Podobne dokumenty
Wprowadzenie do analizy korelacji i regresji

METODY STATYSTYCZNE W BIOLOGII

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

Spis treści 3 SPIS TREŚCI

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

PDF created with FinePrint pdffactory Pro trial version

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Zamiana punktowych danych wilgotności objętościowej gleby na rozkłady powierzchniowe

INFOBAZY 2014 VII KRAJOWA KONFERENCJA NAUKOWA INSPIRACJA - INTEGRACJA - IMPLEMENTACJA

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

METODY STATYSTYCZNE W BIOLOGII

METODY STATYSTYCZNE W BIOLOGII

Pobieranie prób i rozkład z próby

Regresja i Korelacja

W1. Wprowadzenie. Statystyka opisowa

Testowanie hipotez statystycznych.

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

Matematyka z el. statystyki, # 6 /Geodezja i kartografia II/

166 Wstęp do statystyki matematycznej

Elementy statystyki opisowej, podstawowe pojęcia statystyki matematycznej

Niepewności pomiarów

Prognozowanie i Symulacje. Wykład I. Matematyczne metody prognozowania

Analiza korespondencji

Analiza składowych głównych. Wprowadzenie

Prawdopodobieństwo i statystyka

Wstęp do teorii niepewności pomiaru. Danuta J. Michczyńska Adam Michczyński

Rozkłady statystyk z próby

Statystyka matematyczna dla leśników

Ważne rozkłady i twierdzenia c.d.

Statystyka opisowa. Wykład I. Elementy statystyki opisowej

Wykład Centralne twierdzenie graniczne. Statystyka matematyczna: Estymacja parametrów rozkładu

LABORATORIUM Z FIZYKI

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

Podstawowe pojęcia statystyczne

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Wykład 6 Centralne Twierdzenie Graniczne. Rozkłady wielowymiarowe

Statystyka i eksploracja danych

Biostatystyka, # 3 /Weterynaria I/

Analiza składowych głównych

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Statystyka w pracy badawczej nauczyciela

ROZKŁAD MATERIAŁU DO II KLASY LICEUM (ZAKRES ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ.

Weryfikacja hipotez statystycznych

Analiza współzależności zjawisk

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Wnioskowanie statystyczne. Statystyka w 5

Prawdopodobieństwo i statystyka r.

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

Teledetekcja w ochronie środowiska Wykład V

Efekty kształcenia dla kierunku studiów CHEMIA studia pierwszego stopnia profil ogólnoakademicki

Estymacja parametrów w modelu normalnym

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Opis zakładanych efektów kształcenia na studiach podyplomowych WIEDZA

Analiza współzależności zjawisk. dr Marta Kuc-Czarnecka

Inteligentna analiza danych

KADD Minimalizacja funkcji

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Testy nieparametryczne

Metody probabilistyczne

Metody Ilościowe w Socjologii

Określanie niepewności pomiaru

Komputerowa Analiza Danych Doświadczalnych

Sposoby prezentacji problemów w statystyce

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Statystyka i Analiza Danych

Zmienność wiatru w okresie wieloletnim

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

AKADEMIA GÓRNICZO-HUTNICZA Wydział Matematyki Stosowanej ROZKŁAD NORMALNY ROZKŁAD GAUSSA

Anomalie gradientu pionowego przyspieszenia siły ciężkości jako narzędzie do badania zmian o charakterze hydrologicznym

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

WSKAZÓWKI DO WYKONANIA SPRAWOZDANIA Z WYRÓWNAWCZYCH ZAJĘĆ LABORATORYJNYCH

Zadania ze statystyki, cz.6

Optymalizacja ciągła

Z poprzedniego wykładu

Metody matematyczne w analizie danych eksperymentalnych - sygnały, cz. 2

Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.

Programowanie celowe #1

WYKŁAD 8 ANALIZA REGRESJI

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

- prędkość masy wynikająca z innych procesów, np. adwekcji, naprężeń itd.

Podstawy opracowania wyników pomiarów z elementami analizy niepewności pomiarowych

Wykład 9 Wnioskowanie o średnich

Odchudzamy serię danych, czyli jak wykryć i usunąć wyniki obarczone błędami grubymi

Matematyka stosowana w geomatyce Nazwa modułu w języku angielskim Applied Mathematics in Geomatics Obowiązuje od roku akademickiego 2012/2013

2. Założenie niezależności zakłóceń modelu - autokorelacja składnika losowego - test Durbina - Watsona

Matematyka stosowana w geomatyce Nazwa modułu w języku angielskim Applied Mathematics in Geomatics Obowiązuje od roku akademickiego 2012/2013

Statystyka matematyczna dla leśników

Próbny egzamin z matematyki dla uczniów klas II LO i III Technikum. w roku szkolnym 2012/2013

5. WNIOSKOWANIE PSYCHOMETRYCZNE

Stacjonarność Integracja. Integracja. Integracja

W2. Zmienne losowe i ich rozkłady. Wnioskowanie statystyczne.

3. Modele tendencji czasowej w prognozowaniu

Elementy Modelowania Matematycznego Wykład 4 Regresja i dyskryminacja liniowa

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

MODELE LINIOWE. Dr Wioleta Drobik

Transkrypt:

KA PAN WODA W GLEBIE POMIARY NAZIEMNE I SATELITARNE W BADANIACH ZMIAN KLIMATU B. Usowicz, W. Marczewski, J. Lipiec, J.B. Usowicz, Z. Sokołowska, H. Dąbkowska-Naskręt, M. Hajnos, M.I. Łukowski Polska Akademia Nauk // Komitet Agrofizyki // Wydawnictwo Naukowe FRNA //

KA PAN WODA W GLEBIE POMIARY NAZIEMNE I SATELITARNE W BADANIACH ZMIAN KLIMATU B. Usowicz, W. Marczewski, J. Lipiec, J.B. Usowicz, Z. Sokołowska, H. Dąbkowska-Naskręt, M. Hajnos, M.I. Łukowski Polska Akademia Nauk // Komitet Agrofizyki // Wydawnictwo Naukowe FRNA //

Fundacja Rozwoju Nauk Agrofizycznych prowadzi Wydawnictwo Naukowe na rzecz Komitetu Agrofizyki PAN oraz Instytutu Agrofizyki im. Bohdana Dobrzańskiego PAN. Specjalizacją wydawnictwa jest Agrofizyka. Agrofizyka - dyscyplina naukowa dotycząca zastosowań fizyki i nauk ścisłych w obszarze badań rolniczych i przyrodniczych. Językiem podstawowym jest polski. Komitet Agrofizyki PAN Tytuł monografii WODA W GLEBIE POMIARY NAZIEMNE I SATELITARNE W BADANIACH ZMIAN KLIMATU Autorzy B. Usowicz, W. Marczewski, J. Lipiec, J.B. Usowicz, Z. Sokołowska, H. Dąbkowska-Naskręt, M. Hajnos, M.I. Łukowski Autorzy pragną złożyć podziękowania Dyrekcji i Radzie Naukowej Poleskiego Parku Narodowego za umożliwienie realizacji badań na terenie Poleskiego Parku Opiniowali do druku Prof. dr hab. Bohdan Dobrzański jr Prof. dr hab. Henryk Sobczuk Praca naukowa finansowana ze środków: MNiSW w ramach projektów badawczych własnych, Nr N305 046 31/1707 i N305 107 32/3865, realizowanych w latach 2006-2009, w celu wykorzystania danych do realizacji kampanii międzynarodowego programu walidacyjnego, ESA SVRT Cal/Val AO-3275. Copyright by Fundacja Rozwoju Nauk Agrofizycznych Komitet Agrofizyki PAN, Lublin 2009 ISBN: 978-83-60489-14-7 Wyd. Nauk. FRNA, Komitet Agrofizyki PAN Wydanie I, nakład 130 egz., ark. wyd. 14.8 Projekt okładki: Bohdan Dobrzański, III Druk, naświetlanie: ul. Abramowicka 6, 20-442 Lublin

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 3 SPIS TREŚCI WSTĘP...5 Cel pracy...8 METODYKA I OBIEKTY BADAŃ...9 Metody geostatystyczne wprowadzenie...9 Semiwariogram...12 Trend...16 Semiwariogram standaryzowany...17 Krossemivariogram...18 Kriging...22 Kokriging...25 Wymiar fraktalny...27 Wyznaczanie właściwości cieplnych gleby...30 Pomiary własności cieplnych gleb...35 Położenie terenu badań Niziny Południowopodlaskiej...42 Charakterystyka stosunków klimatycznych...44 Położenie terenu badań Polesia Zachodniego...50 Budowa geologiczna, litologia i rzeźba terenu...51 Stosunki wodne...52 Charakterystyka stosunków klimatycznych...53 Rozpatrywane obiekty badań, parametry i metody ich określania...55 Doświadczenie polowe...56 Pomiar gęstości i wilgotności gleby...58 Pomiar składu granulometrycznego, zawartości węgla i ph gleby...58 Pomiar zawartości kwarcu w glebie...59 Normy i standardy używane podczas pomiarów próbek glebowych...59 Dane satelitarne...60 WYNIKI...64 Analiza statystyczna obserwacji naziemnych...64 Kwarc...65 Analiza geostatystyczna obserwacji naziemnych...69 Analiza wymiaru fraktalnego...71 Estymacja rozkładów badanych cech za pomocą metody kriging i kokriging...98 Wykorzystanie miejscowych pomiarów naziemnych do ocen regionalnych i walidacji obserwacji satelitarnych...112

4 B. USOWICZ, W. MARCZEWSKI I IN Możliwości wykorzystywania obserwacji SMOS dla celów badań środowiskowych...126 Uzyskane wyniki analizy zdjęć satelitarnych...128 Przykłady rozproszenia międzykanalowego w zdjęciach MERIS...137 Wpływ kalibracji i filtracji na rozproszenie wartości pikseli...138 Klasyfikacja...140 Stała dielektryczna gleby z pomiarów naziemnych i satelitarnych...152 PODSUMOWANIE...158 PIŚMIENNICTWO...159

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 5 WSTĘP Badanie globalnych zmian klimatu, poznawanie mechanizmów prowadzących do tych zmian i szukanie przyczyn globalnego ocieplenia klimatu, w świetle obserwowanych negatywnych skutków, jakie niosą te zmiany, jest już uznanym kompleksem priorytetowych zadań społeczności naukowej. Najważniejszym elementem środowiska, determinującym klimat jest woda. W atmosferze krąży zaledwie 0.0001% wszystkich zasobów wody na Ziemi. Równoważne zasoby wody są utrzymywane w przypowierzchniowej warstwie gleby, na lądach tzn. na około ¼ powierzchni planety. Jaki jest udział tego zasobu wody z gleby, w cyrkulacji wody przez atmosferę, i czy odpowiada on pokryciu powierzchni planety lądami, tego nie wiadomo. A jest jedna z kilku kwestii kluczowych dla globalnych badań klimatu, która musi znaleźć odpowiedź ilościową. Mimo że reszta ¾ powierzchni planety, jest pokryta oceanami, i dominuje w tym bilansie wody, to udział wymiany wody z glebą jest bardzo istotny bo ta wymiana podlega szybkim zmianom. W grę wchodzą niewielkie ułamkowe części w miarach względnych, ale olbrzymie masy wody i wiązane z nią ilości energii, która napędza cały cykl wodny. Woda jest bardzo efektywnym nośnikiem energii, a gleba jednym z kilku najważniejszych regulatorów wymiany energii. Zjawiska transportu mas i energii zachodzą niejednorodnie, przy ich wielkiej różnorodności, i to stanowi o trudnościach wnioskowania o zmianach klimatu. Nauki o Ziemi zakumulowały już wiele wiedzy o elementach i złożoności tego cyklu obiegu wody, ale miary ilościowe globalne są wyzwaniem głównym, i dlatego uznaje się je za priorytowe. Można nie ryzykować dokonywania bilansu globalnego, znając swoje ograniczenia, ale trzeba podejmować takie istotne tematy szczegółowe, które znajdą w nim swoje zapotrzebowanie, a przynajmniej będą zgodne we współpracach z tymi programami, które do takiego bilansu prowadzą. Składanie globalnego bilansu wody i energii, z części to koncepcja prosta, lecz w szczegółach bardzo trudna do przeprowadzenia. Liczba procesów jakie wchodzą w grę, i ich współzależności czasowo-przestrzennych, wymaga koncepcyjnej zgodności celów działania środkami technicznymi i statystycznymi. Osiągane oceny uogólniające nie mogą gubić istotności związków między elementami złożonej rzeczywistości. Cele stosowanych metod muszą być głęboko zbieżne, najczęściej odnajdują się w fizyce, na gruncie miar energii i entropii. Bez takiej zbieżności trudno o zachowanie istotności związków z tak różnymi dziedzinami jak biologia czy ekonomia. O ile w miarę łatwo radzimy sobie z badaniami prowadzonymi w laboratoriach w warunkach stanu stacjonarnego i ograniczenie umiejscowionych

6 B. USOWICZ, W. MARCZEWSKI I IN badaniach w warunkach stanu niestacjonarnego (naziemne stacje pomiarowe), o tyle trudniej jest nam prowadzić badania zdalne z przestrzeni kosmicznej, na nieporównanie większe skale. Kiedyś poszukiwano źródeł wielkich rzek. Dzisiaj Tybetańskie plateau jest rozważane jako skupisko zlewni. Na to trzeba było zmiany punktu widzenia procesów zbierania i odprowadzania wody. Innym przykładem jest stale dokonująca się ewolucja poglądów na to jak badać, i po co, opad w skalach kontynentalnej i globalnej. Badania kosmiczne już dawno wniosły nie tylko nowy punkt widzenia z orbity, ale i nowe podejście do szczegółowych badań takich zjawisk jak ewapotranspiracja, w związkach z fotosyntezą i zapotrzebowaniem na energię. Dzisiaj badania szczegółowe z trudem mogą obywać się bez dostępu do baz danych często nieosiągalnych miejscowo, jak np. w badaniach susz rolicznych. To są nowe jakości przychodzące do agrofizyki wraz z postępem technicznym i cywilizacyjnym. Meteorologia użytkowa na potrzeby lokalne nie traci swojego znaczenia, ale zyskuje nowe konteksty jakie przed dekadą czy dwiema, były trudne do przewidzenia. Priorytet ważności wilgotności gleb, badanej metodami tradycyjnymi, miejscowo, jest dzisiaj powszechnie niedoceniany. Trzeba dopiero chyba nowych odkryć na skalę globalną, aby przywracać świadomość istotności niektórych zmiennych środowiskowych. Pewnych zaniechań w lokalnych badaniach bezpośrednich, nie można podtrzymywać, kiedy okazuje się, że wyniki uzyskane na Ziemi są potrzebne walidacjom badań kosmicznych. Postęp techniczny stwarza złudzenia, że z obserwacji satelitarnych można wiedzieć wszystko. Możliwości obserwacji technikami zdalnymi są rzeczywiście wielkie, ale zmuszają również do wykorzystywania ich dokonań na drodze nie tylko bezpośredniej, np. posługując się zdjęciami satelitarnymi, lecz i na drodze pośredniej przez wykorzystywanie metod i technik pomiarów naziemnych, które mają już swoje dobrze ustanowione nisze rynkowe na wyposażenie. Indeks liściowy LAI, akumulację promieniowania na fotosyntezę fapar, mierzy ciągle niewielu, choć środowiskiem, roślinnością, lasem zajmuje się wiele środowisk badawczych. Nie można tego usprawiedliwiać brakiem instrumentów, technik, czy nawet biedą. Trzeba w tym widzieć brak zapotrzebowania wynikający odległości cywilizacyjnej do problemów jakie współczesne nauki o Ziemi i środowisku podejmują za priorytetowe. Nawet jeżeli jest świadomość tego dystansu, to na ogół brak jest ciągle tak istotnych i żywych kontaktów współpracy naukowych, które tworzą zapotrzebowanie na ewolucyjną zmianę w poglądów na to co należy mierzyć, i jak charkateryzować bardzo złożone środowisko naturalne na Ziemi. Jeżeli nie wiadomo co zawiera lista zmiennych ECV (Environmental Climate Variable) [46], to i zapotrzebowania na dane naziemne z miejscowych pomiarów wilgotności gleb SM (Soil Moisture) nie ma. Nawet jeżeli wystarcza do tego wyposażenie tradycyjne. Podobnie można sądzić o wykorzystywaniu metod i narzędzi statystycznych. Trzeba dopiero technik GIS, aby podstawowa wiedza kartograficzna okazywała się potrzebna na co dzień, i narzędzia statystyczne stosowane nabrały innej wagi w

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 7 badaniach, jakiej nie mogły znaleźć dotąd. Techniki GIS nie rozwiążą jednak problemów wynikających z różnorodności środowiska, dopóki taka potrzeba nie będzie włączana do celów badawczy, a nie jest jeśli cele nie są stawiane we właściwych skalach. Aby postawić cele w skali regionalnej, i sformułować zadania wykonalne, trzeba na to lepszego związku z badaniami kosmicznymi. Poznanie natury procesów zachodzących na granicy atmosfery i gleby, określenie, który z nich ma większy lub mniejszy wpływ na klimat może odbywać się poprzez badanie bilansu cieplnego powierzchni czynnej. Bilans cieplny powierzchni czynnej gleby wymaga określenia salda promieniowania, strumienia ciepła jawnego, utajonego, i strumienia ciepła w glebie. Wśród czynników, które wpływają na składowe bilansu ciepła są warunki klimatyczne, topografia środowiska, właściwości cieplne gleby, pora roku i dnia, typ pogody i jej zmian w danym dniu oraz rodzaj i właściwości powierzchni czynnej, na której zachodzi transformacja i wymiana energii. Poszczególne składowe bilansu cieplnego gleby mogą być mierzone lub oszacowywane ze znanych zależności matematycznych. Mimo, iż osiągnięto znaczny postęp w badaniach strumienia ciepła w glebie, nadal jest on w centrum zainteresowania wielu dziedzin nauki. Mierzony jest on przy użyciu strumieniomierzy lub jest oszacowywany z iloczynu przewodnictwa cieplnego i gradientu temperatury gleby, albo poprzez znane relacje z temperaturą powietrza lub saldem promieniowania. Strumieniomierze, jak i funkcyjne relacje do innych mierzonych wielkości są mało dokładne, a w przypadku strumieniomierza w znacznym stopniu modyfikują środowiska w miejscu jego zainstalowania. Metody obliczeniowe są rzadziej stosowane z uwagi na trudności w wyznaczaniu przewodnictwa cieplnego gleby i dokładnego pomiaru gradientu temperatury w jej powierzchniowej warstwie [5]. Cieplne właściwości gleby znacząco wpływają na podział energii na powierzchni czynnej. Decydują one o rozkładzie temperatury w profilu glebowym oraz o przepływie energii i wody w profilu glebowym. Dlatego też są one celem badań wielu dziedzin nauki, takich jak: agrofizyka, klimatologia, meteorologia, biologia oraz dziedzin technicznych związanych z energetyką. Dotychczasowe badania wykazały, że decydujący wpływ na cieplne właściwości ma zawartość wody w glebie, gęstość ośrodka, skład mineralogiczny gleby i zawartość materii organicznej [27, 105, 117, 150, 154]. Temperatura gleby, ciśnienie i wilgotność powietrza mają mniejszy wpływ na cieplne właściwości gleby [71]. Duża zmienność wielkości fizycznych w glebie i duża zmienność przestrzenna cech składników ośrodka powoduje, że bezpośrednie pomiary cieplnych właściwości są nadal trudne i czasochłonne. Dlatego też należy poszukiwać takich metod wyznaczania cieplnych właściwości, które wykorzystałyby te właściwości i wielkości fizyczne, które niewiele zmieniają się w czasie w danym obszarze, są dostępne z literatury czy z baz danych, stacji meteorologicznych, jak i tych, które są łatwo mierzalne. Cechą gleby, która niewiele zmienia się w czasie jest jej skład granulometryczny,

8 B. USOWICZ, W. MARCZEWSKI I IN skład mineralogiczny, gęstość fazy stałej czy zawartość materii organicznej. Ta ostatnia wielkość w mniejszym stopniu jest niezmienna w czasie niż pozostałe składniki. Temperatura gleby i powietrza, wilgotność gleby, ciśnienie i wilgotność powietrza wykazują dużą zmienność, są one jednak łatwe do mierzenia za pomocą automatycznych systemów pomiarowych. Gęstość gleby istotnie wpływa na właściwości cieplne gleby, a jej pomiar jest dość czasochłonny. Zatem należy ją wyznaczać w sposób optymalny [15, 80, 92, 155, 162], tj. poprzez pobranie minimalnej liczby próbek z określonego pola lub też poprzez pomiary wielkości fizycznych, które są istotnie skorelowane z gęstością i są łatwe w pomiarach [83, 84]. W tym przypadku może to być opór penetracji gleby. Minimalną liczebność przy określonym błędzie szacowania gęstości można określać za pomocą metod geostatystycznych, tj. semiwariogramów, krossemiwariogramów, krigingu, kokrigingu i kroswalidacji [15, 75, 92, 110, 138, 157, 161, 162]. Metody te pozwolą również opisać powiązania pomiędzy zmiennymi trudno mierzalnymi i łatwo mierzalnymi, wyznaczyć ich parametry przestrzennej zależności i współzależności, jak i pozwolą na uzyskanie map przestrzennego rozkładu każdej badanej cechy czy wielkości fizycznej gleby w sposób optymalny przy żądanym błędzie estymacji [19, 52, 59, 60, 62, 98, 146-148, 155, 158, 163, 174]. Wyznaczone z modeli cieplne właściwości gleby wymagają jednak weryfikacji. Może być ona przeprowadzona w oparciu o porównanie danych otrzymanych z bezpośrednich pomiarów i danych wyliczonych z modeli. Cel pracy Głównym celem projektu badawczego było: 1) dostarczenie danych o wilgotności powierzchniowej warstwy gleby z wybranych miejsc na Polesiu i Podlasiu dla walidacji obserwacji misji SMOS [125], w celu pomiaru wilgotności gleby w skali globalnej, 2) poszukiwanie istotnych korelacji między poszczególnymi wielkościami fizycznymi, określanymi z pomiarów naziemnych oraz przygotowanie i standaryzacja przetworzonych danych do postaci przydatnych dalszym badaniom i porównaniom z danymi otrzymanymi z satelity, 3) zbadanie przestrzennych zmienności wilgotności, przewodnictwa cieplnego, pojemności cieplnej i dyfuzyjności cieplnej w powierzchniowej warstwie gleby, na wybranych obszarach, zgodnie ze współczesną praktyką stosowania metod geostatystycznych opisujących tę zmienność.

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 9 METODYKA I OBIEKTY BADAŃ Metody geostatystyczne wprowadzenie Metody statystyczne stosowane do opisu środowiska przyrodniczego, wykorzystują zwykle informację przestrzenną ograniczenie. Metody te, już na początku zakładają, że obserwacje są niezależne od siebie, co jest ograniczeniem istotnym, przy opisie i analizie zjawisk. W badaniach środowiska przyrodniczego mamy do czynienia z obserwacjami, które zawierają czynniki zależne, które mogą być przedmiotem zainteresowania, i fizycznie niezależne, które mogą być źródłem błędów, do wyeliminowania. Są jednak jeszcze i zależności lub niezależności statystyczne, które muszą być przedmiotem zainteresowania dla określania błędów, nawet jeśli źródła błędów pozostaną niezidentyfikowane. Wyniki badań środowiska, muszą uwzględniać ich dwa aspekty łącznie, przestrzeny i czasowy. W aspekcie przestrzennym, trzeba stosować metody analizy pól losowych, na których opiera się między innymi aparat matematyczny geostatystyki [15, 75, 91, 92, 110, 157, 162]. Wiedza o własnościach ośrodków i procesach, z natury jest fragmentaryczna, bo ogranicza się do wybranych obszarów lub miejsc, z których pobrano próbki. Różnorodność środowiska jest ogromna. Nie wiemy, co się dzieje pomiędzy punktami pomiarowymi. Trzeba charakteryzować obszary w ich ogólności, i temu służy geostatystyka. Obejmuje ona relacje między rzeczywistością przyrodniczą, a jej charakterystyką wyrażaną modelami statystycznymi, w przyjętym zakresie istotności charakterystyki. Te relacje, można przedstawić ogólnie diagramem Penatiera [109] (Rys. 1).

10 B. USOWICZ, W. MARCZEWSKI I IN Modelowanie semiwariancji ŚWIAT REALNY Obserwacje: - próbkowanie - informacja jakościowa Działania: - statystyki opisowe -wstępne analizy danych -wstępne wariogramy Cele operacyjne Sprawdzenie hipotezy stacjonarności MODEL PROBABILISTYCZNY Pojęcia podstawowe: - zmienna losowa - zmienna zregionalizowana - funkcja losowa Działania: -estymacja -symulacje Zastosowanie wyników analizy probabilistycznej do rzeczywistości Rys. 1. Koncepcja modelowania geostatystycznego wg. Penatiera [109]. Diagram przedstawia ogólen relacje pomiędzy obserwacjami a procesem modelowania semiwariogramu, przy założeniu stacjonarności procesów, i konfiguruje je względem wyników charakterystyki badanej rzeczywistości. Wykazuje i przypomina o istnieniu sprzężenia zwrotnego między źródłami danych do modelowania, i konieczności stosowania modeli procesów w analizie geostatystycznej, a modele pozwalają na przewidywanie zachowań, wtedy gdy brakuje danych. Geostatystykę trzeba uważać za metodologię, która pozwala na analizę przestrzenną i czasową korelacji danych. Jej podstawowym narzędziem jest wariogram, a dokładniej połowa wartości wariogramu nazywana semiwariogram. Geostatystyka posługuje się badaniem funkcji wariogramu reprezentatywnej zmiennej. Funkcja

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 11 wariogramu z określonymi parametrami (tj. wartością samorodka, progiem i zakresem zależności), przedstawia zachowanie badanej zmiennej przestrzennie regionalizowanej [15-20, 49, 50, 118, 127], czym umożliwia wnioskowanie o obszarach, które nie są reprezentowane przez jakiekolwiek dane pomiarowe [7, 26, 57, 59, 60, 62, 91, 138]. Metodyka prowadzenia pomiarów, a zwłaszcza wybór i rozkładu sieci punktów pomiarowych, ma znaczenie szczególne. Pozwala na utrzymanie istotności opisu badanego obiektu względem procesów, zarówno w aspekcie przestrzennymi jak i czasowym. Wybrane elementy środowiska przyrodniczego trzeba traktować jako układy powiązane między sobą, o związkach wyrażanych za pomocą funkcji matematycznych, przy respektowaniu obu dziedzin czasu i przestrzeni. Te funkcje określają model wewnętrznie, i pozwalają na modyfikacje, korekcje, wynikające z rozpoznawalnej zmienności otoczenia fizycznego (wejścia, wyjścia). Model pracuje tymi funkcjami, a jego rezultaty, można wyrażać w kategoriach stacjonarnych procesów losowych, i traktować w kategoriach statystycznych, np. współzależności pól losowych. Poniżej podano szereg podstawowych pojęć i relacji statystycznych, wykorzystywanych przy opracowywaniu danych. Szereg ten prowadzi do wyboru drogi postępowania metodologicznego dla danych naziemnych, ale jest na tyle ogólny, że można tę drogę postępowania odnaleźć i w szczególnych sposobach przetwarzaniu danych satelitarnych narzędziami bardzo zaawansowanymi. Jeżeli te metody interpretowania danych satelitarnych, wydają się bardzo specyficzne, to są one jednak wspólnie zakotwiczone w tej samej statystyce, a specyfika danych satelitarnych wynika przede wszystkim z użyciu takich modeli podstawowych, które odpowiadają zaangażowaniu poszczególnych instrumentów (np. technika radarowa, polaryzacyjna, analiza spektralna, etc.). Ta specyfika jest ograniczona i podporządkowane statystyce, zwłaszcza w metodach najbardziej zaawansowanych. Niniejsza praca ogranicza się do ogólnego objaśniania metod krigingu, w postępowaniu z danymi naziemnymi, i wskazywania aspektów statystycznych metod zaawansowanych, dla przetwarzania danych satelitarnych (BEAM, NEST, PolSARpro), które idą dalej, aż po wykorzystywanie sieci neuronowyche w analizie multispektralnej, lub filtrów nieliniowych (adaptacyjnych), czy też określania entropii i anizotropii. Cele statystyczne przetwarzania danych naziemnych i satelitarnych, pozostają te same. Różne są metody formułowania zadań i ich rozwiązywania. Celem jest zawsze określenie charakterystyk statystycznych, przy minimalizacji lub eliminacji uwarunkowań technicznych. Jeżeli jesteśmy w stanie odnaleźć wspólny grunt statystyczny, dla metod stosowanych na Ziemi, i metod przetwarzania danych satelitarnych, wtedy specyfika obserwacji Ziemi z kosmosu staje się łatwiejsza do opanowania, i ograniczona. Współczesne techniki obserwacji zdalnych, i metod ich przetwarzania, stwarzają pozorne przekonanie, że z kosmosu można obserwować lepiej i więcej niż na-

12 B. USOWICZ, W. MARCZEWSKI I IN kładem pracy naziemnej. Okazuje się, że obserwacje z orbity muszą być wspierane z Ziemi, dla zapewnienia im odpowiedniej jakości. W tej pracy, autorzy zdobyli przekonanie, że podstawowa i fundamentalna różnica, polega na operowaniu danymi i innej liczebności. Na Ziemi jest ich stale za mało, na to aby sięgać po metody przetwarzania przyswojone technikom kosmicznym. Jest to bardzo istotna różnica, i jej skutki powinny skupiać uwagę na znaczeniu statystyki, i modeli fizycznych, aby badacze z różnych dziedzin znajdowali korzyści ze współpracy, uzupełniali się możliwościami obserwacyjnymi we wspólnych celach, i nawet wykorzystywali takie same narzędzia. Semiwariogram Podstawowym założeniem geostatystyki potwierdzonym w wielu obserwacjach środowiska przyrodniczego odnosi się do stwierdzenia, że obok punktu, do którego przypisana jest określona wartość badanej cechy, istnieją inne punkty (lub ich continuum) o wartościach zbliżonych lub podobnych, i przez to wartości te muszą być ze sobą skorelowane [163]. Podstawą obliczeniową jest funkcja wariogramu, a ściślej, połowa oczekiwanej różnicy wartości zmiennej Z(x) w punkcie x i wartości Z(x+h), w punkcie oddalonym od niego o dystans h. Semiwariogram przedstawia zachowanie (przestrzenne lub czasowe) danej zmiennej, zwanej zmienną regionalizową. Ta zmienna zawiera aspekt losowy, tzn. zawiera również komponenty lokalnie nieprawidłowe strukturalnie, które przesłaniają wielkoskalowe trendy zjawiska (trend [51]). Zmienna zregionalizowana, z jednej strony wykazuje korelacje związaną z przestrzennym rozkładem danych traktowanych globalnie, a z drugiej strony może być lokalnie, zmienną losową, charakteryzującą się określonym rozkładem prawdopodobieństwa. Analiza wariogramu zmiennej regionalizowanej ma dawać miarę i identyfikację struktury jej zmienności. Trzeba wyróżniać trzy fazy analizy: a) faza wstępnego badania zebranych danych i wykonania oceny podstawowych statystyk, b) faza obliczenia wariogramu empirycznego zmiennej zregionalizowanej, oraz c) faza dopasowania funkcji zmienności w modelu matematycznym do przebiegu wariogramu empirycznego. Wymaga to znajomości pierwszych dwóch momentów statystycznych funkcji losowych przypisanych do danego zjawiska: momentu pierwszego (średniej) [15, 109, 110, 174], [ Z ( x) ] m( x) E = (1) i drugiego (wariancji, kowariancji, semiwariogramu semiwariancji) Var { } 2 { Z( x) } E [ Z( x) m( x) ] =. (2)

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 13 Jeśli zmienne losowe Z(x 1 ) Z(x 2 ) mają wariancję, to również mają kowariancję, która jest funkcją położenia x 1, x 2 : C ( x x ) E{ [ Z( x ) m( x )] [ Z( x ) m( x )]} = E{ Z( x ) Z( x )} m( x ) m( ) = (3) 1, 2 1 1 2 2 1 2 1 x2 Semiwariogram γ(x 1,x 2 ) jest definiowany jako połowa wariancji z różnicy zmiennych losowych {Z(x 1 ) Z(x 2 )} [109, 161, 162]: 1 γ ( x1, x2 ) = Var{ Z( x1 ) Z( x2 )}. (4) 2 Oczekuje się, że badany proces jest ergodyczny, czyli wartość oczekiwana zmiennej regionalizowanej opisującej dany proces jest równa wartości średniej rozważanej zmiennej, w domenie prawie nieograniczonej. Wymaga się również, aby badany proces był stacjonarny, tzn. nie zmieniał swoich właściwości przy zmianie początku skali czasowej lub przestrzennej. W przypadku spełnienia warunku ergodyczności i stacjonarności, funkcję losową Z(x) określa się jako stacjonarną drugiego rzędu. Ponadto oczekuje się, że [109]: wartość oczekiwana istnieje i nie zależy od położenia x E [ Z( x) ] m x =, (5) dla każdej pary zmiennych losowych {Z(x),Z(x+h)} istnieje kowariancja, zależna tylko od wektora separacji h C 2 { } m x ( h) E Z( x + h) Z( x) =, stacjonarność kowariancji implikuje stacjonarność wariancji i semiwariogramu Var 2 { } = C( 0) x. { Z( x) } E [ Z( x) m] (6) = (7) Można wykazać, że istnieje powiązanie kowariancji z semiwariogramem [109]: C 2 ( h) = 2E{ Z( x + h Z( x) )} 2m = E Z( x + h) 2 2 [ E{ Z( x + h) } 2E{ Z( x + h) Z( x) } + E{ Z( x) }] ( h) = 2C( 0) 2γ ( h) ( h) = C( 0) γ ( h) 2C 2C 2 2 2 2 [ { } m ] + [ E{ Z( x) } m ] (8)

14 B. USOWICZ, W. MARCZEWSKI I IN dla wszystkich wartości wektora h różnica {Z(x+h) Z(x)} ma skończoną wariancję i nie zależy od x γ { } x 1 1 2 =, 2 2 ( h) Var{ Z( x + h) Z( x) } = E [ Z( x + h) Z( x) ]. (9) Kiedy wartość wektora h równa jest zero, to wartość semiwariancji jest również równa zero. Semiwariogram jest symetryczny względem h: ( h) = γ ( h) γ. (10) Empiryczny semiwariogram γ(h) dla odległości h obliczany jest z równania [109, 161]: N ( h) 1 2 γ = (11) ( h) 2N ( h) i= 1 [ z( x ) z( x + h) ] gdzie: N(h) oznacza liczbę par punktów oddalonych o h. Równanie (11) wyraża zróżnicowanie odchyleń wartości zmiennej badanej, w zależności od odległości między punktami pomiarowymi. Wyróżnia się trzy charakterystyczne parametry semiwariogramu: samorodek (ang. nugget), próg (ang. sill), i zakres (ang. range). Jeśli semiwariogram jest funkcją wzrastającą nie od zera, lecz od pewnej wartości, to wartość tę nazywa się efektem samorodka. Wyraża ona zmienność badanej wielkości fizycznej przy skali mniejszej niż przedział próbkowania (może być też spowodowana niską dokładnością pomiaru). Osiągnięta wartość semiwariogramu, przy której nie następuje dalszy wzrost funkcji (w przybliżeniu jest ona równa wariancji próby), jest nazywana progiem, a odległość od zera do osiągnięcia 95% wartości semiwariogramu, nazywa się jego zakresem. Zakres wyraża największą odległość, przy której próbkowane wartości są ze sobą skorelowane. Semiwariogramy są wyznaczone danymi empirycznymi, i do nich można dopasowwywać modele matematyczne [45, 109]: model liniowy semiwariogramu, np. możliwy do opisywania linią prostą. W modelu tym zakres przestrzennej zależności wartości próbek nie występuje jawnie. Zakres lub zasięg A 0 określa ostatni krok postępowania z próbkowaniem (h). Model liniowy opisuje się równaniem [45]: γ ( h) = C 0 + h C A (12) 0 i i

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 15 model sferyczny, np. możliwy do opisania zmodyfikowaną wersją funkcji kwadratowej. Zakres zależności wartości zmiennej od przestrzennych odległości próbek, jest równy zasięgowi A 0, poza którym dane przestają być już skorelowane. Model sferyczny opisuje się równaniem: 3 h h C 0 + C 1.5 0. 5 ( ) h A0 γ h = A0 A0, (13) C0 + C h > A0 model wykładniczy, podobny do modelu sferycznego, ale dający wartości zbliżające się do progu stopniowo. W modelu wykładniczym, wartości zbliżają się do progu wolniej, w modelu sferycznym. Zarówno wartości otrzymane z modelu, jak i próg, właściwie nie zbiegają się nigdy. Model wykładniczy opisuje się równaniem: h A0 γ ( h) = C 0 + C 1 e h > 0 (14) model Gaussowski, albo model inaczej model hiperboliczny. Jest on podobny do modelu wykładniczego, stopniowym osiąganiem wzrostu wartości. Model hiperboliczny opisuje się równaniem: 2 h 2 ( ) A γ h = C 1 0 0 + C e h > 0 (15) gdzie: γ(h) jest wartością semiwariancji dla kroku próbkowania h, h jest krokiem próbkowania, C 0 jest wartością samorodka 0, C jest wariancją strukturalną (ang. structural variance) C 0, A 0 jest zakresem (ang. range). Model liniowy nie ma żadnego zasięgu efektywnego, i jest ustanowiony długością ostatniego kroku próbkowania (h). Model sferyczny ma efektywny zasięg A = A 0. Model wykładniczy, ma efektywny zasięg A = 3A 0, co odpowiada odległości, dla której wartość (C + C 0 ) osiąga 95% wartości progowej. Model Gauss'owski, ma efektywny zasięg A = 3 0.5 A 0, i jest odległością, dla której wartość (C + C 0 ) osiąga 95% wartości progowej.

16 B. USOWICZ, W. MARCZEWSKI I IN Dopasowywanie modelu do danych empirycznych, polega na minimalizacji sumy odchyleń np. kwadratowych. Otrzymane z semiwariogramów modele są przeznaczone do przestrzenno-czasowej analizy autokorelacji, lub do tworzenia obrazów, przy estymowaniu zmiennej wartości fizycznej w przestrzeni, np. metodą krigingu [35, 45, 109]. Trend Zmienne potrzebne do opisu środowiska przyrodniczego, pochodzą z określonych obszarów, różniących się np. ukształtowaniem terenu, cechami gleby i pokrywy roślinnej. Dane wyrażające poszczególne zmienne, z reguły zawierają ślad zasadniczej, czyli źródłowej charakterystyki fizycznej otoczenia. Statystyczna analiza ich zmienności i zależności, wymaga strukturalnego przygotowania danych, i analizy. Zmienna regionalizowa opisuje pewien szczególnie wybrany aspekt charakterystyki środowiska, lecz zawiera składnik losowy ε(x), z wszystkimi zmiennościami lokalnymi i komponentami błędów. Poszukuje się zasadniczego składnika strukturalnego m(x), który ma odzwierciedlać wielkoskalowe zmienności zjawiska (trendy). Poszczególne składniki błędu i trendu, trzeba poddać dekompozycji i zidentyfikować, wyseparować [51, 161]: ( x) ( x) m( x) z = ε + (16) Tę potrzebę zaspakaja się obliczeniem czterech podstawowych momentów statystycznych semiwariogramu empirycznego zmiennej regionalizowanej, przy wykorzystaniu modelu semiwariogramu. Zakłada się, że proces jest stacjonarny, tzn. że charakterystyka trendu odnosi się do zmienności ergodycznej, a nie incydentalnej. Rezultat oczekiwany nie powinien zależeć od wyboru początku skali czasowej i wyboru skali przestrzennej. Same skale przestrzenne i czasowe, ich zakresy, gęstości i częstości próbkowania, zachowują znaczenie zasadnicze dla precyzji, ale ich inny wybór powinien dawać charakterystykę odmienną ograniczenie, tzn. z inną efektywnością i błędem. Warunek stacjonarności sprowadza się do określenia albo wyseparowania trendu m(x) ze zbioru danych: ( x) = z( x) m( x) ε. (17) Dla jednowymiarowego przebiegu wartości równania trendu są następujące: m m m ( x) = a0 ( x) = a0 + a1x 2 ( x) = a + a x + a x 0 1 2 (18)

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 17 Jeżeli mamy do czynienie z trendem powierzchniowym o współrzędnych x, y to równania trendu są następujące: m m m ( x, y) = a0 ( x, y) = ax + by + c 2 2 ( x, y) = ax + by + cxy + dx + ey + f Po wydzieleniu trendu, powinien pozostać składnik losowy o zerowej wartości średniej i skończonej wariancji. Empiryczny semiwariogram γ(h) dla odległości h oblicza się z równania: ( h) ( h) i= 1 (19) N 1 2 γ ( h) = [ ε( xi ) ε( xi + h) ] (20) 2N gdzie N(h) oznacza liczbę par punktów odległych o h. Równanie (20) określa zróżnicowanie odchyleń wartości zmiennej ε(x i ) od trendu, w zależności od odległości między punktami pomiarowymi. Semiwariogram standaryzowany Doświadczenie w wykorzystaniu metod i narzędzi geostatystycznych wskazuje, że podstawowa definicja semiwariancji nie zawsze daje klarowny obraz przestrzennego rozkładu badanej zmiennej. Wtedy trzeba próbować innych sposobów wyznaczania rozkładu przestrzennej zmienności semiwariancji. Jeżeli semiwariogram ma taki rozrzut próbek, że nie pozwala na dopasowanie żadnego z podstawowych modeli, to bywa, że może wystarczyć prosta normalizacja semiwariogramu γ s [109]: γ s h=0 ( h) γ = σ σ h. (21) Wtedy trzeba posługiwać się standardowymi odchyleniami zmiennej losowej między punktem zaczepienia wektora h= 0 ( σ h= 0 ), a próbką bieżąca w odległości h ( σ h ). Zależnie od natury próbkowanego procesu stanowiącego o trendzie, można też wykorzystywać inne sposoby normalizacji, a nawet wykładnicze (lub logarytmiczne) skalowanie odległości próbek w domenach czasu i przestrzeni.

18 B. USOWICZ, W. MARCZEWSKI I IN Krossemivariogram Zmienne regionalizowane można przypisywać różnym własnościom fizycznym, np. ośrodka glebowego. Na ogół okazuje się, że są one skorelowane ze sobą. Założenie o stacjonarności drugiego rzędu, pozwala charakteryzować wartości zmiennych Z 1 i Z 2 za pomocą kowariancji krzyżowej (krosskowariancji) określanej jako [161, 174]: C ( h) E{ Z1( x) Z 2( x + h) } m1 2 = (22) 12 m i oraz krossemiwariogramem definiowalnym jako: C ( h) E{ Z 2 ( x) Z1( x + h) } m1 2 = (23) 21 m 1 γ 12 ( h) = γ 21 ( h) = E{ [ Z1( x + h) Z1( x) ] [ Z 2 ( x + h) Z 2 ( x) ]}, x (24) 2 gdzie m 1 i m 2 są wartościami oczekiwanymi E{Z 1 (x)} i E{Z 2 (x)}. Wtedy krossemiwariogram można zapisać następująco: ( ) = 2γ ( h) = 2C ( ) C ( h) C ( h) 12 h 21 12 0 12 21 2γ (25) Empiryczny krossemiwariogram γ(h) dla odległości h obliczany jest z równania: ( h) ( h) N 1 γ 12( h) = [ z1( xi ) z1( xi + h) ] [ z2 ( xi ) z2 ( xi + h) ] (26) 2N i= 1 gdzie N(h) oznacza liczbę par punktów o wartości [z 1 (x i ), z 1 (x i +h)], [z 2 (x i ), z 2 (x i +h)], odległych o h. Obliczanie krossemivariogramu nie wymaga równej liczebności danych dla z 1 i z 2. Podobnie jak w semiwariogramie, tak i w krossemiwariogramie, wyróżnia się trzy podstawowe parametry: samorodek, próg, i zakres korelacji. Dla krosssemiwariogramu, również dopasowuje się modelowe funkcje matematyczne, i określa dopasowanie krossemiwariogramów empirycznych z obliczeniowymi. Otrzymane funkcje semi- i kross-semiwariogramów wykorzystuje się do przestrzenno-czasowej analizy autokorelacji, lub do wizualizowania zmiennej regiona-

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 19 lizowanej przez estymację, np. metodą krigingu lub kokrigingu w przestrzeni [35, 45,109]. Semiwariogramy wyodrębnianie trendów, określanie wariancji i kowariancji, korelacji i koherencji, to tylko metody statystycznego ustalania zmienności i relacji między zmiennymi. W przetwarzaniu danych naziemnych stosuje się je na zbiorach danych mało licznych, i pewnie dlatego trudno jest o wyniki o znaczeniu rozszerzonym na duże obszary. Przy przetwarzaniu danych satelitarnych, te zbiory są bardzo liczne, masowe. Jedno zdjęcie ENVISAT-ASAR [37] o powierzchni ok. 80 110 km wypełnia archiwum o objętości 150-250 MB. Archiwum obserwacji naziemnych z jednej kampanii, rzadko przekracza 1 MB. Skupienie uwagi na statystycznej ocenie danych mało licznych, prowadzi do zajmowania się nimi szczegółowo, nawet pojedynczymi próbkami. Wyniki trzeba weryfikować na poziomie detalicznym, co jest to możliwe w wycinkach, prostych semiwariogramach, czy parametrach rozkładu, bo zbiory są mało liczne. Takie postępowanie staje się jednak zawodne gdy trzeba weryfikować poprawność wydzielania trendów, klasterów, albo skuteczność metod filtracji, bo zbiory są mało liczne. Inaczej jest ze zbiorami wielkimi. W nich też można prowadzić oceny statystyczne szczegółowe, powtarzając je na różnych wycinkach, albo weryfikując w różnych zasięgach. Oceny stają się bardziej konsekwentne, bo jest na to dość materiału danych. Można też prowadzić je kompleksowo. Badanie semiwariogramów, ustępuje wtedy badaniom faktur i tekstur. Daje wnioski podobne ale oparte już na mocniejszych podstawach. Podobnie jest z ocenami różnych metod filtracji. Nieliczne próbki nie dają możliwości oceny skuteczności filtracji i ich efektów pasożytniczych, z powodu niedostatku próbek. W danych mało licznych brak jest wielu możliwych kontekstów próbek. Nie ujawniają się wtedy różne efekty przesuwania wartości oczekiwanych (bias, offset, aliasing). Postępowania kompleksowe w przetwarzaniu danych liczniejszych, okazują się skuteczniejsze. Przy współczesnej technice komputerowej, nawet operowanie ogromnymi zbiorami jest szybsze, bo ciężar nadzorowania przetwarzania, przenosi się na weryfikację procedur zasadniczych. Wysoko zaawansowane narzędzia programowe dla interpretacji danych satelitarnych, posługują się procedurami już potwierdzonymi w rutynowych testach walidacyjnych. Tych narzędzi nie da się jednak przenosić na zastosowania dla danych mało licznych. Cele przetwarzania są wprawdzie statystycznie podobne, a nawet te same, przy opracowywaniu danych naziemnych i satelitarnych ale zasoby różnią się liczebnością o wiele rzędów wielkości. Można z nich jednak wynosić korzyści, przynajmniej w postaci sformułowania statystycznych celów, i uporządkowania koncepcji przetwarzania statystycznego. Praktyczne korzyści z posługiwania się danymi masowymi, polegają również na wdrażaniu celowego posługiwania się strukturą danych, przez wykorzystywanie meta-danych i języków do ich formułowania. W przypadku danych naziemnych

20 B. USOWICZ, W. MARCZEWSKI I IN stosuje się formaty i metody proste, bo metody zaawansowane sprowadzają się do przypadków trywialnych. Współczesne narzędzia geostatystyki i systemy ich wykorzystania (GIS), rozwinęły się w takich właśnie kierunkach, które udostępniają zaawansowane metody przetwarzania, w dziedzinach badań naziemnych mających niewiele wspólnego ze specyfiką technik i obserwacji zdalnych z kosmosu. Przykładem mogą być numeryczne modele elewacji DEM. Współcześnie są one podstawą współczesnej kartografii, niezależnie od tego skąd z jakiej techniki pochodzą. Po prostu wypracowano standardy strukturalne zbiorów danych DEM, i już nie można z nich nie korzystać. Te standardy powstały pod wymagania obsługi masowych zbiorów danych, lecz mogą i powinny służyć takiemu strukturyzowaniu danych naziemnych. Praktycznie w każdej dziedzinie badań naziemnych, powinno dochodzić do konfrontowania wyników, z danymi obserwacji zdalnych. Do tego trzeba wspólnej platformy i tych samych narzędzi przetwarzania, nawet jeśli znaczenie zmiennych obserwowanych jest drastycznie różne, np. tak jak temperatura jasności BT (Brightness Temperature [K]), wg prawa ciała czarnego Plancka, i wilgotność gleby SM (Soil Moisture, w mierze objętościowej m 3 m 3 ). BT jest miarą [14, 137] właściwą w radioastronomii, SM zaś miarą fizyczną pospolitą stosowaną powszechnie w agrofizyce. Agrofizyka nie wykorzystuje BT, ale współczesne techniki badań środowiskowych są na to przygotowane. Techniki obserwacji zdalnych z orbity, stosują powszechnie takie wskaźniki miar wegetacyjnych jak LAI, NDVI, fapar, LAIxCab [4, 38], ale te same miary w obserwacjach naziemnych bezpośrednich są stosowane dużo rzadziej. Większość takich miar ma podstawę w analizie spektralnej promieniowania, lecz w agrofizyce analizę spektralną stosuje się niezmiernie rzadko, chyba tylko tam gdzie wykorzystuje się dane z obserwacji satelitarnych. Praktyka zaspakajania potrzeb ważnych lokalnie, nie zmusza jeszcze do sięgania po specyficzne techniki kosmiczne. Wdrażanie zastosowań danych satelitarnych ma swoje skutki nie tylko w aspekcie statystycznym, lecz i fizycznym. Współczesne sposoby charakteryzowania środowisk polegają na określaniu indeksów wegetacyjnych, wyrażających bezpośrednie relacje fizyczne i statystyczne, w miarach absolutnych lub uniwersalnych. Wszelkie obserwacje fizyczne, są możliwe tylko poprzez zaangażowanie wymiany energii pomiędzy instrumentem obserwacyjnym a obiektem obserwowanym. Ale również wszystkie procesy fizyczne zachodzą w warunkach ich napędzania energią wymienianą pomiędzy środowiskami. Wszystkie procesy chemiczne, i biologiczne w środowisku przyrodniczym zachodzą przy udziale energii i zaangażowaniu jej nośników, z których na Ziemi najważniejsza jest woda. Specyfiką współczesnych badań środowisk przyrodniczych jest to, że następuje kompleksowa fuzja wiedzy dla wypracowywania metod badawczych w aspektach:

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 21 fizycznym, chemicznym, biologicznym, i niemal każdym innym, z pełnego zakresu nauk fizyczno-matematycznych, i nauk o Ziemi. Narzędzia dla tych metod, komplikują się, ale i standaryzują w zakresie wyboru możliwych zmiennych obserwacyjnych. NDVI, LAI, fapar można mierzyć i z kosmosu, i z Ziemi. Środki techniczne będą bardzo różne na pokładzie satelity, i w ręku badacza w terenie. Sposoby przetwarzania danych też, z wyjątkiem zaangażowania zasady analizy spektralnej. Same indeksy LAI, fapar, mimo że w miarach niemianowanych, i wyprowadzane z prostych definicyjnych założeń, jak np. geometryczna definicja LAI, są jednak rozwiązaniem równania transferu energii w środowisku, spełniającym powszechne prawo zachowania energii. Mają więc bardzo mocne podstawy fizyczne, na tyle na ile stosowane ich modele zostały zweryfikowane. Są również i inne zasady uniwersalne, zaczerpnięte z matematyki, które przenikają na wskroś praktyczne metody postępowania z danymi (niezależnie od ich liczebności) z różnych dziedzin nauki, jak np. zasady i sposoby normalizacji. Dane rzeczywiste z obserwacji, mogą charakteryzować się rozpiętością poza granicami dziedziny pomiaru, usprawiedliwionej zasadą wykorzystywanych instrumentów a powodowane rozmaitością warunków, błędów i zakłóceń pracy techniki. Np. wtedy gdy przychodzi analizować zmienne z zakresu niemal od + do nieskończoności. Takim przykładem są np. zdjęcia obserwacji zdalnych w różnych warunkach oświetlenia, mimo że zakres zmienności wartości pikseli jest ograniczony, a nie nieskończony. Można je standaryzować tak jak w definicji podstawowej, gdzie odnosi się do siebie relacje między kanałami R ( red ) i IR ( infrared ) wg zasady stosunku różnicy do sumy NDVI=(R IR)/(R + IR). Nawet nieskończony zakres zmienności kanałów R i IR, zostaje sprowadzany do zakresu znormalizowanego [ 1, +1]. Ta zasada normalizacji może być wykorzystywana przy porównywaniu innych zmiennych, nawet bez związku z kanałami spektralnymi, i jest często wykorzystywana w modelach zmienności. Ona też ma bardzo mocne uzasadnienie w ustalaniu relacji, nie tylko dwóch zmiennych, znane i daleko rozwinięte w algebrze, w ogólnym zagadnieniu wartości i wektorów własnych. Jest ona np. obecna w analizie polaryzacyjnej odbicia radarowego przy pomocy 4-ro elementowego wektora Stokesa, którego dwa pierwsze i najważniejsze wyrazy są sumami i różnicami komponentów hermitowskich. Analiza polaryzacyjna, w zakresie wykorzystania tych dwóch wyrazów odpowiada polaryzacyjnej analizie intensywności echa radarowego, i nie ma nic wspólnego ze specyfiką spektralną jaką ma definicja NDVI. Podobnych przykładów zasad i sposobów unifikujących, stosowanych w przetwarzaniu danych z obserwacji satelitarnych, jest wiele. Mają one niezwykle duże znaczenie dla innych dziedzin niż obserwacje satelitarne, o ile tylko zostaną docenione w swojej skuteczności. Można je czerpać bezpośrednio z wiedzy matematycznej, bez pośrednictwa znajomości technik obserwacji satelitarnych. Tak jednak składa się, że w tych technikach zastosowano je bardzo skutecznie, i z tych zastosowań można wynieść przekonanie, że zdalne badania Ziemi z satelitów mogą

22 B. USOWICZ, W. MARCZEWSKI I IN bardzo wiele wnieść do badań bezpośrednich na Ziemi, nie tylko przez wyniki obserwacji ale i przez propagację zasad postępowania w przetwarzaniu danych, na poziomie podstawowym. Specyfika obserwacji zdalnych jest ograniczona do szczegółów technicznych, i do wykorzystywanych zmiennych podporządkowanych zasadom fizycznym działania instrumentów. Każdy pomiar realizuje się jednak fizycznie, i stąd musi wynikać wniosek, że środki charakteryzowania środowisk przyrodniczych, w rozumieniu zmiennych mierzonych (i regionalizowanych) mogą korzystnie przyjmować doświadczenie z dziedziny obserwacji zdalnych. Pospolite jest przekonanie, że współczesne techniki satelitarne dominują nad metodami badań naziemnych skutecznością. Mniej pospolite jest przekonanie, że dostępność instrumentów i danych satelitarnych jest jednak ograniczona. Np. trudno jest o uzyskiwanie udanych zdjęć satelitarnych swojego terenu co tydzień przez rok. Przyczyna leży nie tylko w zmienności warunków zachmurzenia, lecz i w zasadach ruchu orbitalnego. Logistyczne ograniczenia dostępności zdjęć satelitarnych, i fundamentalna potrzeba walidowania obserwacji zdalnych badaniami naziemnymi, czynią badania naziemne potrzebnymi technikom satelitarnym. Wariancje, semiwariancje, korelacje, nie mówiąc już o koherencji są w obu dziedzinach jednakowo ważne lecz wyniki zależą od tego jakim wnioskom końcowym mają służyć. Na Ziemi trudno o wygenerowanie obrazu zmienności przestrzennej i czasowej, i pozostają oceny na skończonych, krótkich transektach lub w wycinkach obszarów nie łatwo poddających się rozszerzeniom. Bariery liczebności danych nie można pokonywać ekstensywnym nakładem pracy na Ziemi. Można jednak zmieniać cele interpretacji naziemnych tak, aby korespondowały one z celami obserwacji zdalnych i otwierały się możliwości sięgania po dane rozszerzające interpretacje naziemne na większe skale, w czasie i przestrzeni. Kriging Przestrzenne rozkłady cech środowiska przyrodniczego w badaniach naziemnych otrzymywane są z pomiarów punktowych, gdyż nie jesteśmy w stanie dokonać pomiarów we wszystkich punktach badanego obszaru. Otrzymanie jak najbardziej wiarygodnych przestrzennych rozkładów badanych cech wymaga użycia metod, które wykorzystują informację o przestrzennej zależności z jednej strony i minimalizują błąd szacowania w miejscach gdzie nie zostały pobrane próbki z drugiej strony. Szacowanie wartości w miejscach gdzie nie pobrano prób może być prowadzone za pomocą metody estymacji zwanej metodą krigingu. Metoda ta daje najlepsze nieobciążone oszacowanie wartości punktowych lub blokowych badanej zmiennej regionalizowanej Z(x). Otrzymujemy również za pomocą tej metody minimalną wariancję podczas procesu estymacji. Wartości wariancji krigingu zależą

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 23 od położenia próbek względem szacowanej lokalizacji, od wag przypisanych próbkom oraz od parametrów modelu semiwariogramu. Estymatorem krigingu jest równanie liniowe wyrażone wzorem [161]: z N ( x ) = z( x ) o i= 1 λ (27) gdzie N jest liczbą pomiarów, z(x i ) zmierzona wartość w punkcie x i, z*(x o ) wartość estymowana w punkcie estymacji x o, λ i wagi. Jeśli z(x i ) jest realizacją funkcji losowej Z(x i ) to estymator funkcji losowej można zapisać jako: Z N ( x ) = Z( x ) o i= 1 i i i λ. (28) Wagi przydzielone próbkom są nazywane współczynnikami krigingu. Ich wartości zmieniają się odpowiednio do tego, jak zmienia się obraz opróbkowania i jak zachodzą przestrzenne zmiany wyrażone przez zmienną podlegającą szacowaniu. Przydzielone próbkom wagi są tak dobierane, że średniokwadratowy błąd jest minimalny. Błąd ten nazywany jest wariancją krigingu σ k 2 i może być obliczany dla każdego obrazu opróbkowania i konfiguracji obszaru estymacji. Zasadniczym problemem w określeniu funkcji losowej jest znalezienie wag λ i. Wagi te są wyznaczane z układu równań po uwzględnieniu warunku nieobciążalności estymatora: { Z ( x ) Z( )} = 0 o x o i E (29) i jego efektywności: 2 k { } = min ( x ) = Var Z ( x ) Z( x ) σ. (30) o o o Po podstawieniu estymatora średniej ważonej do wartości oczekiwanej otrzymujemy: E { Z ( x ) Z( x )} = E{ Z( x )} E{ Z( x )} = m λ m 0 o o i i o i = i λ. (31) Jak widać z powyższego równania, wartość oczekiwana jest równa zero kiedy: N i= 1 λ = 1. (32) i i

B. USOWICZ, W. MARCZEWSKI I IN 24 Natomiast podstawiając do wariancji estymator funkcji losowej można wykazać, że: ( ) ( ) ( ) ( ) + = i o i i j i i j j i o k x x C C x x C x, 2 0, 2 λ λ λ σ (33) lub (poprzez semiwariancję): ( ) ( ) ( ) = + i o i i j i i j j i o k x x x x x, 2, 2 γ λ γ λ λ σ. (34) Minimalizacji wariancji można dokonać techniką Lagrangina, w których N równań różniczek cząstkowych jest równych zero: ( ) 0 2 2 = i i i k x o λ λ μ σ, (35) gdzie μ oznacza mnożnik Lagrangina. Po zróżniczkowaniu i redukcji równania można dojść do rozwiązania: ( ) ( ) 0 2, 2, 2 = + μ γ γ λ o i j j i j x x x x. (36) Uwzględniając warunek na sumę wag krigingu otrzymamy układ równań: ( ) ( ) = = = + = = 1 1,, 1 1 N i i o i N j j i j N do i x x x x λ γ μ γ λ (37) Rozwiązując powyższy układ równań wyznaczamy wagi krigingu λ i. Wagi te pozwalają wyznaczyć również estymowana funkcje losową Z* i jej wariancję ze wzoru: ( ) ( ) = + = N i o i i o k x x x 1 2, γ λ μ σ. (38)

WODA W GLEBIE - POMIARY NAZIEMNE I SATELITARNE... 25 Kokriging W miarę jednorodne obszary środowiska przyrodniczego mogą być opisywane za pomocą zmiennych odnoszących się do poszczególnych jego cech. Jednak często bywa, że środowisko przyrodnicze jest bardzo skomplikowane i nie poddaje się prostemu opisowi za pomocą zmiennych rozseparowanych, które odnoszą się do poszczególnych cech czy wielkości fizycznych tego środowiska. Jedną z metod, która pozwalają badać obiekty bardziej skomplikowane jest metoda kokrigingu. Kokriging stanowi specyficzną metodę analizy pól losowych [161, 173]. Polega na ustaleniu dla określonych parametrów glebowych Z 1 i Z 2 kowariancji i kowariancji wzajemnej oraz funkcji crossemiwariogramu. Główną zaletą opisywanej metody jest możliwość pośredniego odtworzenia przestrzennej zmienności cech glebowych, których pomiary są trudne i kosztowne, na drodze analizy pola innych parametrów glebowych, łatwiejszych do określenia za pomocą standardowych przyrządów pomiarowych lub też poprawiać estymację jednej z badanych zmiennych w oparciu o drugą zmienną. Szacowanie wartości w miejscach gdzie nie pobrano prób x o może być prowadzone za pomocą metody estymacji zwanej metodą kokrigingu. Matematyczną podstawę kokrigingu stanowi twierdzenie o liniowej zależności nieznanego estymatora Z 2 * (x o ) wyrażonego wzorem [161, 173]: N1 N2 ( xo ) = 1i Z1( x1 i ) + λ 2i Z 2 ( x ij ) Z 2 2 i= 1 j= 1 λ, (39) gdzie λ 1i i λ 2j są wagami stowarzyszonymi z Z 1 i Z 2. N 1 i N 2 jest liczbą sąsiadów Z 1 i Z 2 włączonych do estymacji w punkcie x o. Wagi kokrigingu są wyznaczane z układu równań po uwzględnieniu warunku nieobciążalności estymatora: * { Z ( x ) Z ( x )} 0 E (40) 2 o 2 o = i jego efektywności: 2 k { } = min * ( x ) Var Z ( x ) Z ( x ) σ. (41) o = 2 o 2 o Podstawiając estymator średniej ważonej do wartości oczekiwanej otrzymujemy: E N1 * { Z ( x ) Z ( x )} = λ E Z ( x ) = m 1 2 i o 1i 2 λ + m 2 o j 2 j i= 1 1i λ m 2 N2 { 1 1i } + λ 2i E{ Z 2 ( x2ij )} E Z 2 ( xo ) = 0 j= 1 { }. (42)