Globalne prognozowanie pogody. www: http://www.ksn.stawiarz.pl/ Łukasz Stawiarz email: ksn@stawiarz.pl Robert Gaździk email: valmont@fatcat.ftj.agh.edu.pl Wydział Fizyki i Informatyki Stosowanej, AGH Kraków
1. Wstęp. Wszyscy słuchamy prognoz pogody, aby dowiedzieć się, co na siebie włożyć, czy wziąć parasol itp. Zdarza się również, że dzięki informacjom pogodowym oraz ostrzeżeniom o niebezpiecznych zjawiskach atmosferycznych można uratować życie i ochronić dobytek. Stąd bardzo ważne jest możliwie najdokładniejsze prognozowanie pogody. Pogodą nazywamy fizyczny stan stosunków atmosferycznych występujących w danej chwili lub w ciągu pewnego odcinka czasu nad danym obszarem lub w danym punkcie. Stosunki te opisywane są za pomocą podstawowych składników, nazywanych elementami meteorologicznymi. Składają się na nie: temperatura powietrza, ciśnienie atmosferyczne, zachmurzenie, kierunek i prędkość wiatru, zamglenie, opady oraz wilgotność powietrza. Od początku istnienia ludzkości pogoda miała bardzo duży wpływ na życie człowieka. Ekstremalne upały lub mrozy, powodzie i susze, wreszcie burze i cyklony pozbawiały życia tysiące ludzi, decydowały o wynikach bitew a czasem nawet losach całych cywilizacji. Nie dziwi więc fakt, że już w czasach starożytnych próbowano przewidzieć najgroźniejsze zjawiska atmosferyczne. Na przestrzeni wieków, coraz lepiej rozumiano prawa fizyczne rządzące światem, zaczęto także dostrzegać występowanie związków przyczynowo-skutkowych, co pociągało za sobą potrzebę obserwacji. Przełomem w prognozowaniu pogody stało się wprowadzenie do obliczeń i symulacji komputerów. Początkowo stosowane tylko do wspomagania czysto matematycznych prac, dzięki szybkiemu postępowi techniki, w krótkim czasie zaczęł przejmować dominującą rolę w prognozowaniu pogody. Za początek badań nad Numerycznymi Prognozami Pogody można przyjąć już rok 1904, kiedy to Norweski specjalista od hydrodynamiki, V. Bjerknes, jako pierwszy zasugerował, że pogoda może być prognozowana przy użyciu zestawu hydrodynamicznych i termodynamicznych równań opisujących podstawowe procesy atmosferyczne. Jednak brak teoretycznych i praktycznych możliwości zatrzymał badania na tym etapie. W 1922 roku matematyk Lewis Frei Richardson w swej książce Weather prediction with numerical methods opisał procesy fizyczne zachodzące w atmosferze, wykorzystując równania hydrodynamiczne. Wówczas do przezwyciężania pozostała tylko trudność techniczna, gdyż obliczanie prognozy tą metodą w czasie rzeczywistym wymagało by pracy kilkudziesięciu tysięcy ludzi jednocześnie. Następny krok został uczyniony krótko po Drugiej Wojnie Światowej, rozwój technologiczny sprawił, że pomysły badaczy mógły być wypróbowane w praktyce. Pierwsze poważne eksperymenty zostały przeprowadzone w roku 1950, jednak, z powodu wciąż niedostatecznego poziomu techniki, tylko najprostsze modele miały szansę na realizację. Jednak nawet te proste modele dały zaskakująco dobre rezultaty: przepływ niżu na Ameryką Północną został przewidziany na 24 godziny wcześniej z niespotykaną we wcześniejszych, subiektywnych prognozach, dokładnością. Pierwszy globalny model atmosfery zaczął pracować w 1966 roku w Waszyngtonie miał 300 kilometrowe pola siatki i sześć poziomów pionowych. Do końca lat siedemdziesiątych na świecie działało już kilkanaście innych modeli globalnych i regionalnych, które działały w coraz większej rozdzielczości i pobierały wartości
graniczne z większych modeli. Wraz ze wzrostem liczby meteorologicznych satelitów, dostarczających informacji również z niedostępnych dotąd górnych części atmosfery, modele atmosferyczne zyskały nową jakość dzięki zwiększeniu zasięgu pionowego. Największym przełomem w Numerycznych Prognozach Pogody ostatnich 15 lat jest jednak gwałtowne zwiększenie jakości i ilości danych ze zdalnych obserwacji (satelity, samoloty, automatyczne stacje) oraz mocy maszyn obliczeniowych. Radiosondy i satelity pełnią podstawową funkcję już nie tylko na półkuli południowej (brak możliwości konwencjonalnych obserwacji) ale także na półkuli północnej - znaczna poprawa dokładności i zasięgu 2. Zasady numerycznego prognozowania pogody. Prognozowanie pogody polega na określeniu, jaki będzie stan atmosfery w przyszłości, tj. powiedzmy za 12 godzin, 1 dzień, 2 dni, miesiąc itd. W skrócie prognozy można podzielić na krótkoterminowe (do dwóch dni) i długoterminowe. Należy jednak zaznaczyć, że bardzo duża czasowa i przestrzenna zmienność, a przede wszystkim ilość możliwych alternatywnych schematów rozwoju pogody, powoduje że prognozowanie na dłuższe okresy nie jest łatwe i oczywiście, co za tym idzie, jest mniej wiarygodne. Sprawdzalność w dużej mierze zależy od aktualnych warunków meteorologicznych. W niektórych okolicznościach, kiedy stabilna pogoda sprzyja temu (na przykład długo utrzymujący się stacjonarny wyż), pogodę można przewidzieć dokładnie nawet z kilkudniowym wyprzedzeniem. Kiedy indziej, przy wyjątkowo niestabilnej pogodzie (na przykład dynamicznie rozwijający się niż), nawet prognoza krótkotrwała może być mało wiarygodna. W ciągu ostatnich kilkudziesięciu lat nastąpił ogromny postęp w jakości prognoz pogody, jednak nadal pewne zjawiska są bardzo trudne do precyzyjnego prognozowania (opady, burze). O ile prognozy opadu związanego z frontami atmosferycznymi są jeszcze dość dokładne, to już prognozy lokalnych opadów (konwekcyjnych) często zawodzą. Przy trafnie określonym miejscu i czasie ilość opadu jest często zawyżona lub zaniżona. Opracowywanie i interpretacja prognoz meteorologicznych w ciągu ostatnich lat znacznie się zmieniła. Jeszcze niedawno większość czynności związanych z prognozami, zaczynając od pomiarów i obserwacji, poprzez naniesienie danych na mapę synoptyczną (dla zanalizowania sytuacji), aż po wydanie ostatecznego komunikatu prognostycznego, trzeba było wykonać ręcznie. Na ostateczny wynik największy wpływ miało profesjonalne przygotowanie synoptyka, jego znajomość procesów rządzących ruchami atmosfery, intuicja i nabyte doświadczenie. Taka zależność powodowała, że korzystając z identycznej mapy synoptycznej kilku synoptyków może wydać różne prognozy pogody. Obecność takich czynników jak doświadczenie i intuicja, powoduje że końcowa prognoza jest bardzo subiektywna. Numeryczne modele atmosfery uwzględniają wiele czynników, które wzajemnie na siebie oddziałują i mogą być wyrażone za pomocą równań matematycznych. W ramach globalnego systemu osłony meteorologicznej obserwacje pogody wykonywane są w ustalonych terminach metodami tradycyjnymi, a także coraz częściej za pomocą nowoczesnych pomiarów teledetekcyjnych (radarowych, satelitarnych itp.). Wyniki tych pomiarów wprowadzane są do światowej sieci wymiany informacji meteorologicznych i stanowią dane wyjściowe do obliczeń numerycznych modeli prognostycznych. Ze względów obliczeniowych ciągłą atmosferę przedstawia się w postaci dyskretnych trójwymiarowych gridów. W
modelach numerycznych pola meteorologiczne opisywane są przez skończoną liczbę punktów. Obliczenia wykonuje się w punktach nazywanych węzłami siatki. Odległość w poziomie pomiędzy sąsiednimi węzłami definiuje poziomą rozdzielczość modelu. Im jest ona mniejsza, tym rozdzielczość jest lepsza i więcej szczegółów może być uwzględnionych w modelu. Aby prawidłowo przewidzieć pogodę, należy przeprowadzić obliczenia nie tylko dla powierzchni ziemi, ale również dla wyższych poziomów atmosfery. Na to, co dzieje się przy powierzchni ziemi, szczególnie duży wpływ mają procesy zachodzące w najniższej części atmosfery nazywanej warstwą graniczną (w zależności od warunków meteorologicznych warstwa ta może mieć zasięg od kilkuset metrów do kilku kilometrów, chociaż średnio przyjmuje się za jej wysokość 1 km). Liczba poziomów i ich rozkład w pionie definiuje pionową rozdzielczość modelu. Pionowa i pozioma rozdzielczość modelu zależy od jego skali. Pod tym względem modele dzielimy na globalne, mezoskalowe i regionalne. Różnią one obejmowanym przez nie obszarem. Obecnie najczęściej wykorzystywane są modele mezoskalowe. Nasuwa się zatem od razu wniosek, iż najlepszym wyjściem byłoby zastosowanie modelu globalnego o jak najmniejszym oczku siatki, jednak złożoność obliczeniowa takiego rozwiązania przekracza dzisiejsze możliwości technologiczne. Pośrednim wyjściem jest stosowana koncepcja zagnieżdżania modeli, polegająca na przejściu od modelu globalnego do obejmujących coraz to mniejszy obszar (posiadających większą rozdzielczość), gdzie warunki brzegowe nowego modelu określane są na podstawie poprzedniego kroku, natomiast model globalny obliczany jest na podstawie zadanych warunków początkowych. 3. Zbieranie danych. Wiadomo, że podstawą każdej prognozy są dane obserwacyjne. Od ich jakości bardzo ściśle zależy wiarygodność przewidywanej pogody. Stosowanych jest bardzo wiele metod pomiarowych oraz specjalistycznych przyrządów. Tradycyjne narzędzia używane przez meteorologów od lat to m.in deszczomierz, barometr, wiatromierz, anemometr, ewaporometr, higrometr, psychometr, lizymetr czy w końcu zwykły termometr. Bardziej złożonym narzędziem jest sonda meteorologiczna. Jest to niewielki balonik napełniony helem i zaopatrzony w podstawowe przyrządy meteorologiczne. Jest on wypuszczany w celu zbadania wyższych partii atmosfery. Jest używany dwa razy dziennie w ponad tysiącu punktach na całym świecie, a wyniki pomiarów drogą radiową trafiają do stacji meteorologicznych. Do bardziej złożonych urządzeń należy radar meteorologiczny wykorzystujący fale radiowe do wykrywania i określania położenia chmur, opadów, burz, a także innych zjawisk atmosferycznych. Jeden z takich radarów znajduje sie tuż pod Krakowem, w miejscowości Brzuchania, na trasie do Warszawy. Dane z polskich radarów można oglądać na bierząco na stronie IMGW (http://www.imgw.pl/wl/internet/zz/pogoda/radary.html) Jedna z droższych metod wykorzystuje sztuczne satelity krążące wokół Ziemi. Na podstawie zdjęć satelitarnych można określić położenie chmur, a także wykryć powstawanie oraz śledzić ruch bardzo groźnych zjawisk atmosferycznych, takich jak huragany. Takie zdjęcia zawierające bieżącą sytuacje można także zobaczyć na stronie IMGW (http://www.imgw.pl/wl/internet/zz/pogoda/infra/infra_eur.html).
4. Kontrola i wprowadzanie danych. Informacje o aktualnym stanie atmosfery uzyskane na drodze bezpośrednich pomiarów podlegają rutynowej kontroli, będącej elementem wstępnego przetwarzania danych, postępowanie to ma na celu wychwycenie i eliminacje przypadkowych błędów. Realizacją tego zadania zajmuje się system weryfikacji, podejmujący decyzje o przyjęciu lub odrzuceniu wyników przez wykonanie testów, porównujących dane obserwacyjne z otrzymanymi na podstawie prognozy stosowanego modelu, jak również z dostarczonymi przez sąsiednie stacje. Kolejnym etapem jest proces asymilacji polegający na włączeniu sprawdzonych i wiarygodnych danych do modelu prognostycznego. Wymaga to stworzenia chwilowego, aktualnego obrazu atmosfery uwzględniającego dane pomiarowe, numeryczną prognozę oraz zastosowaną parametryzację w celu otrzymania efektu możliwie najlepiej oddającego rzeczywistość. 5. Niedoskonałość numerycznego prognozowania. Prognozowanie numeryczne nie zawsze jest doskonałe ze względu na to, że: - równania matematyczne nie opisują w sposób doskonały fizycznych procesów zachodzących w atmosferze, modele przedstawiają uproszczoną atmosferę, więc nie wszystkie rzeczywiste procesy mogą być przez nie uwzględniane, - początkowy stan atmosfery nie jest dobrze znany, brakuje odpowiednio gęstej, globalnej sieci obserwacyjnej (szczególnie nad oceanami), - wprowadzane dane nie zawsze są bezbłędne, - modele rozwiązują równania na podstawie siatki grid. Obecnie odległość pomiędzy punktami grid wynosi od 20 do 50 km. Wiele zjawisk ma rozmiary mniejsze niż odległość pomiędzy tymi punktami i nie może być dobrze zanalizowanych przez model (np. chmura burzowa), - dokonywane są niezbyt dokładne odwzorowania terenu w modelach, - modele nie analizują warstwy granicznej z odpowiednią dokładnością, - atmosfera jest chaotyczna, małe różnice w warunkach początkowych wprowadzanych do modelu mogą powodować bardzo duże zmiany w czasie, - każdy model może tworzyć inną prognozę, co szczególnie widoczne jest w dłuższym przedziale czasu. 6. Wiarygodność numerycznego prognozowania. Jak to zostało opisane powyżej, numeryczne metody prognozowania pogody nie mogą z dowolną dokładnością odwzorować tak złożonego obiektu fizycznego jakim jest atmosfera Ziemi. Kiedy wyznaczamy wartości dla danego węzła, otrzymany wynik odnosi się do rejonu o wymiarach wyrażonych w kilometrach, z tego też względu wszelkie małoskalowe szczegóły zostają uśrednione w jego obszarze. Natomiast rzeczywisty pomiar stacji meteorologicznej, stanowiący źródło danych wejściowych, może dostarczyć jedynie informacji charakterystycznych dla lokalnej funkcji stanu atmosfery, konsekwencją czego jest występowanie tak zwanego błędu reprezentacji pomiaru. Należy zatem traktować pomiar jako składową razem z wynikiem otrzymanym na podstawie modelu, dla określania warunków brzegowych
nowej prognozy. Jeśli więc w rozpatrywanym punkcie dysponujemy temperaturą uzyskaną z pomiaru oraz temperaturą przewidzianą przez model, to odpowiednia kombinacja tych dwóch da lepsze oszacowanie rzeczywistej temperatury powietrza niż każda z osobna. Istotnym problemem związanym z numerycznym prognozowaniem jest jego krótkoterminowość, wymuszająca nieustanną kontrolę oraz weryfikacje otrzymanych wyników. Źródeł tego problemu należy doszukiwać się w realizacji rozpatrywanego modelu, użycie dyskretnej siatki dla odwzorowania ciągłej atmosfery, stosowanie uśrednień, niedoskonałości sieci pomiarowej jak również i błędy samych pomiarów, itp. Nie jest to jednak jedyną przyczyną ograniczeń stosowalności numerycznego prognozowania, gdyż problem tkwi także u podstaw każdego modelu, czyli w matematycznym przedstawieniu fundamentalnych praw opisujących atmosferę. Wykorzystywane w numerycznym prognozowaniu pogody komputery posiadają wynikającą z ich konstrukcji skończoną precyzje w reprezentacji liczb rzeczywistych. Objawia się to zaokrąglaniem liczb, co w przypadku rozwiązań niestabilnych może skutkować wystąpieniem tzw. "Butterfly Efect" (efektu motyla). Jego podstawą jest twierdzenie, że małe zaburzenie w systemie może po pewnym czasie skutkować bardzo drastycznymi zmianami całego systemu. Wymusza to konieczność ciągłej weryfikacji wyników otrzymywanych z takich obliczeń. 7. Zastosowanie prognozowania numerycznego w Polsce. Zastosowanie meteorologicznych modeli numerycznych zostało po raz pierwszy w pełni docenione w 1997 roku. W tym roku dzięki danym uzyskanym z trzech modeli, niemieckiego (EM), brytyjskiego (UMPL) - obliczanego w Polsce oraz francuskiego (ALADIN), obliczanego w Czechach przewidziano z dwudniowym wyprzedzeniem wystąpienie dwu fal opadów, jednej od 6 lipca, drugiej od 18 lipca. Szczególnie w przypadku drugiej fali, użycie modeli pozwoliło trafnie podać prognozę czasu, miejsca i intensywności opadu. Opady te nie mogłyby być z takim wyprzedzeniem prognozowane przy użyciu tradycyjnych metod synoptycznych. Istotne przy tych prognozach było to, że te trzy niezależne modele podały prawie identyczną prognozę miejsca, czasu i intensywności opadów. Od tego czasu w Polsce rozpoczął się dynamiczny rozwój tych narzędzi meteorologicznych. Katastrofalna powódź z 1997 roku i związane z tym zwiększone zainteresowanie społeczne coraz doskonalszym prognozowaniem pogody, spowodowała nowe możliwości pozyskania funduszy na rozwój metod prognozowania pogody. Dzięki kredytom z Banku Światowego w 2002 roku zainstalowany został w Instytucie Meteorologii i Gospodarki Wodnej w Warszawie, najnowocześniejszy i najszybszy w Polsce (w obecnym czasie), 100-procesorowy superkomputer SGI Origin 3800. Umożliwiło to wprowadzenie do pracy na terenie Polski dwóch numerycznych modeli meteorologicznych. Pierwszy z nich otrzymany został z konsorcjum COSMO, którego członkiem jest Polska (LM DWD), drugi wprowadzony we współpracy z francuską służbą Meteo-France (ALADIN). Do tego czasu polskie służby musiały korzystać głównie z wyników obliczeń spoza naszego kraju (jedyny działający wcześniej w kraju model to UMPL, opracowywany przez Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego przy Uniwersytecie Warszawskim od 1997 roku). Wraz z rozbudową naziemnych automatycznych stacji
pomiarowych, sieci radarowych i sodarowych oraz zwiększonego dostępu do zdjęć lotniczych i satelitarnych zwiększyła się też ilość dostępnych danych, stanowiących punkt wyjścia dla modeli numerycznych. Tak więc, samo uruchomienie modelu jest początkiem rozbudowy nowoczesnego systemu prognostycznego w Polsce. Także nasza uczelnia ma swój wkład z tej dziedzinie. Sekcja Numerycznego Prognozowania Pogody ZPM IMGW w Krakowie jest od roku 1998 częścią projektu Aladin. Początki tego przedsięwzięcia sięgają roku 1990, kiedy to METEO-France zaproponowała służbom meteorologicznym państw Europy Centralnej i Wschodniej przyłączenie się do projektu Aladin, mającego na celu rozwijanie współpracy w dziedzinie numerycznego prognozowania pogody. Projekt przewidywał przygotowanie i utrzymanie wymagającego umiarkowanych zasobów obliczeniowych systemu numerycznego prognozowania pogody dla ograniczonych obszarów geograficznych, modelowanie procesów atmosferycznych z wysoką rozdzielczością przestrzenną, a także prowadzenie prac nad rozwijaniem zaawansowanego narzędzia prognostycznego numerycznego modelu mezoskalowego, z którego korzyści czerpać mają wszystkie służby meteorologiczne krajów wchodzących w skład grupy Aladin. Obecnie w przedsięwzięciu bierze dział już piętnaście państw. Ponad stu naukowców, zrzeszonych w krajowe zespoły badawcze (prezentujące wysoki poziom naukowy) nieustannie pracuje nad realizacją celów projektu oraz rozwojem modelu, wymienia się doświadczeniami poprzez zjazdy, warsztaty, nieformalne spotkania, a także ukazujący się periodyk Newsletters. Zgodnie z założeniami projektu, do obliczeń wykorzystywane są bardzo zróżnicowane architektury sprzętowe, a w Krakowie obliczenia wykonywane są właśnie w Akademicki Centrum Komputerowym CYFRONET AGH. 8. Przyszłość prognozowania numerycznego. Przyszłość prognozowania numerycznego zależy od rozwoju mocy obliczeniowej superkomputer ów oraz zdolności wykorzystania jej przez meteorologów. Rozwój komputerów może zwiększyć dokładność modeli numerycznych, a co za tym idzie umożliwić prognozowanie zjawisk o bardzo małych rozmiarach, np. bryzy morskiej. Rozwój metod pomiarowych spowoduje dostarczanie danych od powierzchni gruntu aż do ostatnich warstw atmosfery. W przyszłości pracę człowieka zastąpią komputery sporządzające bardziej dokładne i specjalistyczne prognozy.
9. Źródła. Przy pracy nad tekstem pomocy udzielił anonimowy pracownik lotniskowej służby meteorologicznej 32 Bazy Lotnicznej w Łasku. Zródła elektroniczne wykorzystywane podczas redagowania tekstu: http://meteo.icm.edu.pl/pages/nwp.html http://meteo.icm.edu.pl/java/prog.html http://www.scn.org/~bm733/infaq.htm http://news.astronet.pl/print.cgi?3896 http://www.wrh.noaa.gov/wrh/nwp.php http://www.met-office.gov.uk/research/nwp/index.html http://www.stronameteo.go-longhorn.net/strona,laboratorium/l_metody.htm http://apollo.lsc.vsc.edu/classes/met130/notes/chapter14/models.html http://weather.icm.edu.pl/ http://www.cnrm.meteo.fr/aladin/ http://www.cyf-kr.edu.pl/ http://www.worldweather.org/ http://www.ecmwf.int/ http://www.imgw.pl