równanie Poissona jako modelowe eliptyczne

Podobne dokumenty
równanie Poissona jako modelowe eliptyczne funkcjonał działania, zbieżność, relaksacje wielosiatkowe wnętrze brzeg

y i b) metoda różnic skończonych nadal problem nieliniowy 2 go rzędu z warunkiem Dirichleta

Równania różniczkowe cząstkowe (RRCz) równanie eliptyczne równanie Poissona

Metody Obliczeniowe w Nauce i Technice

Metody numeryczne. Janusz Szwabiński. Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/50

Układy równań liniowych. Krzysztof Patan

Projekt 6: Równanie Poissona - rozwiązanie metodą algebraiczną.

Równania różniczkowe zwyczajne: problem brzegowy [1D]

1.1 Przegląd wybranych równań i modeli fizycznych. , u x1 x 2

x y

Całkowanie numeryczne

Rozwiązywanie układów równań liniowych

Metoda elementów brzegowych

Zaawansowane metody numeryczne

pozbyć się ograniczenia na krok czasowy ze strony bezwzględnej stabilności: niejawna metoda Eulera

numeryczne rozwiązywanie równań całkowych r i

Γ D Γ Ν. Metoda elementów skończonych, problemy dwuwymiarowe. problem modelowy: w Ω. warunki brzegowe: Dirichleta. na Γ D. na Γ N.

region bezwzględnej stabilności dla ogólnej niejawnej metody RK R(z) 1 może być nieograniczony niejawna 1 stopniowa

Elektrostatyka, cz. 1

Strumień Prawo Gaussa Rozkład ładunku Płaszczyzna Płaszczyzny Prawo Gaussa i jego zastosowanie

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Egzamin z Metod Numerycznych ZSI, Egzamin, Gr. A

1 Symulacja procesów cieplnych 1. 2 Algorytm MES 2. 3 Implementacja rozwiązania 2. 4 Całkowanie numeryczne w MES 3. k z (t) t ) k y (t) t )

KADD Metoda najmniejszych kwadratów funkcje nieliniowe

Obliczenia iteracyjne

Metoda różnic skończonych dla

Równania różniczkowe zwyczajne: problem brzegowy [1D]

Zastosowanie MES do rozwiązania problemu ustalonego przepływu ciepła w obszarze 2D

3. Macierze i Układy Równań Liniowych

Zagdanienia do egzaminu z Inżynierskich Metod Numerycznych - semestr 1

; B = Wykonaj poniższe obliczenia: Mnożenia, transpozycje etc wykonuję programem i przepisuję wyniki. Mam nadzieję, że umiesz mnożyć macierze...

Inżynierskie metody numeryczne II. Konsultacje: wtorek 8-9:30. Wykład

Zagdanienia do egzaminu z Inżynierskich Metod Numerycznych - semestr zimowy 2017/2018

Metoda eliminacji Gaussa

Janusz Adamowski METODY OBLICZENIOWE FIZYKI Zastosowanie eliptycznych równa«ró»niczkowych

Wstęp do metod numerycznych 9a. Układy równań algebraicznych. P. F. Góra

Mathcad c.d. - Macierze, wykresy 3D, rozwiązywanie równań, pochodne i całki, animacje

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

Równania różniczkowe: poza metodę różnic skończonych -rozwiązania w bazie funkcyjnej

5. Rozwiązywanie układów równań liniowych

Matematyka dyskretna. Andrzej Łachwa, UJ, /15

04 Układy równań i rozkłady macierzy - Ćwiczenia. Przykład 1 A =

Modyfikacja schematu SCPF obliczeń energii polaryzacji

Metody numeryczne Wykład 4

Równania różniczkowe cząstkowe. Wojciech Szewczuk

równania funkcyjne opisujące relacje spełniane przez pochodne nieznanej (poszukiwanej) funkcji

27. RÓWNANIA RÓŻNICZKOWE CZĄSTKOWE

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Metody rozwiązywania równań nieliniowych

Równania różniczkowe cząstkowe drugiego rzędu

- prędkość masy wynikająca z innych procesów, np. adwekcji, naprężeń itd.

Inżynierskie metody analizy numerycznej i planowanie eksperymentu / Ireneusz Czajka, Andrzej Gołaś. Kraków, Spis treści

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Wyprowadzenie prawa Gaussa z prawa Coulomba

Funkcje dwóch zmiennych

Elektrodynamika Część 1 Elektrostatyka Ryszard Tanaś Zakład Optyki Nieliniowej, UAM

Elektrodynamika Część 1 Elektrostatyka Ryszard Tanaś Zakład Optyki Nieliniowej, UAM

Dystrybucje, wiadomości wstępne (I)

OPTYKA KWANTOWA Wykład dla 5. roku Fizyki

Rozwiązywanie układów równań liniowych metody przybliżone Materiały pomocnicze do ćwiczeń z metod numerycznych

Numeryczna algebra liniowa. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1

Projekt 9: Dyfuzja ciepła - metoda Cranck-Nicloson.

PROGRAMOWANIE KWADRATOWE

7. CIĄGI. WYKŁAD 5. Przykłady :

Metoda elementów brzegowych

Analiza numeryczna Lista nr 3 (ćwiczenia) x x 2 n x.

Metody numeryczne I Równania nieliniowe

Układy równań liniowych. Ax = b (1)

Tydzień nr 9-10 (16 maja - 29 maja), Równania różniczkowe, wartości własne, funkcja wykładnicza od operatora - Matematyka II 2010/2011L

Systemy. Krzysztof Patan

Lista 6. Kamil Matuszewski 13 kwietnia D n =

Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.

Analiza numeryczna Kurs INP002009W. Wykłady 6 i 7 Rozwiązywanie układów równań liniowych. Karol Tarnowski A-1 p.

[ P ] T PODSTAWY I ZASTOSOWANIA INŻYNIERSKIE MES. [ u v u v u v ] T. wykład 4. Element trójkątny płaski stan (naprężenia lub odkształcenia)

2. Układy równań liniowych

Zajęcia: VBA TEMAT: VBA PROCEDURY NUMERYCZNE Metoda bisekcji i metoda trapezów

Prędkość fazowa i grupowa fali elektromagnetycznej w falowodzie

ANALIZA MATEMATYCZNA

KLUCZ PUNKTOWANIA ODPOWIEDZI

Równania Maxwella redukują się w przypadku statycznego pola elektrycznego do postaci: D= E

Rachunek całkowy - całka oznaczona

Rozwiązywanie równań różniczkowych cząstkowych metodą elementów skończonych - wprowadzenie

Przykładowe zadania z teorii liczb

1 Równania różniczkowe zwyczajne o rozdzielonych zmiennych

METODY ROZWIĄZYWANIA RÓWNAŃ NIELINIOWYCH

Informatyka I Lab 06, r.a. 2011/2012 prow. Sławomir Czarnecki. Zadania na laboratorium nr. 6

WYKŁADY Z MATEMATYKI DLA STUDENTÓW UCZELNI EKONOMICZNYCH

Rozwiązywanie równań nieliniowych i ich układów. Wyznaczanie zer wielomianów.

Wstęp do Informatyki zadania ze złożoności obliczeniowej z rozwiązaniami

Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych)

KADD Minimalizacja funkcji

dr inż. Damian Słota Gliwice r. Instytut Matematyki Politechnika Śląska

3. FUNKCJA LINIOWA. gdzie ; ół,.

ALGEBRA Z GEOMETRIĄ ANALITYCZNĄ zadania z odpowiedziami

Równania różniczkowe: -rozwiązania w bazie funkcyjnej (porzucamy metodę różnic skończonych)

Rozwiązywanie algebraicznych układów równań liniowych metodami iteracyjnymi

Δt)] niejawny schemat Eulera [globalny błąd O(Δt)] u(t) f(t,u) f(t,u) u(t) [t+ Δt,u(t+Δt)]

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

x 2 = a RÓWNANIA KWADRATOWE 1. Wprowadzenie do równań kwadratowych 2. Proste równania kwadratowe Równanie kwadratowe typu:

1 Metody rozwiązywania równań nieliniowych. Postawienie problemu

Transkrypt:

równanie Poissona jako modelowe eliptyczne funkcjonał działania, zbieżność, relaksacje wielosiatkowe Eliptyczne: opisuje stany stacjonarne 1) Rozkład potencjału elektrostatycznego [minimum działania w układzie ładunek/pole] 2) Rozkład temperatury przy stacjonarnym przepływie ciepła [ granica czasowa problemu parabolicznego ]... wnętrze brzeg na brzegu musimy określić wartość rozwiązania lub jego pochodnej normalnej lub związek między nimi

Warto wiedzieć: (zasada maximum) rozwiązanie równanie Laplace aosiągaa wartości ekstremalne na brzegach (dowód np. u Weinbergera) wnętrze dla metody RS: 0 brzeg skoro każdy punkt z wewnątrz obszaru całkowania jest średnią arytmetyczną z sąsiadów nigdy nie będzie większy od żadnego z nich

Schemat Metropolisa a równania różniczkowe - wariacyjna metoda MC rozwiązywania równania Poissona przypomnienie y=+1 na brzegu u=0 pokażemy (w swoim czasie), żedlau u - rozwiązania r.poissona minimalna jest całka: y=-1 x=-1 x=+1 rozwiązanie próbne: r. dokładne: C,a parametry wariacyjne należy wybrać tak aby S - optymalne

Z elektrostatyki poprzez metodę różnic skończonych do równania Poissona i metod relaksacji i nadrelaksacji. Działanie dla układu ładunek ( ρ ) + pole : potencjał pola elektrycznego (to nie jest energia układu energia będzie gdy znak przy ρ będzie +) wektor pola elektrycznego rozkład ładunku funkcja podcałkowa: tzw. lagranżjan układu pole - ładunek Działanie jest najmniejsze dla potencjału, który spełnia równanie Poissona Zobaczymy to w 1D:

działanie a równanie Poissona w 1D Z warunkami ibrzegowymi itypu Dirichleta Diihlt Dla jakiego wartość działania jest ekstremalna? (w praktyce minimalna, bo maksymalna nie istnieje). Ogólny problem minimum funkcjonału (całki funkcjonalnej) optymalny potencjał: minimalizuje działanie bliski optymalnemu i spełniający te same warunki brzegowe mały parametr dowolna funkcja ciągła ł z pochodną

z definicji: Wartość α=0 jest optymalna: Pochodna pod całkę: ( wstawiamy α=0 )

pochodna iloczynu [całkowanie przez części] dz czyli: dowolna v(-d/2)=v(d/2)=0 równanie Eulera-Lagrange a na funkcję dla której całka funkcjonalna minimalna

Równanie Eulera-Lagrange a dla energii układu ładunek+pole minimalne działanie dostajemy dla potencjału spełniającego równanie Poissona

Działanie na siatce różnicowej z Zdyskretyzowane działanie najprostszy iloraz różnicowy pierwszej pochodnej Minimum zdyskretyzowanego działania dla wszystkich oczek siatki i

wysumowane z dlt deltami ikroneckera:

wysumowane z dlt deltami ikroneckera: z zasady najmniejszego działania na siatce dostaliśmy dokładnie takie samo równanie, jak po bezpośredniej dyskretyzacji równania Poissona: z ilorazem róznicowym drugiej pochodnej

wartość działania: pozwala ocenić zbieżność procedur iteracyjnych ponadto: nieoceniona do kontroli jakości rozwiązania w metodzie elementów skończonych (wybór elementów, wybór funkcji kształtu)

Zbieżność procedury relaksacyjnej Przepis relaksacyjny Działanie: Przyczynek do a od punktu i: Wyliczmy zmianę funkcjonału działania jeśli iteracji poddany zostanie TYLKO i-ty punkt siatki.... Relaksacja potencjałuwkażdym z punktów prowadzi do obniżenia wartości działania! [równanie P. zostanie rozwiązane gdy działanie obniży się do minimalnego]

Nadrelaksacja i podrelaksacja Uogólnijmy schemat relaksacyjny: y do postaci: Wracamy do równania na zmianę działania: (wygląda jak część starego rozwiązania+część nowego)... <0 dla ω (0,2) ω =1 relaksacja ω (0,1) podrelaksacja - mniej nowego rozwiązania akceptowane w iteracji ω (1,2) nadrelaksacja stare rozwiązanie jest usuwane z funkcji uwaga: dotyczy relaksacji punktowej (nie globalnej)! Na laboratorium zobaczymy, że globalna niezbieżna dla ω>1

ρ=1 pętla po i pętla po j ρ=0ρ nad-, pod- i relaksacja w praktyce (laboratorium) φ = 0 Rozwiązanie:

Zdyskretyzowane równanie Poissona jako układ równań liniowych 1D Δz z φ(-d/2) φ(d/2) Metoda różnic skończonych Układ równań Au=b

niezerowe elementy w macierzy A (N na N), dla 3D równania Laplace a macierze są duże: rozmiar dla 3D: N= 10 6 już w najprostszych zastosowaniach (100 na 100 na 100), macierz 10 6 x 10 6 - około 1 TB, ale do zapamiętania tylko 7 przekątnych czyli najwyżej j 7 10 6 8 bajtów = 55 MB faktycznie dla równania Laplace a wystarczy pamiętać strukturę (kilka liczb) Rozwiązać metodą dokładną czy iteracyjną?

Rozwiązujemy ą raczej metodą ą iteracyjną ą a nie dokładną: ą metody dokładne : przepis dający rozwiązanie w ściśle określonej liczbie kroków złożoność rzędu N 3 [(operacje na macierzy El. Gaussa, LU N 3 ) podstawienie N 2 ] operacje na macierzy niszczą jej jjrzadką, pasmową strukturę (ogólna macierz double 10 6 na 10 6 - około 1 TB) metody y iteracyjne : x:=mx+c (dla układu Ax=b, macierz iteracji M, różna od A) każda iteracja N 2 operacji nie zmienia struktury macierzy problem zbieżności i strategii prowadzenia iteracji

układ równań: Ax=b metody iteracyjne, postać ogólna: x:=mx+c konstrukcja M: dokładne rozwiązanie układu musi spełniać przepis iteracyjny x=mx+c dobrze gdy M rzadka (dla Jakobiego jest, ale dla GS nie) równanie własne metody iteracyjne zbieżne wtedy i tylko wtedy, gdy promień spektralny macierzy iteracji M [największy moduł wartości własnej] ρ(m)<1

metody iteracyjne zbieżne wtedy i tylko wtedy, gdy promień spektralny macierzy iteracji M [największy moduł wartości własnej] ρ(m)<1 uzasadnienie: wektor w k-tej iteracji błąd w k-tej iteracji dokładne rozwiązanie Ax=b oraz x=mx+c wektory własne = użyjemy jako bazy potęga index błąd znika do zera z k nieskończonym wtedy i tylko wtedy, gdy całe widmo mniejsze co do modułu od jedynki

Jak budujemy macierz iteracji? tak, żeby y 1) dokładne rozwiązanie x spełniało: Ax=b oraz x=mx+c 2) ρ(m) <1 i tak małe jak to możliwe asymptotyczny wskaźnik (tempo) zbieżności: R =- log 10 [ρ(m)] (rate of convergence) konstrukcja iteracji tak aby Ax=b, x=mx+c A=B+C (B+C)x=b Bx=b-Cx (B musi nieosobliwa) x:= - B -1 Cx +B -1 b M= -B -1 C, c=b -1 b metoda Jakobiego: B=D, C=(L+U) Metoda Jakobiego dla równań produkowanych przez 1D Poissona:

x:= - B -1 Cx +B -1 b wybór Jakobiego: B=D, C=(L+U), x:= - D -1 (L+U)x +D -1 b W równaniu występują dwa wektory (dla iteracji k i k+1) Metoda Jakobiego to relaksacja globalna Czy zbieżna? (na laboratorium zobaczymy, że tak) aby wykazać zbieżność należy zbadać widmo macierzy M.

wybór Jakobiego: B=D, C=(L+U) M= -B -1 C, c=b -1 b widmo wartości własnych: (N=20) λ 1.0 0.5 0.4 i 0.0-0.5 metoda zbieżna! ż 0.4 0.2 0.0-0.2-0.4-1.0 0 4 8 12 16 20 i 0.4 0.3 0.2 0.1 v 0.0 0 4 8 12 16 20 Mv=λv składowa błędu b. wolno gasnąca w iteracji 0.2 składowe błędu 0.0 o przeciętnej zmienności -0.2-0.4 przestrzennej najszybciej 0 4 8 12 16 20 i 0.4 gasną w iteracji 0.2 b.wolno 0.0 zgaśnie, -0.2 przy iteracjach -0.4 0 4 8 12 16 20 i zmienia znak

macierz iteracji Jakobiego: formuły analityczne na wektory i wartości własne N liczba oczek siatki k=1,n 0.4 0.3 0.2 0.1 0.0 0 4 8 12 16 20 i 1.0 0.5 0.4 0.2 0.0-0.2-0.4 0 4 8 12 16 20 i 0.4 0.2 λ 0.0-0.5 0.0-0.2-0.4 0 4 8 12 16 20 i 0.4-1.0 0 4 8 k 12 16 20 0.2 0.0-0.2-0.4 0 4 8 12 16 20 i

macierz iteracji Jakobiego: formuły analityczne na wektory i wartości własne N liczba oczek siatki k=1,n 0.4 0.3 0.2 0.1 0.0 0 4 8 12 16 20 i λ 1.0 0.5 0.0 0.4 0.2 0.0-0.2-0.4 0 4 8 12 16 20 i 0.4 0.2 im gęstsza siatka, tym argument cosinusa dla k=1 0.0 bliższy 0: -0.2-0.5-1.0 0 4 8 k 12 16 20-0.4 0 4 8 12 16 20 i 0.4 0.2 0.0-0.2-0.4 0 4 8 12 16 20 i bardzo przykra wiadomość: iteracja tym wolniejsza im gęstsza siatka! (większa liczba punktów N)

Gauss-Seidel : Ax=b Bx=b-Cx B=(L+D), C=U (L+D)x k+1 =b-ux k w zastosowaniu do równania z dyskretyzacji Laplasjanu: (*) (średnia arytmetyczna: z sąsiada z prawej strony z poprzedniej iteracji oraz z sąsiada ą z lewej strony z iteracji bieżącej) równość (*) możemy stosować jak przepis iteracyjny bo sąsiad z lewej już policzony (przeglądamy od lewej)

Jacobi: Jacobi: (relaksacja globalna całego potencjału) for i=1,n xn[i]=(x[i+1]+x[i-1])/2 x=xn GS: GS: (relaksacja punktowa) for i=1,n x[i]=(x[i+1]+x[i-1])/2 mniej pamięci wymaga, Zobaczmy na laboratorium, że jest również szybsza spójrzmy na rozwiązanie problemu własnego dla macierzy iteracji

A=B+C (B musi nieosobliwa) (B+C)x=b Bx=b-Cx x:= - B -1 Cx +B -1 b M= -B -1 C, c=b -1 b w metodzie GS faktycznie M się stosuje już rozbitą na składowe dla potrzeb analizy musimy ją jednak skonstruować Gaussa-Seidla: B=(L+D), C=U (dla dyskretyzacji operatora Laplace a) λ λ 1.0 0.8 0.6 0.4 0.2 jest zbieżna! Re [V] 1.2 0.8 0.4 0.0 0.0 8 GS (im większa wartość własna 1 tym wolniejsza zmienność 2 wektora własnego) 3-0.4 0 4 8 12 16 20 relaksacja GS ma własność wygładzania błędu (error smoothener) 0 4 8 12 16 20 nr

metoda Jakobiego vs relaksacja Gaussa Seidla.987.977 to nie jest całkiem mała ł różnica, dla tysiąca iteracji:.987^1000=2e-6,.977^1000=8e-11 1.00 0.80 λ 0.60 0.40 0.20 0.00 0.00 4.00 8.00 12.00 16.00 20.00 0 4 8 12 16 20 nr uwaga: wektory własne: różne dla J i GS

Jakość rozwiązania : Ax=b pozostałość (residuum): r=ax-b przykład numeryczny problem modelowy: 200 punktów start od φ=0 0.00 φ(-1)=φ(1)=0 ρ=exp(-100 x 2 ) R=suma r i 0.10 0.08-0.04-0.08 R -0.12 GS Jacobi 0.06 0.04-0.16 0.02 0.00-1.00-0.50 0.00 0.50 1.00-0.20 0 10000 20000 30000 iter

GS vs Jacobi: start od wektora najkrótszej długości fali 40000.00 1-sza iteracja 40000.00 k=n 20000.00 20000.00 r 0.00 r 0.00-20000.00-20000.00 druga -40000.00-1.00-0.50 0.00 0.50 1.00 200 punktów -40000.00-1.00-0.50 0.00 0.50 1.00 40000.00 r 20000.00 0.00 GS: szybkozmienny błąd szybko tłumi smoothener -20000.00-40000.00-1.00-0.50 0.00 0.50 1.00 10 iteracja Jacobi: wolno gasi zarówno najszybsze jak i najwolniejsze błędy

GS - smoothener: start od superpozycji wektorów z k=1 i k=n 1.20 0.80 1.20 0.80 gdy relaksacja zwalnia błąd jest superpozycją wektorów własnych o niskich wartościach własnych 0.40 1 - iteracja 0.40 2 - iteracja 0.00 0.00 0.00 1.20-1.00-0.50 0.00 0.50 1.00-1.00-0.50 0.00 0.50 1.00 1.20 0.80 0.80-0.04 004-0.08 R -0.12 GS 0.40 0.40 5 - iteracja 10 - iteracja 0.00 0.00-1.00-0.50 0.00 0.50 1.00-1.00-0.50 0.00 0.50 1.00-0.16-0.20 0 10000 20000 30000 iter

Error of initial guess Error after 5 relaxation sweeps Error after 10 relaxations Fast error smoothing slow solution Error after 15 relaxations Achi Brandt The Weizmann Institute of Science UCLA www.wisdom.weizmann.ac.il/~achi

10 iteracja, relaksacja a nadrelaksacja i gaszenie błędów 1.20 1.20 w=1 w=1.5 0.80 0.80 0.40 0.40 0.00-1.00-0.50 0.00 0.50 1.00 0.00-1.00-0.50 0.00 0.50 1.00 nadrelaksacja nie wygładza błędów

GS i J: im gęstsza siatka tym wynik dokładniejszy ale iteracja bardziej kosztowna (N 2 ), co gorzej - wolniej zbieżna w GS - metodzie wygładzającej błąd szybkozmienny znika najszybciej Metoda zagęszczania siatki (najprostsza wielosiatkowa): Rozwiązanie najpierw na rzadkiej: eliminacja błędu wolnozmiennego, który można opisać na siatce rzadkiej. Re [V] 1.2 0.8 0.4 0.0 8 3-0.4 0 4 8 12 16 20 2 1 wek.w 1 na siatce rzadkiej opiszemy bez problemu Rozwiązanie przepisane na gęstszą jako punkt startowy do nowego rachunku: przy starcie ujawni się błąd szybkozmienny z przepisania. Możemy liczyć, że szybko zgaśnie.

Metoda globalnego zagęszczania siatki: Najpierw rozwiązać tanie równanie na rzadkiej siatce, dopiero następnie na gęstszej unikamy pojawienia się wolnozmiennego i wolnozbieżnego błędu na najgęstszej siatce laboratorium Przykład 2D: siatka (N na N) = N 2 punktów, macierz N 2 na N 2 1) Rozwiązujemy zdyskretyzowane równanie różniczkowe na siatce it Δx Δ (czerwone punkty) )(iterujemy do zbieżności) ż ś i) 2) Oszacowujemy wartość funkcji na punktach rozłożonych na siatce o skoku Δx/2 (nowe-niebieskie punkty) 3) Rozwiązujemy równanie na nowej siatce (czerwone+niebieskie) (iterujemy do zbieżności) 4) itd. aż po N podziałach dojdziemy do Δx/2 N Im więcej wymiarów, tym strategia bardziej użyteczna.

laboratorium rozwiązanie na siatce 9 x 9 (czarne kwadraty) i nowa siatka 17 x 17 (czarne+puste kwadraty) Start do iteracji na gęstszej siatce: Punkty stare zostawiamy bez zmian Nowe punkty między dwoma starymi średnia arytmetyczna z dwóch czarnych sąsiadów Pozostałe nowe-średnia z czterech sąsiadów leżących w narożnikach kwadratu

laboratorium pola elektryc cznego energia 10000 8000 6000 4000 uznajemy że zbieżność osiągnięta ę gdy gyenergia pola z iteracji na iterację zmienia się mniej niż 10-9 start na siatce docelowej 2000 0 1 10 100 1000 10000 nr iteracji zagęszczanie siatki

pola elektryc cznego energia 10000 8000 6000 4000 uznajemy że zbieżność osiągnięta ę gdy gyenergia pola z iteracji na iterację zmienia się mniej niż 10-9 start na siatce docelowej 2000 0 1 10 100 1000 10000 nr iteracji zagęszczanie siatki

580 zagęszczanie siatki: energia pola elek ktrycznego 570 560 33 na 33 129 na 129 9 na 9 17 na 17 65 na 65 550 0 100 200 300 nr iteracji na najgęstszej siatce wykonujemy około 40 iteracji zamiast 6500

zagęszczanie siatki dla równania Laplace a 2D (przepływ stagnacyjny) 10 8 6 4 2 0-2 start od zera wewnątrz pudła: Chcemy rozwiązać równanie Laplace a na potencjał przepływu dla (x,y) [-3.2,3.2] 3232] nasiatceoskoku skoku Δx=Δy=0.05 05 (siatka 129 na 129 punktów). Uznajemy, -4-6 -8-10 -10-8 -6-4 -2 0 2 4 6 8 10 Monitorujemy sumę kwadratów pozostałości ( 2 φ) U j że rozwiązanie i jest osiągnięte i gdy R 2 < 10 9. 1E+4 1E+3 1E+2 1E+1 1E+0 1E-1 1E-2 1E-3 1E-4 1E-5 1E-6 1E-7 1E-8 1E-9 GS błąd w funkcji numeru iteracji start na siatce docelowej 129 na 129 1E-10 1 10 100 1000 10000 R 2 1E+2 1E+1 Zbieżność przy zastosowaniu zagęszczania 1E+0 5 na 5 9 na 9 1E-1 1E-2 1E-3 1E-4 1E-5 1E-6 1E-7 1E-8 1E-9 1E 8 129 na 129 17 na 17 35 na 35 1E-10 1 10 100 Iteracja na pełnej siatce 400 razy szybsza. (czas spędzony na rzadszych siatkach zaniedbywalny)

Metody wielosiatkowe - idea: rachunki na 2 lub więcej siatkach (różnej gęstości, Δx, 2Δx) 1) rachunek na gęstej siatce przy ypomocy iteracji wygładzającej j = błąd szybkozmienny szybko gaśnie (wykonujemy kilka iteracji, nie walczymy o zbieżność) 2) błąd wolnozmienny rzutowany na rzadką siatkę (udaje się go prawie dokładnie wyrzutować bo jest wolnozmienny) i eliminowany przez iterację na rzadkiej siatce [iterowanie do zbieżności, najlepiej nadrelaksacją] 3) wartości na siatce gęstej poprawione o błąd wolnozmienny wyliczony na siatce rzadkiej idziemy do (1)

Metoda dwusiatkowa Ax=c (V cycle) Dwie siatki, ze skokiem Δx i 2Δx. 1. Iterujemy równanie x:=mx+b na gęstej siatce ν 1 razy dla wygładzenia błędów. uzyskane przybliżenie wynik dokładny błąd 2. Liczymy pozostałość c równanie na błąd gdy znamy rozwiązanie Ae=r, znamy również rozwiązanie Ax=c. ALE: Ae=r wystarczy rozwiązać na rzadszej siatce, bo e jest gładki 3. Rzutujemy pozostałość na siatkę rzadką operator restrykcji (restriction)

3. Rzutujemy pozostałość na siatkę 2Δx 4. Przenosimy uzyskany błąd na siatkę gęstą rozwiązujemy (iterujemy aż do zbieżności) i poprawiamy rozwiązanie operator przedłużenia (prolongation) 5. Powyższy zabieg wprowadza nowy błąd (rzutowania I nie są dokładne) - iterujemy równanie ν 2 razy na gęstszej siatce dla usunięcia szybkozmiennej części błędu Δx 2Δx V-cycle

macierzowa forma najprostszych operatorów restrykcji i przedłużenia: przybliżenie liniowe (równanie Laplace a 1D) z czerwonych i niebieskich do czerwonych z czerwonych hdo niebieskich hi czerwonych

10 8 pozostałość w kwadracie dla iterowanego V-cyklu 6 4 2 0-2 -4 1E+4-6 -8-10 -10-8 -6-4 -2 0 2 4 6 8 10 5 iteracji wygładzających na siatce 129 na 129 R 2 1E+3 odcięcie błędu rozwiązanie zbieżne na siatce 65 na 65 1E+2 1E+1 1E+0 1E-1 1 2 3 4 5

V-cycle z wielosiatkowym rozwiązaniem na siatce o skoku 2Δx Δx 2Δx 3Δx 4Δx Równanie na błąd (na rzadszej siatce) ma tę samą formę co problem oryginalny można je rozwiązać w ten sam sposób z rachunkiem na rzadszej siatce rachunki na siatkach gęstszych po kilka iteracji wygładzających -do zbieżności relaksowana tylko iteracja na najrzadszej siatce

Aby chronić prywatność użytkownika, program PowerPoint uniemożliwił automatyczne pobranie tego zewnętrznego obrazu. Aby pobrać i wyświetlić ten obraz, kliknij przycisk Opcje na pasku komunikatów, a następnie kliknij opcję Włącz zawartość zewnętrzną. lokalne zagęszczanie siatki dla równania Laplace a 2D Komora drutowa: detektor cząstek cienkie druty (anody) w dużym pudle (katodzie) Co zrobić jeśli interesuje nas tylko bliskie otoczenie jednego z drutów? Można dać bardzo gęstą siatkę. Może nie starczyć pamięci. Lepszy pomysł: wyliczyć potencjał metodą kolejnych powiększeń WB dla każdego powiększenia wyliczyć zgodnie z metodą ą zagęszczania siatki. Mamy uziemione pudło metalowe o rozmiarach 1cm na 1cm. Dwa druty o promieniu 1.2 mm w środku pudła. Odległe o 6 mm względem siebie. Na lewy podajemy potencjał +1, na prawy +1. Wyznaczyć rozkład potencjału w środku pudła. 0.5 Wynik: 0.25 0.06 0.4 0.2 0.1 0.04 0.3 0.15 0.2 0.1 0.05 0.02 0.1 0.05 0 0 0 0-0.1-0.05-0.02-0.2-0.1-0.05-0.3-0.15-0.04-0.4-0.2-0.1-0.06-0.5-0.5-0.4-0.3-0.2-0.1 0 0.1 0.2 0.3 0.4 0.5-0.25-0.25-0.2-0.15-0.1-0.05 0 0.05 0.1 0.15 0.2 0.25-0.1-0.05 0 0.05 0.1-0.06-0.04-0.02 0 0.02 0.04 0.06 Każde powiększenie liczone na siatce 50 x 50 punktów.