Bładzenie przypadkowe i lokalizacja

Podobne dokumenty
Fizyka na usługach inżynierii finansowej 1

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Grafy Alberta-Barabasiego

Wstęp do sieci neuronowych, wykład 12 Łańcuchy Markowa

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Wstęp do sieci neuronowych, wykład 11 Łańcuchy Markova

Teoria ze Wstępu do analizy stochastycznej

Procesy stochastyczne

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 4 ZADANIA - ZESTAW 4

Superdyfuzja. Maria Knorps. Wydział Fizyki Technicznej i Matematyki stosowanej, Politechnika Gdańska

Układy statystyczne. Jacek Jurkowski, Fizyka Statystyczna. Instytut Fizyki

Wykład 2. Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova)

Strategie kwantowe w teorii gier

Algorytmy stochastyczne laboratorium 03

Modelowanie sieci złożonych

PROCESY STOCHASTYCZNE. PEWNE KLASY PROCESÓW STOCHASTYCZNYCH Definicja. Procesem stochastycznym nazywamy rodzinę zmiennych losowych X(t) = X(t, ω)

1 Relacje i odwzorowania

Komputerowa analiza danych doświadczalnych

Modelowanie zależności. Matematyczne podstawy teorii ryzyka i ich zastosowanie R. Łochowski

Procesy stochastyczne

Normy wektorów i macierzy

Elementy modelowania matematycznego

Model Pasywnego Trasera w Lokalnie Ergodycznym Środowisku

19 marzec, Łańcuchy Markowa z czasem dyskretnym. Procesy Stochastyczne, wykład 6, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Procesy stochastyczne

Rachunek prawdopodobieństwa i statystyka

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

R Z N C. p11. a!b! = b (a b)!b! d n dx n [xn sin x] = x n(n k) (sin x) (n) = n(n 1) (n k + 1) sin(x + kπ. n(n 1) (n k + 1) sin(x + lπ 2 )

Zadania z Rachunku Prawdopodobieństwa III - 1

Wykładnicze grafy przypadkowe: teoria i przykłady zastosowań do analizy rzeczywistych sieci złożonych

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

Równowaga. równowaga metastabilna (niepełna) równowaga niestabilna (nietrwała) równowaga stabilna (pełna) brak równowagi rozpraszanie energii

Stara i nowa teoria kwantowa

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Spis treści. Przedmowa PRZESTRZEŃ I CZAS W FIZYCE NEWTONOWSKIEJ ORAZ SZCZEGÓLNEJ TEORII. 1 Grawitacja 3. 2 Geometria jako fizyka 14

Ćwiczenie 3: Wprowadzenie do programu Matlab

Liga zadaniowa Seria I, 2014/2015, Piotr Nayar, Marta Strzelecka

Zadania z Procesów Stochastycznych 1

Zawansowane modele wyborów dyskretnych

Projekt 6: Równanie Poissona - rozwiązanie metodą algebraiczną.

Logarytmiczne równanie Schrödingera w obracajacej się pułapce harmonicznej

Komputerowa analiza danych doświadczalnych. Wykład dr inż. Łukasz Graczykowski

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

Instytut Matematyczny Uniwersytet Wrocławski. Zakres egzaminu magisterskiego. Wybrane rozdziały anazlizy i topologii 1 i 2

Modelowanie rynków finansowych z wykorzystaniem pakietu R

Metody Lagrange a i Hamiltona w Mechanice

Stacjonarne procesy gaussowskie, czyli o zwiazkach pomiędzy zwykła

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Termodynamika. Część 11. Układ wielki kanoniczny Statystyki kwantowe Gaz fotonowy Ruchy Browna. Janusz Brzychczyk, Instytut Fizyki UJ

Fizyka statystyczna Zarys problematyki Kilka słów o rachunku prawdopodobieństwa. P. F. Góra

1. Liczby zespolone Zadanie 1.1. Przedstawić w postaci a + ib, a, b R, następujące liczby zespolone (1) 1 i (2) (5)

Rachunek różniczkowy funkcji wielu zmiennych

Geodezja fizyczna i geodynamika

Lista zadania nr 7 Metody probabilistyczne i statystyka studia I stopnia informatyka (rok 2) Wydziału Ekonomiczno-Informatycznego Filia UwB w Wilnie

Atom wodoru. Model klasyczny: nieruchome jądro +p i poruszający się wokół niego elektron e w odległości r; energia potencjalna elektronu:

Drgania i fale II rok Fizyk BC

A. Odrzywołek. Dziura w Statycznym Wszechświecie Einsteina

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rzadkie gazy bozonów

Generowanie liczb o zadanym rozkładzie. ln(1 F (y) λ

Inżynieria Systemów Dynamicznych (4)

Układy stochastyczne

5. Analiza dyskryminacyjna: FLD, LDA, QDA

czyli o szukaniu miejsc zerowych, których nie ma

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Rozkłady wielu zmiennych

Prawa potęgowe w grafach przepływu informacji dla geometrycznych sieci neuronowych

Kierunek: Matematyka Poziom studiów: Studia II stopnia Forma i tryb studiów: Stacjonarne

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

V. KWANTOWE BRAMKI LOGICZNE Janusz Adamowski

Procesy stochastyczne WYKŁAD 2-3. Łańcuchy Markowa. Łańcuchy Markowa to procesy "bez pamięci" w których czas i stany są zbiorami dyskretnymi.

6. Dyfuzja w ujęciu atomowym

r. akad. 2005/ 2006 Jan Królikowski Fizyka IBC

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Transformaty. Kodowanie transformujace

Testowanie hipotez. Hipoteza prosta zawiera jeden element, np. H 0 : θ = 2, hipoteza złożona zawiera więcej niż jeden element, np. H 0 : θ > 4.

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Przestrzenie liniowe

SIMR 2016/2017, Analiza 2, wykład 1, Przestrzeń wektorowa

Znajdowanie skojarzeń na maszynie równoległej

Metody Obliczeniowe w Nauce i Technice

Układy równań i równania wyższych rzędów

Fizyka statystyczna, elementy termodynamiki nierównowagowej Cele, zakres zagadnień

Wstęp do komputerów kwantowych

Granica funkcji. 8 listopada Wykład 4

Matematyka dla DSFRiU zbiór zadań

8 Całka stochastyczna względem semimartyngałów

gęstością prawdopodobieństwa

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Teoria ergodyczności: co to jest? Średniowanie po czasie vs. średniowanie po rozkładach Twierdzenie Poincare o powrocie Twierdzenie ergodyczne

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Metody Obliczeniowe w Nauce i Technice

Dyfuzyjna metoda MC. 5 listopada Dyfuzyjna metoda MC

Transkrypt:

Bładzenie przypadkowe i lokalizacja Zdzisław Burda Jarosław Duda, Jean-Marc Luck, Bartłomiej Wacław Seminarium Wydziałowe WFiIS AGH, 07/11/2014

Plan referatu Wprowadzenie Zwykłe bładzenie przypadkowe (GRW) Bładzenie przypadkowe o maksymalnej entropii (MERW) Na regularnej sieci: GRW=MERW Losowe defekty na sieci lokalizacja Podsumowanie i spekulacje

Zwiazek dyfuzji z ruchami Browna A. Einstein (1905) i M. Smoluchowski (1906) K. Pearson (1905) RANDOM WALK Bładzenie przypadkowe / Bładzenie losowe

Zwiazek dyfuzji z ruchami Browna A. Einstein (1905) i M. Smoluchowski (1906) K. Pearson (1905) RANDOM WALK Bładzenie przypadkowe / Bładzenie losowe

Zwiazek dyfuzji z ruchami Browna A. Einstein (1905) i M. Smoluchowski (1906) K. Pearson (1905) RANDOM WALK Bładzenie przypadkowe / Bładzenie losowe

Lokalizacja P.W. Anderson (1958) Absence of Diffusion in Certain Random Lattice. Efekt kwantowy

Lokalizacja P.W. Anderson (1958) Absence of Diffusion in Certain Random Lattice. Efekt kwantowy

Bładzenie przypadkowe na grafach 2 4 1 P(3 >1) 3 6 5 Macierz sasiedztwa: A ij = 1(0), ij sa (nie sa) sasiadami Liczba koordynacyjna: k i = j A ij Prawdopodobieństwo przeskoku: P(i j) = P ij Macierz stochastyczna: 0 P ij A ij ; j P ij = 1

Bładzenie przypadkowe na grafach 2 4 1 P(3 >1) 3 6 5 Macierz sasiedztwa: A ij = 1(0), ij sa (nie sa) sasiadami Liczba koordynacyjna: k i = j A ij Prawdopodobieństwo przeskoku: P(i j) = P ij Macierz stochastyczna: 0 P ij A ij ; j P ij = 1

Bładzenie przypadkowe na grafach 2 4 1 P(3 >1) 3 6 5 Macierz sasiedztwa: A ij = 1(0), ij sa (nie sa) sasiadami Liczba koordynacyjna: k i = j A ij Prawdopodobieństwo przeskoku: P(i j) = P ij Macierz stochastyczna: 0 P ij A ij ; j P ij = 1

Bładzenie przypadkowe na grafach 2 4 1 P(3 >1) 3 6 5 Macierz sasiedztwa: A ij = 1(0), ij sa (nie sa) sasiadami Liczba koordynacyjna: k i = j A ij Prawdopodobieństwo przeskoku: P(i j) = P ij Macierz stochastyczna: 0 P ij A ij ; j P ij = 1

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Ewolucja rozkładu prawdopodobieństwa Równanie Master: π i (t + 1) = j π j(t)p ji Stan stacjonarny: πi = j π j P ji Zwykłe bładzenie przypadkowe (GRW): P ij = A ij k i π i = k i 2L Przykład: 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Trajektorie bładzenia przypadkowego γ (t) ab 2 4 1 3 6 5 Prawdopodobieństwo: P(γ (t) i 0 i t ) = P i0 i 1 P i1 i 2... P it 1 i t GRW: P(γ (t) i 0 i t ) = 1 k i0 1 k i1... 1 k it 1 Przykład: P(γ czerwona ) = 1 7 1 5 1 4 1 8 = 1 P(γ zielona ) = 1 7 1 6 1 7 1 6 = 1 MERW: P(γ (t) ab ) = F(t, a, b)? 1120 ; 1764 ;

Entropia trajektorii S ab,t = γ Γ (t) P(γ) ln P(γ) ab Produkcja entropii (Shannon, McMillan): s GRW = s lim t S ab,t t i k i ln k i 2L Maksymalna entropia: = i π i P ij ln P ij j Nierówność: s max = ln N ab,t t = ln(at ) ab t s GRW s max ln λ max

Największa wartość własna - tw. Frobeniusa-Perrona k min λ max k max Nowa nierówność: Example: exp (s GRW ) = ( i k k i i ) 1 2L λ max exp (s GRW ) = 108 1/5 2.55085; λ max = (1 + 17)/2 2.56155;

Równość s GRW = s max exp (s GRW ) = λ max ; Grafy k-regularne; λ max = k; Dwudzielne grafy regularne: λ max = k 1 k 2 ;

MERW Wektor własny FP: i ψ2 i = 1 A ij ψ j = λ max ψ i Prawdopodobieństwo przeskoku: j P ij = Prawdopodobieństwo trajektorii: A ij λ max ψ j ψ i P(γ (t) ab ) = 1 ψ b λ t max ψ a Stan stacjonarny: π i = ψ 2 i Produkcja entropii: s MERW = s max = ln λ max

MERW Wektor własny FP: i ψ2 i = 1 A ij ψ j = λ max ψ i Prawdopodobieństwo przeskoku: j P ij = Prawdopodobieństwo trajektorii: A ij λ max ψ j ψ i P(γ (t) ab ) = 1 ψ b λ t max ψ a Stan stacjonarny: π i = ψ 2 i Produkcja entropii: s MERW = s max = ln λ max

MERW Wektor własny FP: i ψ2 i = 1 A ij ψ j = λ max ψ i Prawdopodobieństwo przeskoku: j P ij = Prawdopodobieństwo trajektorii: A ij λ max ψ j ψ i P(γ (t) ab ) = 1 ψ b λ t max ψ a Stan stacjonarny: π i = ψ 2 i Produkcja entropii: s MERW = s max = ln λ max

MERW Wektor własny FP: i ψ2 i = 1 A ij ψ j = λ max ψ i Prawdopodobieństwo przeskoku: j P ij = Prawdopodobieństwo trajektorii: A ij λ max ψ j ψ i P(γ (t) ab ) = 1 ψ b λ t max ψ a Stan stacjonarny: π i = ψ 2 i Produkcja entropii: s MERW = s max = ln λ max

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

GRW vs. MERW na grafie liniowym 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516

Odpychanie od defektów 0.5 0.4 0.3 0.2 0.1 1 2 3 4 5 6 7 8 9 10111213141516 π i = 2 L+1 sin2 iπ L+1 ; i = 1,..., L Odpychanie od punktów końcowych (defektów)

Siatka z losowymi defektami

MERW na siatce z losowymi defektami 2-wymiarowa siatka + mała ilość defektów: q = ułamek usuniętych krawędzi; Przykład: 40 40; q = 0.001, 0.01, 0.05, 0.1:

Przykład 1-wymiarowy + argument Lifshitza graf drabinowy z losowo usuniętymi szczeblami: ψ i+1 + ψ i 1 + r i ψ i = λ max ψ i, r i = 1 z prawdop. p; 0 z (1 p) ; ψ i+1 + ψ i 1 2ψ i + (r i 1)ψ i = (λ max 3)ψ i Lifshitz, Nieuwenhuizen, Luck ( ψ) i + v i ψ i = E 0 ψ i ; v i = 1 r i ; E 0 = 3 λ max lokalizacja na najdłuższej sekwencji szczebli: Lp n (1 p) 2 1 n ln L/ ln p ψ i sin iπ/(n + 1); E 0 π 2 /n 2

Przykład 1-wymiarowy + argument Lifshitza graf drabinowy z losowo usuniętymi szczeblami: ψ i+1 + ψ i 1 + r i ψ i = λ max ψ i, r i = 1 z prawdop. p; 0 z (1 p) ; ψ i+1 + ψ i 1 2ψ i + (r i 1)ψ i = (λ max 3)ψ i Lifshitz, Nieuwenhuizen, Luck ( ψ) i + v i ψ i = E 0 ψ i ; v i = 1 r i ; E 0 = 3 λ max lokalizacja na najdłuższej sekwencji szczebli: Lp n (1 p) 2 1 n ln L/ ln p ψ i sin iπ/(n + 1); E 0 π 2 /n 2

Przykład 1-wymiarowy + argument Lifshitza graf drabinowy z losowo usuniętymi szczeblami: ψ i+1 + ψ i 1 + r i ψ i = λ max ψ i, r i = 1 z prawdop. p; 0 z (1 p) ; ψ i+1 + ψ i 1 2ψ i + (r i 1)ψ i = (λ max 3)ψ i Lifshitz, Nieuwenhuizen, Luck ( ψ) i + v i ψ i = E 0 ψ i ; v i = 1 r i ; E 0 = 3 λ max lokalizacja na najdłuższej sekwencji szczebli: Lp n (1 p) 2 1 n ln L/ ln p ψ i sin iπ/(n + 1); E 0 π 2 /n 2

Przykład 1-wymiarowy + argument Lifshitza graf drabinowy z losowo usuniętymi szczeblami: ψ i+1 + ψ i 1 + r i ψ i = λ max ψ i, r i = 1 z prawdop. p; 0 z (1 p) ; ψ i+1 + ψ i 1 2ψ i + (r i 1)ψ i = (λ max 3)ψ i Lifshitz, Nieuwenhuizen, Luck ( ψ) i + v i ψ i = E 0 ψ i ; v i = 1 r i ; E 0 = 3 λ max lokalizacja na najdłuższej sekwencji szczebli: Lp n (1 p) 2 1 n ln L/ ln p ψ i sin iπ/(n + 1); E 0 π 2 /n 2

Przykład numeryczny π i = ψ 2 i for L = 500; q =1 p = 0.01, 0.1. ln Πi ln Πi 0 5 10 15 20 25 0 100 200 300 400 500 0 20 40 60 80 0 100 200 300 400 500

Test numeryczny E 0 (π ln p / ln L) 2 L = 20,..., 960; q =1 p = 0.1 E0-1/2 16 14 12 10 8 6 4 3 4 5 6 7 ln L

Sfery Lifshitza dla D > 1 ( ψ) i + v i ψ i = E 0 ψ i ( ψ) i = E 0 ψ i z warunkami Dirichleta w największym obszarze sferycznym bez defektów (SFERA LIFSHITZA); w 2-wymiarach promień sfery R (ln L/(π ln p )) 1/2

Podsumowanie GRW maksymalizuje lokalnie (zachłannie) entropię MERW maksymalizuje globalnie entropię trajektorii Podobna filozofia do zasady minimalnego działania GRW = MERW na sieci regularnej Lokalizacja MERW w przypadku losowych defektów Klasyczny przykład lokalizacji Lokalizacja zwiazana jest ze stanami Lifshitza Ciekawa nierówność: ( i k k i i ) 1 2L λ max

Podsumowanie GRW maksymalizuje lokalnie (zachłannie) entropię MERW maksymalizuje globalnie entropię trajektorii Podobna filozofia do zasady minimalnego działania GRW = MERW na sieci regularnej Lokalizacja MERW w przypadku losowych defektów Klasyczny przykład lokalizacji Lokalizacja zwiazana jest ze stanami Lifshitza Ciekawa nierówność: ( i k k i i ) 1 2L λ max

Podsumowanie GRW maksymalizuje lokalnie (zachłannie) entropię MERW maksymalizuje globalnie entropię trajektorii Podobna filozofia do zasady minimalnego działania GRW = MERW na sieci regularnej Lokalizacja MERW w przypadku losowych defektów Klasyczny przykład lokalizacji Lokalizacja zwiazana jest ze stanami Lifshitza Ciekawa nierówność: ( i k k i i ) 1 2L λ max

Podsumowanie GRW maksymalizuje lokalnie (zachłannie) entropię MERW maksymalizuje globalnie entropię trajektorii Podobna filozofia do zasady minimalnego działania GRW = MERW na sieci regularnej Lokalizacja MERW w przypadku losowych defektów Klasyczny przykład lokalizacji Lokalizacja zwiazana jest ze stanami Lifshitza Ciekawa nierówność: ( i k k i i ) 1 2L λ max

Zastosowania i spekulacje Kwantowe amplitudy w zakrzywionej czasoprzestrzeni K ab = e S E ; S E t t γ (t) ab Bariery entropiczne i dynamika szkła spinowego; Model quasi-gatunków 000 001 0000 0001 00 01 100 101 1000 0100 0101 1100 1101 1001 010 011 1010 1011 0010 1111 1110 0011 10 11 110 111 0110 0111

Zastosowania i spekulacje Kwantowe amplitudy w zakrzywionej czasoprzestrzeni K ab = e S E ; S E t t γ (t) ab Bariery entropiczne i dynamika szkła spinowego; Model quasi-gatunków 000 001 0000 0001 00 01 100 101 1000 0100 0101 1100 1101 1001 010 011 1010 1011 0010 1111 1110 0011 10 11 110 111 0110 0111

Zastosowania i spekulacje Kwantowe amplitudy w zakrzywionej czasoprzestrzeni K ab = e S E ; S E t t γ (t) ab Bariery entropiczne i dynamika szkła spinowego; Model quasi-gatunków 000 001 0000 0001 00 01 100 101 1000 0100 0101 1100 1101 1001 010 011 1010 1011 0010 1111 1110 0011 10 11 110 111 0110 0111

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40

Dynamika MERW 40 40 30 30 20 20 10 10 0 0 10 20 30 40 0 0 10 20 30 40