Koncentracja Miary. Rafał Latała. 22 maja 2009

Podobne dokumenty
Koncentracja Miary. Rafał Latała. 23 maja 2009

Zadania z Koncentracji Miary I

7 Twierdzenie Fubiniego

1 Relacje i odwzorowania

Dystrybucje, wiadomości wstępne (I)

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Zadania do Rozdziału X

Zadania z Rachunku Prawdopodobieństwa III - 1

Zadania z Analizy Funkcjonalnej I Które z poniższych przestrzeni metrycznych są przestrzeniami unormowanymi?

Wykłady ostatnie. Rodzinę P podzbiorów przestrzeni X nazywamy σ - algebrą, jeżeli dla A, B P (2) A B P, (3) A \ B P,

jest ciągiem elementów z przestrzeni B(R, R)

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

2. Wykaż, że moment pierwszego skoku w procesie Poissona. S 1 := inf{t : N t > 0} jest zmienną losową o rozkładzie wykładniczym z parametrem λ.

Analiza I.2*, lato 2018

1. Struktury zbiorów 2. Miara 3. Miara zewnętrzna 4. Miara Lebesgue a 5. Funkcje mierzalne 6. Całka Lebesgue a. Analiza Rzeczywista.

Informacja o przestrzeniach Sobolewa

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

A i. i=1. i=1. i=1. i=1. W dalszej części skryptu będziemy mieli najczęściej do czynienia z miarami określonymi na rodzinach, które są σ - algebrami.

2. Definicja pochodnej w R n

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

7. Miara, zbiory mierzalne oraz funkcje mierzalne.

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Zadania z Analizy Funkcjonalnej I* - 1

Analiza Funkcjonalna - Zadania

Wykład 21 Funkcje mierzalne. Kostrukcja i własności całki wzglȩdem miary przeliczalnie addytywnej

2 Rodziny zbiorów. 2.1 Algebry i σ - algebry zbiorów. M. Beśka, Wstęp do teorii miary, rozdz. 2 11

1 Elementy analizy funkcjonalnej

28 maja, Problem Dirichleta, proces Wienera. Procesy Stochastyczne, wykład 14, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Dystrybucje. Marcin Orchel. 1 Wstęp Dystrybucje Pochodna dystrybucyjna Przestrzenie... 5

Prawdopodobieństwo i statystyka

Twierdzenie spektralne

1 Przestrzenie metryczne

Przykład 1 W przypadku jednokrotnego rzutu kostką przestrzeń zdarzeń elementarnych

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

Seria 1. Zbieżność rozkładów

F t+ := s>t. F s = F t.

O pewnych klasach funkcji prawie okresowych (niekoniecznie ograniczonych)

Wykłady... b i a i. i=1. m(d k ) inf

8 Całka stochastyczna względem semimartyngałów

G. Plebanek, MIARA I CAŁKA Zadania do rozdziału 1 28

Zadania z Rachunku Prawdopodobieństwa III - 1

Teoria miary i całki

ZADANIA PRZYGOTOWAWCZE DO EGZAMINU Z UKŁADÓW DYNAMICZNYCH

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

1 Zbiory. 1.1 Kiedy {a} = {b, c}? (tzn. podać warunki na a, b i c) 1.2 Udowodnić, że A {A} A =.

Wokół nierówności Dooba

Szkice do zajęć z Przedmiotu Wyrównawczego

Zadania z Procesów Stochastycznych 1

ANALIZA MATEMATYCZNA Z ELEMENTAMI STATYSTYKI MATEMATYCZNEJ

Teoria miary. WPPT/Matematyka, rok II. Wykład 5

Wykład Matematyka A, I rok, egzamin ustny w sem. letnim r. ak. 2002/2003. Każdy zdający losuje jedno pytanie teoretyczne i jedno praktyczne.

IX. Rachunek różniczkowy funkcji wielu zmiennych. 1. Funkcja dwóch i trzech zmiennych - pojęcia podstawowe. - funkcja dwóch zmiennych,

Zmienne losowe i ich rozkłady. Momenty zmiennych losowych. Wrocław, 10 października 2014

Izoperymetria gaussowska

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

5 Przegląd najważniejszych rozkładów

Rozdział 4. Ciągi nieskończone. 4.1 Ciągi nieskończone

Analiza matematyczna 1 - test egzaminacyjny wersja do ćwiczeń

Temperatura w atmosferze (czy innym ośrodku) jako funkcja dł. i szer. geogr. oraz wysokości.

Wykład 3 Jednowymiarowe zmienne losowe

Rachunek różniczkowy i całkowy w przestrzeniach R n

Notatki z Analizy Matematycznej 2. Jacek M. Jędrzejewski

PODSTAWOWE ROZKŁADY PRAWDOPODOBIEŃSTWA. Piotr Wiącek

Matematyka II. Bezpieczeństwo jądrowe i ochrona radiologiczna Semestr letni 2018/2019 wykład 13 (27 maja)

Prawdopodobieństwo i statystyka

13 Równanie struny drgającej. Równanie przewodnictwa ciepła.

Zestaw zadań z Równań różniczkowych cząstkowych I 18/19

Robert Kowalczyk. Zbiór zadań z teorii miary i całki

n=0 (n + r)a n x n+r 1 (n + r)(n + r 1)a n x n+r 2. Wykorzystując te obliczenia otrzymujemy, że lewa strona równania (1) jest równa

Wykład 2 Zmienne losowe i ich rozkłady

Ćwiczenia 7 - Zmienna losowa i jej rozkład. Parametry rozkładu.

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10

Rozdział 9. Funkcja pierwotna. 9.1 Funkcja pierwotna

Uniwersytet Mikołaja Kopernika w Toruniu

Metody probabilistyczne

Równanie przewodnictwa cieplnego (I)

Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład

Zagadnienia stacjonarne

Wstęp do Rachunku Prawdopodobieństwa, IIr. WMS

Jeśli wszystkie wartości, jakie może przyjmować zmienna można wypisać w postaci ciągu {x 1, x 2,...}, to mówimy, że jest to zmienna dyskretna.

Grzegorz Bobiński. Wykład monograficzny Programowanie Liniowe i Całkowitoliczbowe

Całka podwójna po prostokącie

f(t) f(x), D f(x) = lim sup t x oraz D f(x) = lim inf

Informacja o przestrzeniach Hilberta

1 Nierówność Minkowskiego i Hoeldera

1 Gaussowskie zmienne losowe

Łatwy dowód poniższej własności pozostawiamy czytelnikowi.

Rozdział 7. Różniczkowalność. 7.1 Pochodna funkcji w punkcie

Prawa wielkich liczb, centralne twierdzenia graniczne

WYKŁADY Z RACHUNKU PRAWDOPODOBIEŃSTWA I wykład 4 Przekształcenia zmiennej losowej, momenty

Równanie przewodnictwa cieplnego (II)

WYKŁAD Z ANALIZY MATEMATYCZNEJ I. dr. Elżbieta Kotlicka. Centrum Nauczania Matematyki i Fizyki

Notatki z Analizy Matematycznej 3. Jacek M. Jędrzejewski

Ciągłość funkcji f : R R

Ważne rozkłady i twierdzenia

21 maja, Mocna własność Markowa procesu Wienera. Procesy Stochastyczne, wykład 13, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1126

Metoda rozdzielania zmiennych

Transkrypt:

Koncentracja Miary Rafał Latała 22 maja 29 Poniższe notatki powstają na podstawie (wybranych) wykładów z Koncentracji Miary, prowadzonych w semestrze wiosennym 28/9. Przepraszam za wszystkie nieścisłości i omyłki mogące pojawić się w tekście i jednocześnie zwracam się z prośbą do czytelników, którzy zauważyli błędy lub mają jakieś inne uwagi na temat notatek o kontakt mailowy na adres rlatala@mimuw.edu.pl z podaniem wersji notatek (daty) do której chcą się ustosunkować. Dziękuje panom Kamilowi Kosińskiemu i Piotrowi Nayarowi za nadesłane komentarze. Rafał Latała 1

1 Wprowadzenie Zacznijmy od następującej definicji otoczki zbioru. Definicja 1.1. Niech (X, d) będzie przestrzenią metryczną, zaś A dowolnym podzbiorem X. Dla t > określamy t-otoczenie zbioru A wzorem A t := {x X : d(x, A) < t} = y A B(y, t), gdzie B(y, t) oznacza kulę otwartą w X o środku w y i promieniu t. Okazuje się, że dla wielu ważnych przykładów miar probabilistycznych µ na (X, d) miara µ(a t ) szybko zbiega do 1 jeśli tylko µ(a) 1/2. Badanie tego zjawiska, zwanego fenomenem koncentracji miary i jego konsekwencji będzie celem tego wykładu. Na początek wykładu podamy kilka przykładów, których dowody przedstawimy później. Przykład 1. Niech d oznacza odległość geodezyjną na n wymiarowej sferze S n = {x R n+1 : x = 1}, zaś σ n oznacza unormowaną miarę powierzcniową na S n. Wówczas okazuje się, że jeśli chcemy zminimalizować σ n (A t ) po wszystkich zbiorach ustalonej miary ekstremalne są kule (zwane też czapeczkami), to znaczy σ n (A) = σ n (B(x, r)) σ n (A t ) σ n (B(x, r) t ) = σ n (B(x, r + t)). W szczególności jeśli σ n (A) 1/2, to σ n (A t ) σ n (B (x, π )) ( 2 + t 1 exp Wprowadźmy kluczową definicję: (n 1)t2 ). 2 Definicja 1.2. Niech µ będzie miarą probabilistyczną na (X, d). Funkcją koncentracji miary µ definiujemy jako { α µ (t) = α (X,d,µ) (t) := sup 1 µ(a t ): µ(a) 1 }. 2 Zatem α σn (t) exp( n 1 2 t2 ). Uwaga. Zauważmy, że funkcja koncentracji σ n szybko zbiega do przy n. Jedną z przyczyn tego zjawiska jest to, że miara ta nie jest dobrze 2

unormowana. Jeśli przez σ n,r określimy rozkład jednostajny na sferze RS n, to ponieważ jest on obrazem σ n przy jednokładności o skali R, to Zauważmy też, że α σn,r (t) = α σn ( t R ) ( exp n 1 2R 2 t2). RSn x i x j dσ n,r (x) = R2 n δ i,j. Zatem miara jednostajna na ns n ma dobrą normalizację, to znaczy taką, że macierz kowariancji jest identycznością. Dla tej miary dla n 2, ( α σn, n (t) exp n 1 ( 2n t2) exp 1 4 t2). Przykład 2. Niech γ k oznacza kanoniczny rozkład gaussowski na R k tzn. rozkład z gęstością (2π) k/2 exp( x 2 /2). Wówczas ekstremalnymi zbiorami w problemie izoperymetrycznym okazują się półprzestrzenie, tzn. jeśli γ k (A) = γ k ((, r] R k 1) = Φ(r), to ( ((, γ k (A t ) γ k r] R k 1 ) ) ( = γ t k (, r + t] R k 1) = Φ(r + t). W szczególności α γk (t) 1 Φ(t) 1 2 e t2 /2. Zauważmy, że powyższe oszacowania nie zależą od wymiaru przestrzeni. Przykład 3. Niech ν będzie symetrycznym rozkładem wykładniczym, tzn. rozkładem na R z gęstością 1 2 exp( x ). Przez νk będziemy oznaczać rozkład produktowy ν... ν na R k. Wyznaczenie ekstremalnych zbiorów dla problemu izoperymetrycznego związanego z tą miarą jest trudne i nieznane dla k 1. Choć wiadomo, że ekstremalne nie są półprzestrzenie postaci (, r] R k 1, to są one optymalne z dokładnością do stałej, tzn. W szczególności ν k (A) = ν((, r]) (( ν k (A t ) ν, r + 1 2 ]) 6 t. (( 1 α ν k(t) 1 ν, 2 ]) 6 t = 1 ( 2 exp 1 2 ) 6 t. 3

Zauważmy, że znowu uzyskane oszacowanie nie zależy od wymiaru przestrzeni. Przykład 4. Niech µ będzie unormowaną miarą liczącą na kostce dyskretnej {, 1} n z metryką d(x, y) = 1 n #{i: x i y i }. Tu problem izoperymetryczny daje się rozwiązać (optymalne są kule, ewentualnie z dodanymi punktami na brzegu). W tym przypadku można pokazać, że α µ (t) e 2nt2. Krótki przegląd wyników pokazuje, że w wielu ważnych zastosowaniach można wykazać, że α µ (t) C 1 exp( t 2 /C 2 ) mówimy wtedy, że funkcja koncentracji jest typu gaussowskiego. Widzielismy też przykład, w którym α µ (t) C 1 exp( t/c 2 ) mówimy wtedy o koncentracji wykładniczej. 1.1 Koncentracja funkcji lipschitzowskich W wielu zastosowaniach nie interesuje nas jak zmienia się miara otoczenia zbioru, a raczej jak szybko maleją ogony funkcji określonych na przestrzeni. W tej części powiążemy ze sobą te zjawiska. Zacznijmy od definicji mediany i modułu ciągłości. Definicja 1.3. Niech µ będzie miarą probabilistyczną na (X, d) oraz f : X R. Medianą f względem µ nazywamy taką liczbę M = Med µ (f) dla której µ({x: f(x) M}), µ({x: f(x) M}) 1/2. Modułem ciągłości f nazywamy funkcję w f (t) := sup{ f(x) f(y) : d(x, y) t}. Fakt 1.1. Dla dowolnej funkcji F : X R, oraz µ({x: F (x) > Med µ (F ) + w F (t)}) α µ (t) µ({x: F (x) Med µ (F ) > w F (t)}) 2α µ (t). Dowód. Niech A := {x: F (x) Med µ (F )} wówczas µ(a) 1/2 zatem µ(a t ) 1 α µ (t). Ponadto, jeśli x A t, to istnieje y A takie, że d(x, y) < t i wówczas F (x) F (y) + w F (t) Med µ (F ) + w F (t), stąd pierwsza nierówność w fakcie. Stosując ją do F i zauważając, że Med µ ( F ) = Med µ (F ) oraz w F = w F dostajemy µ({x: F (x) < Med µ (F ) w F (t)}) α µ (t). 4

Dodając powyższą nierówność do poprzedniej otrzymamy ostatnią część faktu. Przypomnijmy definicję funkcji lipschitzowskiej Definicja 1.4. Funkcję F : (X, d) R nazywamy lipschitzowską, jeśli F (x) F (y) F Lip := sup <. x y d(x, y) Mówimy, że funkcja jest L-lipschitzowska jeśli F Lip L, tzn. F (x) F (y) Ld(x, y) dla wszystkich x, y X. Analogicznie można zdefiniować funkcje lipschitzowskie między przestrzeniami metrycznymi. Fakt 1.2. i) Jeśli F jest lipschitzowska ze stałą L, to dla t >, oraz µ({x: F (x) > Med µ (F ) + t}) α µ (t/l) µ({x: F (x) Med µ (F ) > t}) 2α µ (t/l). ii) Na odwrót, jeśli dla każdej funkcji 1-lipschitzowskiej F i ustalonego t >, to α µ (t) α. µ({x: F (x) Med µ (F ) + t}) α, Dowód. i) Wynika z Faktu 1.1 i oczywistego szacowania w f (t) tl. ii) Ustalmy zbiór A taki, że µ(a) 1/2 i określmy F (x) := d(x, A). Wówczas F jest 1-lipschitzowska oraz Med µ (F ) =, zatem α µ({f t}) = µ({x: d(x, A) t}) = 1 µ(a t ). Często łatwiej i naturalniej jest wykazywać koncentrację funkcji lipschitzowskich wokół średniej a nie mediany. Kolejny fakt pokazuje jak odzyskać funkcję koncentracji w takim przypadku. Fakt 1.3. Załóżmy, że µ jest miarą probabilistyczną na przestrzeni metrycznej (X, d) oraz dla ograniczonych funkcji 1-lipschitzowskich F i t > zachodzi ({ }) µ x: F (x) > F dµ + t α(t). (1) 5

Wówczas dla dowolnego zbioru borelowskiego A takiego, że µ(a) > zachodzi 1 µ(a t ) α(µ(a)t). W szczególności ( t α µ (t) α. 2) Ponadto, jeśli lim t α(t) =, to dowolna funkcja 1-lipschitzowska jest całkowalna i jeśli dodatkowo α jest ciągła, to (1) zachodzi dla wszystkich funkcji 1-lipschitzowskich. Dowód. Ustalmy zbiór borelowski A taki, że µ(a) > oraz t >. Niech F (x) := min{d(x, A), t}, wówczas F jest ograniczona, 1-lipschitzowska i F dµ t(1 µ(a)). Stąd na mocy (1), ({ 1 µ(a t ) = µ({f t}) µ F }) F dµ + µ(a)t α(µ(a)t). W szczególności, jeśli µ(a) 1/2, to 1 µ(a t ) α(t/2). By udowodnić drugą część faktu, ustalmy funkcję 1-lipschitzowską F i niech F n := min{ F, n}. Z (1) zastosowanej do F n dostajemy ({ µ x: F n (x) }) F n dµ t α(t). Wybierzmy t takie, że α(t ) < 1/2 oraz m := Med µ F. Wówczas µ({f n m}) 1/2, czyli zbiory {F n m} oraz {F n > F n dµ t } mają niepuste przecięcie. Zatem F n dµ m + t i z twierdzenia Lebesgue a o zbieżności monotonicznej dostajemy F dµ m + t <. Ostatnią część tezy dostajemy stosując (1) do min{max{f, n}, n} i przechodząc z n. 1.2 Obserwowalna średnica zbioru Średnicą zbioru A w przestrzeni metrycznej (X, d) nazywamy Diam(A) := sup{d(x, y): x, y A}. Jeśli próbujemy obserwować jakiś obiekt, to możemy przyjąć, że zbiory miary mniejszej niż pewne κ > są dla nas niezauważalne (założenie to np. dla κ = 1 1 wydaje się całkiem uzasadnione, jeśli miara µ jest związana ze stopniem oświetlenia obiektu). Motywuje to definicje częściowej średnicy PartDiam µ (X, d) = inf{diam(a): µ(a) 1 κ}. 6

W praktyce również nie jesteśmy w stanie obserwować obiektów wielowymiarowych, a jedynie ich przekroje. Stosując pewne uproszczenie możemy założyć, że przestrzeń obserwujemy za pomocą funkcji 1-lipschitzowskich F, tzn. badamy rozkład µ F 1 na F (X) (np. natężenie światła). Stąd wprowadzamy Definicja 1.5. Obserwowalną średnicą przestrzeni (X, d) względem miary µ nazywamy wielkość ObsDiam µ (X, d) := sup { PartDiam µ F 1(F (X)): F : X R, F Lip 1 }. Fakt 1.4. ObsDiam µ (X, d) 2αµ 1 (κ/2), gdzie αµ 1 (ε) = inf{r > : α µ (r) ε}. Dowód. Ustalmy funkcję 1-lipschitzowską F na X i niech M = Med µ (F ), wówczas na podstawie Faktu 1.2, Zatem µ F 1 ([M + r, M r]) = µ( F M r) 1 2α µ (r). ObsDiam µ (X, d) 2 inf{r : 2α µ (r) κ} = 2α 1 µ (κ/2). Przykład. Dla gaussowskiej koncentracji α (X,d,µ) (t) C 1 exp( t 2 /C 2 ) mamy ObsDiam µ (X, d) 2 C 2 ln(2c 1 /κ). W szczególności ObsDiam σn (S n ) jest rzędu 1/ n, podczas gdy nietrudno sprawdzić, że Diam(S n ) = π i PartDiam µ (S n ) π/2. 1.3 Transport miary W wielu zagadnieniach będziemy używali pojęcia transportu miary. Definicja 1.6. Niech µ i ν będą miarami na przestrzeniach metrycznych X i Y. Powiemy, że funkcja borelowska ϕ: X Y transportuje miarę µ na miarę ν (ew. miara ν jest obrazem miary µ przy przekształceniu ϕ) jeśli ν(a) = µ ϕ 1 (A) dla wszystkich A B(Y ). Szczególnie wygodny jest transport lipschitzowski. Fakt 1.5. Jeśli ϕ: X Y jest L-lipschitzowska oraz ϕ transportuje miarę µ na ν, to α ν (t) α µ (t/l). Dowód. Wystarczy zauważyć, że (ϕ 1 (A)) t/l ϕ 1 (A t ). 7

2 Nierówności izoperymetryczne W tej części omówimy kilka nierówności izoperymetrycznych, pokazując różne sposoby ich dowodzenia - poprzez powiązane nierówności funkcyjne, symetryzacje czy transport miary. 2.1 Klasyczna izoperymetria Chociaż w tym wykładzie będziemy się zajmować miarami probabilistycznymi, to przegląd nierówności izoperymetrycznych zaczniemy od klasycznego przypadku n-wymiarowej miary Lebesgue a λ n. Twierdzenie 2.1. Jeśli A jest podzbiorem borelowskim R n takim, że λ n (A) = λ n (B(x, r)), to dla dowolnego t >, λ n (A t ) λ n (B(x, r) t ) = λ n (B(x, r + t)). Twierdzenie 2.2 (Nierówność Prekopy-Leindlera). Jeśli s [, 1] oraz f, g, h: R n [, ) spełniają warunek to h(sx + (1 s)y) f(x) s g(y) 1 s dla x, y R n, (2) ( ) s ( h(x)dx f(x)dx g(x)dx R n R n R n ) 1 s Dowód. Najpierw wykażemy, że dla niepustych zbiorów A, B B(R n ) zachodzi λ 1 (A + B) λ 1 (A) + λ 1 (B). Ponieważ λ 1 (A) = sup{λ 1 (K): K A, K zwarty}, to możemy przyjąc, że zbiory A i B są zwarte. Ponadto odpowiednio je przesuwając możemy też zakładać, że sup A = inf B =. Wówczas A B = oraz λ 1 (A + B) λ 1 (A B) = λ 1 (A) + λ 1 (B). Nierówność Prekopy-Leindlera udowodnimy przez indukcje po n. Najpierw rozważmy n = 1. Możemy zakładać, że f, g i h są ograniczone, a z uwagi na jednorodność, że sup f(x) = sup g(x) = sup h(x) = 1. Zauważmy, że dla r < 1, {h r} s{f r} + (1 s){g r}, więc całkując przez 8

części dostajemy h(x)dx = = s 1 1 λ 1 ({h r})dr 1 λ 1 (s{f r} + (1 s){g r})dr λ 1 (s{f r}) + λ 1 ((1 s){g r})dr ( ) s ( ) 1 s. fdx + (1 s) gdx fdx gdx Załóżmy teraz, że n 2 oraz teza twierdzenia zachodzi dla n 1. Niech f, g, h spełniają (2) i określmy dla x R F (x) = f(x, z)dz, G(x) = R n 1 g(x, z)dz oraz H(x) = R n 1 g(x, z)dz. R n 1 Zauważmy, że dla ustalonego x, y R h(sx + (1 s)y, sz 1 + (1 s)z 2 ) f(x, z 1 ) s g(y, z 2 ) 1 s dla z 1, z 2 R n 1. Zatem na mocy założenia indukcyjnego H(sx + (1 s)y) F (x) s G(y) 1 s. Stosując nierówność Prekopy-Leindlera w udowodnionym wcześniej przypadku n = 1 dostajemy h(x)dx = R n = R ( ( ) s ( H(x)dx F (x)dx R R ) s ( ) 1 s f(x)dx g(x)dx R n R n ) 1 s G(x)dx Wniosek 2.3 (Nierówność Brunna-Minkowskiego). Dla dowolnych niepustych zbiorów borelowskich A, B R n, λ n (sa + (1 s)b) λ n (A) s λ n (B) 1 s dla s [, 1] oraz λ n (A + B) 1/n λ n (A) 1/n + λ n (B) 1/n. Dowód. Pierwsza nierówność natychmiast wynika z nierówności Prekopy- Leindlera zastosowanej do funkcji f = 1 A, g = 1 B oraz h = 1 sa+(1 s)b. 9

By udowodnić drugą wystarczy rozważyć przypadek, gdy A i B są zbiorami skończonej i niezerowej miary. Przyjmijmy wtedy à = A s, B = B 1 s oraz s = λ n (A) 1/n λ n (A) 1/n + λ n (B) 1/n. Wówczas λ n (Ã) = λ n( B) = (λ n (A) 1/n + λ n (B) 1/n ) n, więc na podstawie wykazanej poprzednio nierówności λ n (A+B) = λ n (sã+(1 s) B) λ n (Ã)s λ n ( B) 1 s = (λ n (A) 1/n +λ n (B) 1/n ) n. Uwaga. Suma dwu zbiorów borelowskich nie musi być zbiorem borelowskim, ale można wykazać, że jest zbiorem mierzalnym w sensie Lebesgue a. Dowód Twierdzenia 2.1. Niech c n = λ n (B(, 1)), wówczas λ n (A) = c n r n i na podstawie Wniosku 2.3, λ n (A t ) = λ n (A + B(, t)) (λ n (A) 1/n + λ n (B(, t)) 1/n ) n = c n (r + t) n = λ n (B(x, r + t)). Definicja 2.1. Dla miary µ na przestrzeni probabilistycznej (X, d) określamy zewnętzną miarę brzegową µ + wzorem µ + (A) := lim inf t + µ(a t ) µ(a). t Uwaga. Jeśli miara µ na R n ma ciągłą gęstość g(x) oraz zbiór A ma gładki brzeg, to µ + (A) = g(x)dh n 1 (x), A gdzie H n 1 oznacza n 1 wymiarową miarę Haussdorffa. Równoważna różniczkowa forma klasycznej nierówności izoperymetrycznej mówi, że spośród zbiorów ustalonej objętości najmniejszą powierzchnię brzegu ma kula. Dokładniej: Twierdzenie 2.4. Jeśli A jest podzbiorem borelowskim R n takim, że λ n (A) = λ n (B(x, r)), to gdzie λ + n (A) λ + n (B(x, r)) = nc 1/n n (λ n (A)) (n 1)/n, c n = λ n (B(, 1)) = π n/2 Γ(n/2 + 1). 1

2.2 Izoperymetria sferyczna Twierdzenie 2.5. Jeśli A jest podzbiorem borelowskim S n takim, że σ n (A) = σ n (B(x, r)) to dla dowolnego t >, Wniosek 2.6. σ n (A t ) σ n (B(x, r) t ) = σ n (B(x, r + t)). α σn (t) π 8 exp ( (n 1) t 2). 2 Dowód. Dla n = 1 nie ma co dowodzić (bo zawsze α µ (t) 1/2). Będziemy więc zakładać, że n 2. Zauważmy, że σ n (B(x, r)) = s 1 n gdzie s n = π sinn 1 tdt. Zatem α σn (t) = 1 σ n (B(x, t+π/2)) = s 1 n π r t+π/2 sin n 1 tdt, π/2 sin n 1 udu = s 1 n cos n 1 udu. t Stosując oszacowanie cos u exp( u 2 /2) dla t [, π/2] dostajemy π/2 t cos n 1 udu = π/2 t e (n 1)u2 /2 du 2π n 1 (1 Φ(t n 1)) 1 n 1 t n 1 e s2 /2 ds π 2(n 1) e (n 1)t2 /2. Ponadto łatwe całkowanie przez części daje, że dla n 3, s n = n 2 n 1 s n 2, stąd n 1sn = n 2 n 1 s n 2 n 3s n 2, zatem inf n 1sn = min{s 2, 2s 3 } = min{2, π/ 2} = 2. n 2 2.3 Izoperymetria gaussowska Przypomnijmy, że przez γ k oznaczamy kanoniczny rozkład gaussowski na R k, tzn. rozkład z gęstością (2π) k/2 exp( x 2 /2). Głównym wynikiem, który wykażemy jest to, że dla rozkładów gaussowskich optymalne dla problemu izoperymetrycznego są półprzestrzenie afiniczne, to znaczy zbiory postaci H = {x R k : x, u < r} dla pewnych u S k 1 i r [, ]. (3) 11

Twierdzenie 2.7. Niech H będzie półprzestrzenią afiniczną, a A zbiorem borelowskim w R k takim, że γ k (H) = γ k (A). Wówczas dla dowolnego t >, γ k (H t ) γ k (A t ) Zanim przystąpimy do dowodu twierdzenia pokażemy, że γ k jest granicą rzutowań rozkładów jednostajnych na ns n 1. Niech P = P k,n oznacza kanoniczny rzut R n na R k dla k < n, zaś σ n 1 oznacza unormowaną miarę powierzchniową na ns n 1. Oznaczmy przez µ k,n obraz σ n 1 przy tym rzutowaniu tzn. µ k,n (A) = σ n 1 ( P 1 k,n (A) ) dla A B(R k ). Fakt 2.8 (Lemat Poincaré). Miara µ k,n zbiega słabo przy n do miary γ k, co więcej lim µ k,n(a) = γ k (A) dla dowolnego zbioru borelowskiego A. n Dowód. Proste rozumowanie pokazuje, że miara µ k,n ma gęstość g k,n (x) = c 1 k,n g n,k(x), gdzie g n,k = ( n x 2 n ) (n k)/2 1 { x n} oraz c k,n = R k g n,k (x)dx. Oczywiście lim n g k,n (x) = exp( x 2 /2), ponadto g k,n (x) exp( (n k) x 2 /(2n)) exp( x 2 /(2n)) dla n > k, więc z twierdzenia Lebesgue a o zbieżności zmajoryzowanej lim n c n,k = R k exp( x 2 /2)dx, czyli gęstość miary µ k,n zbiega punktowo do gęstości miary γ k. Teza faktu wynika z twierdzenia Scheffe go (zob. zad.8.1.7 w [1]). Dowód Twierdzenia 2.7. Ze względu na rotacyjną niezmienniczość miary γ k możemy dla uproszczenia notacji założyć, że H = {x: x 1 < r}. Ustalmy dowolne r < r i niech H = {x: x 1 < r }. Zauważmy, że γ k (H ) < γ k (A) zatem na podstawie Lematu Poincaré µ k,n (H ) µ k,n (A) dla dużych n. Ponieważ Pk,n 1 (H ) ns n 1 jest kulą w ns n 1, więc na mocy izoperymetrii sferycznej ( ) ( σ n 1 (Pk,n 1 (A)) t σ n 1 (Pk,n 1 (H )) t ). Zauważmy, że przekształcenie P k,n jest oczywiście 1-lipschitzowskie, więc µ k,n (A t ) µ k,n (P k,n ((P 1 k,n (A)) t)) µ k,n (P k,n ((P 1 k,n (H )) t )). Nietrudno zauważyć, że P k,n ((P 1 k,n (H )) t ) = {x: x 1 < r n } 12

oraz r n r + t przy n. Stąd γ k (A t ) = lim n µ k,n(a t ) lim n µ k,n({x: x 1 < r n }) = γ k ({x: x 1 < r + t}), z dowolności r < r wynika teza. Twierdzenie 2.9. Jeśli γ k (A) = Φ(x) to γ k (A t ) Φ(x + t) oraz γ k + (A) I γ (γ k (A)), gdzie I γ (x) := ϕ(φ 1 (x)) oraz ϕ(x) = Φ (x) = 1 2π exp( x 2 /2). Dowód. Wystarczy zauważyć, że jeśli γ k (H) = Φ(x) i H jest postaci (3), to H t = {x R k : x, u < r + t} i γ k (H t ) = Φ(x + t). Zauważając, że Φ() = 1/2 otrzymujemy: Wniosek 2.1. α γk (t) 1 Φ(t) 1 2 exp( t2 /2). Na podstawie Faktu 1.2 dostajemy: Wniosek 2.11. Jeśli F : R k R jest funkcją L-lipschitzowską oraz t to γ k ({x: F (x) Med γk (F ) + t}) 1 Φ(t/L) 1 t2 e 2L 2 2 oraz γ k ({x: F (x) Med γk (F ) t}) 2(1 Φ(t/L)) e t2 2L 2 Transportując w sposób lipschitzowski miarę gaussowską można uzyskać oszacowania funkcji koncentracji dla innych miar. Pokażemy dwa przykłady. Wniosek 2.12. Niech µ [,1] n oznacza rozkład jednostajny na kostce [, 1] n. Wówczas µ [,1] n jest (2π) 1/2 -lipschitzowskim obrazem γ n. W szczególności α µ[,1] n 1 2 exp( πt2 ). Dowód. Określmy f : R (, 1) wzorem f(x) = µ [,1] ([, f(x)]) = γ 1 ((, x]) = Φ(x). Wówczas f transportuje γ 1 na µ [,1], to znaczy µ [,1] = γ 1 f 1. Ponadto f (x) = (2π) 1/2 exp( x 2 /2) (2π) 1/2, czyli f jest (2π) 1/2 -lipschitzowska. Jeśli teraz określimy F : R n (, 1) n wzorem F (x) = (f(x 1 ),..., f(x n )), to F transportuje γ n na µ oraz F jest (2π) 1/2 -lipschitzowska. Ostatnie oszacowanie w tezie wniosku jest konsekwencją Faktu 1.5 i Wniosku 2.1. 13

Wniosek 2.13. Niech B n = {x R n : x 1} oznacza kulę jednostkową w R n, zaś µ Bn będzie rozkładem jednostajnym na B n. Wówczas istnieje stała C taka, że µ Bn jest Cn 1/2 -lipschitzowskim obrazem γ n. W szczególności 1 2 exp( nt2 /(2C)). α µbn Dowód. Ponieważ obie miary γ n i µ Bn są rotacyjnie niezmiennicze, będziemy szukać funkcji T : R n B n transportującej γ n na µ Bn postaci T x = x x ϕ( x ). Wystarczy sprawdzić, że γ n(b(, t)) = µ n (B(, ϕ(t))), czyli całkując we współrzęsnych sferycznych, że dla t, gdzie Z (4) wynika, że c n = ϕ(t) n = 1 c n ϕ(t) n 1 c n e t2 /2 t r n 1 e r2 /2 dr, (4) r n 1 e r2 /2 dr = 2 (n 2)/2 Γ( n 2 ). t r n 1 dr = 1 nc n t n e t2 /2. Różniczkując stronami (4) dostajemy nϕ (t)ϕ(t) n 1 = t n 1 e t2 /2 /c n, zatem ϕ (t) = 1 ( t ) n 1e t 2 /2 1 (nc n e t2 /2 ) (n 1)/n e t2 /2 (nc n ) 1/n. nc n ϕ(t) nc n Ze wzoru Stirlinga dostajemy nc n = 2 n/2 Γ( n 2 + 1) (n e )n/2, więc ϕ Lip = sup ϕ (t) t e n. Otwarty problem. Rozwiązać zagadnienie izoperymetryczne dla zbiorów symetrycznych, to znaczy znaleźć dla ustalonego t >, c [, 1], inf { γ k (A t ): γ k (A) = c, A = A } oraz inf { γ + k (A): γ k(a) = c, A = A }. Dość naturalna hipoteza mówi, że dla c 1/2 rozwiązaniem obu problemów są zbiory postaci [ a, a] R k 1 zaś dla c < 1/2 drugi problem się optymalizuje dla (R \ [ a, a]) R k 1. Podobny problem można postawić dla miary σ n, ale tam analogiczna hipoteza okazuje się być niestety fałszywa. 14

3 Koncentracja w przestrzeniach produktowych 3.1 Transformata Laplace a Wiele dalszych szacowań będzie oparte na transformacie Laplace a zmiennej losowej. Definicja 3.1. Transformatą Laplace a zmiennej losowej Z nazywamy funkcję L Z (λ) := Ee λz λ R. Podobnie jeśli µ jest miarą probabilistyczną na pewnej przestrzeni X oraz F : X R, to transformatę Laplace a F względem µ określamy L F,µ (λ) := e λf (x) dµ(x). Fakt 3.1. Dla dowolnej zmiennej losowej Z, X P(Z t) inf λ e λt L Z (λ) dla t. W szczególności, jeśli dla pewnego a >, to dla t L Z (λ) exp(aλ 2 ) λ R, ( P(Z t) exp t2 ) ( oraz P( Z t) 2 exp t2 ). 4a 4a Dowód. Pierwsza część wynika z nierówności Czebyszewa, a druga z pierwszej i prostego rachunku. Zatem by udowodnić, że funkcja koncentracji miary µ jest gaussowska wystarczy wykazać, że L F,µ (λ) exp(aλ 2 ) dla pewnego a > i wszystkich funkcji 1-lipschitzowskich F takich, że F dµ =. 3.2 Metody Martyngałowe Twierdzenie 3.2 (Nierówność Azumy). Niech (M k, F k ) n k= będzie martyngałem o ograniczonych przyrostach takim, że M k M k 1 a k. Wówczas ( P(M n M t) exp t 2 2 n a 2 i ). 15

Dowód. Określmy dla 1 k n, d k := M k M k 1, wówczas E(d k F k 1 ) =. Mamy 1 u 1+u 2 ( x) + 2 x = ux, więc z wypukłości exp(x), e ux 1 u 2 e x + 1 + u e x = u sinh(x) + cosh(x) dla u 1. 2 Stosując tę nierówność dla u = d k /a k i x = λa k dostajemy Liczymy ( E(e λd dk ) k Fk 1 F k 1 ) E sinh(λa k ) + cosh(λa k ) = cosh(λa k ). a k Ee λ(mn M ) = Ee λ(m n 1 M +d n) = E(e λ(m n 1 M ) E(e λdn F n 1 )) cosh(λa n )Ee λ(m n 1 M ). Zatem iterując powyższą nierówność i stosując oszacowanie (wynikające np. z rozwinięcia w szereg Taylora) cosh(x) exp(x 2 /2) dostajemy n L Mn M (λ) = Ee λ(mn M) cosh(λa k ) exp( 1 a 2 2 kλ 2 ). k=1 k=1 Teza twierdzenia wynika z Faktu 3.1. Uwaga. Najczęściej będziemy mieli F = {, Ω}, wówczas M jest stałe, a ponieważ martyngał ma stałą wartość oczekiwaną, to M = EM n. W poniższych zastosowaniach będziemy przyjmować M k = E µ (F F k ) dla całkowalnej funkcji F : X R i odpowiednio dobranego (F k ) ciągu σ-ciał podzbiorów X. Wniosek 3.3. Niech (X i, d i ) będą przetrzeniami metrycznymi, X = X 1 X n z odległością l 1, to znaczy d(x, y) = n d i (x i, y i ) dla x, y X oraz niech µ = µ 1... µ n będzie produktem miar probabilistycznych µ i na X i. Wówczas dla dowolnej funkcji 1-lipschitzowskiej F na X ({ µ x: F (x) }) F dµ + t exp( t2 2D 2 ), gdzie D = ( n Diam(X i ) 2 ) 1/2. W szczególności ( α µ (t) exp t2 ) 8D 2. 16

Dowód. Na mocy Faktu 1.3 wystarczy wykazać pierwszą nierówność tezy. Niech F k będzie σ ciałem generowanym przez pierwsze k-współrzędnych oraz M k := E µ (F F k ). Wówczas oczywiście M k (x) = M k (x 1,..., x k ) = F (x)dµ i+1 (x i+1 ) dµ n (x n ), X k+1... X n stąd M k (x) M k 1 (x) = M k (x 1,..., x k ) Mk (x 1,..., x k )dµ k (x k ) X k sup M k (x 1,..., x k 1, y k ) M k (x 1,..., x k 1, z k ) y k,z k X k sup F (x 1,..., x k 1, y k, y k+1,..., y n ) F (x 1,..., x k 1, z k, y k+1,..., y n ) y X,z k X k sup d k (y k, z k ) Diam(X k ) y k,z k X k i teza wynika z Twierdzenia 3.2. Definicja 3.2. Mówimy, że skończona przestrzeń metryczna (X, d) ma długość conajwyżej l, jeśli istnieje rosnący ciąg podziałów X, {X} = A, A 1,..., A n = {{x}: x X} (A i jest podpodziałem A i 1 ) oraz liczby a 1,..., a n spełniające ( n a 2 i )1/2 l takie, że dla dowolnego A A i 1 oraz B, C A i, B, C A istnieje bijekcja Φ: B C dla której d(x, Φ(x)) a i dla x B. Uwaga. Biorąc A = {X} i A 1 = {{x}: x X} widzimy, że każda skończona przestrzeń metryczna ma długość nie większą niż Diam(X). Twierdzenie 3.4. Jeśli (X, d) jest skończoną przestrzenią metryczną o długości co najwyżej l, zaś µ unormowaną miarą liczącą na X, to dla funkcji 1-lipschitzowskich F na X, w szczególności ({ µ x: F (x) }) F dµ + t exp( t2 2l 2 ), ( α µ (t) exp t2 ) 8l 2. Dowód. Ustalmy funkcję 1-lipschitzowską F. Niech F i będzie σ-ciałem generowanym przez A i oraz M i := E µ (F F i ) dla i =,..., n. Wówczas M i (x) = 1 F (y) dla x A A i. #A y A 17

Zatem, jeśli A A i 1, B, C A i, B, C A oraz Φ: B C jest bijekcją jak w Definicji 3.2, to dla x B, y C, 1 M i (x) M i (y) = (F (z) F (Φ(z)) sup F (z) F (Φ(z)) #B z B z B sup d(z, Φ(z)) a i. z B Ponieważ M i 1 na A A i 1 jest uśrednieniem M i po B A, B A i, to mamy M i (x) M i 1 (x) a i, czyli M i M i 1 a i 1. Teza wynika z Twierdzenia 3.2 oraz Faktu 1.3. Przykład 1. Niech X = {, 1} n z odległością d(x, y) = 1 n #{i: x i y i }. Możemy wtedy położyć A i = {{(x 1,..., x i )} {, 1} n i : x 1,..., x i {, 1}} i łatwo sprawdzić, że założenia definicji są spełnione z a i = 1 n. Zatem l = 1/ n i α ({,1} n,d,µ) exp( nt2 8 ). Przykład 2. Ogólniej niech X i będą skończonymi zbiorami, X = X 1 X n, d(x, y) = #{i: x i y i } oraz µ będzie unormowaną miarą liczącą na X. Analogicznie jak poprzednio A i = {{(x 1,..., x i )} X i+1 X n : x j X j, 1 j i} oraz a i = 1. Zatem l = n i α (X,d,µ) exp( t2 8n ). Przykład 3. Niech Π n będzie grupą permutacji zbioru {1,..., n} z metryką d(σ, π) = #{i: σ i π i }, a µ unormowaną miarą liczącą na Π n. Niech A i składa się ze zbiorów postaci A j1,...,j i = {σ Π n : σ(1) = j 1,..., σ(i) = j i }. Wówczas jeśli B, C A i są podzbiorami pewnego A A i 1 to B = A j1,...,j i 1,p, C = A j1,...,j i 1,q i możemy zdefiniować bijekcję Φ między B i C jako Φ = τ p,q σ, gdzie τ p,q jest transpozycją zamieniającą p z q. Łatwo sprawdzić, że d(σ, Φ(σ)) 2/n, zatem l = 2/ n i α (Π n,d,µ) exp( nt2 32 ). 18

Ostatnie twierdzenie z tej części wiąże się z miarą Haara na zwartej grupie metrycznej (G, d), to znaczy taką miarą probabilistyczną µ, że µ(ga) = µ(a) = µ(ag) dla dowolnego A B(G) i g G. Zakładamy, że d jest niezmiennicza na translacje, tzn d(hg 1, hg 2 ) = d(g 1, g 2 ) = d(g 1 h, g 2 h) dla g 1, g 2, h G. Dla podgrupy domkniętej H G można wprowadzić odległość na G/H wzorem ρ(g 1 H, g 2 H) = d(g 1, g 2 H) = d(g 1 2 g 1, H). Twierdzenie 3.5. Niech µ będzie miarą Haara na zwartej grupie metrycznej (G, d) oraz G = G G 1 G n = {e} będzie ciągiem domkniętych podgrup. Wówczas ( α (G,d,µ) exp t2 ) 8l 2, gdzie l = ( n Diam(G i 1 /G i ) 2 ) 1/2. Dowód. Niech F będzie funkcją 1-lipschitzowską, M i = E µ (F F i ) gdzie F i jest σ-ciałem generowanym przez zbiory gg i. Załóżmy, że g 1 G i, g 2 G i g G i 1 wówczas g 1 g 1, g 1 g 2 G i 1, więc ze zwartości G i Diam(G i 1 /G i ) d(g 1 g 1, g 1 g 2G i ) = d(g 1 g 1, g 1 g 2h) = d(g 1, g 2 h) dla pewnego h G i. Określmy przekształcenie Φ wzorem Φ(g) = g 2 hg 1 1 g, wówczas Φ zachowuje miarę µ oraz jest homeomorfizmem między g 1 G i g 2 G. Ponadto F (g) F (Φ(g)) d(g, Φ(g)) = d(g, g 2 hg 1 1 g) = d(g 1, g 2 h) Diam(G i 1 /G i ). Stąd oscylacja M i na g G i 1 jest nie większa niż a i = Diam(G i 1 /G i ) czyli po uśrednieniu M i M i 1 a i i możemy stosować Twierdzenie 3.2 3.3 Nierówność Poincaré Definicja 3.3. Mówimy, że miara probabilistyczna µ na (X, d) spełnia nierówność Poincaré ze stałą C, jeśli dla wszystkich ograniczonych lipschitzowskich funkcji f na X zachodzi Var µ (f) C f 2 dµ, (5) gdzie f (x) := lim sup y x f(x) f(y), d(x, y) jeśli x jest punktem skupienia X i f (x) =, jeśli x jest punktem izolowanym X. 19

Uwaga 1. W przypadku, gdy X = R n ze standardową metryką euklidesową możemy użyć twierdzenia Rademachera, które mówi, że każda funkcja Lipchitzowska jest różniczkowalna prawie wszędzie i wtedy f (x) jest dla prawie wszystkich x równy długości zwykłego gradientu f. Ponadto standardowy argument aproksymacyjny pokazuje, że by wykazać nierówność Poincaré dla miar probabilistycznych na R n wystarczy sprawdzić (5) dla ograniczonych funkcji klasy C 1 (R n ) o ograniczonych pochodnych rzędu jeden. Uwaga 2. Będziemy wykorzystywali tylko dwie własności f. Mianowicie, że dla funkcji 1-lipschitzowskich f 1 oraz, że dla dowolnej funkcji klasy C 1 (R), g(f ) g (F ) F (w szczególności (f + c) = f ). Uwaga 3. Załóżmy, że miara µ ma gęstość postaci e V na R n. Wówczas proste całkowanie przez części pokazuje, że f 2 dµ = ( f + V, f )fdµ. Definiując operator Lf := f + V, f widzimy, że L1 =. Nierówność Poincaré mówi, że dla funkcji f o średniej, czyli prostopadłych do 1, flfdµ C 1 f 2 dµ. Biorąc pod uwagę samosprzężoność L nierówność (5) jest równoważna temu, że kolejna wartość własna L to conajmniej 1/C. Dlatego nierówność Poincaré się nazywa nierównością luki spektralnej (spectral gap inequality). Czasem wygodniej w nierówności Poincaré zastąpić wariancję funkcji przez całkę kwadratu odchylenia od mediany, okazuje się, że prowadzi to do równoważnej nierówności. Fakt 3.6. Nierówność Poincaré jest równoważna nierówności E µ f Med µ f 2 C f 2 dµ. f Lip(X) Co więcej optymalne stałe w obu nierównościach spełniają C opt C opt (1 + 2) 2 C opt. Dowód. Ponieważ więc oczywiście C opt C opt. Var µ (f) = inf c R E µ(f c) 2 E µ f Med µ f 2, 2

Stąd By udowodnić przeciwne oszacowanie zauważmy, że Var µ (f) Med µ f E µ f 2 µ({ f E µ f Med µ f E µ f}) 1 2 Med µf E µ f 2. (E µ f Med µ f 2 ) 1/2 Var µ (f) 1/2 + Med µ f E µ f (1 + 2)Var µ (f) 1/2 i otrzymujemy C opt (1 + 2) 2 C opt. Twierdzenie 3.7. Załóżmy, że miara µ spełnia nierówność Poincaré ze stałą C. Wówczas dla każdej funkcji 1-lipschitzowskiej F i t > ({ }) ( µ F F dµ + t 2 exp t ). C W szczególności α X (t) 2 exp( t/2 C). Dowód. Rozpatrując F F dµ możemy założyć, że F ma średnią zero. Zauważmy, że dla dowolnej funkcji różniczkowalnej g mamy g(f ) g (F ) F g (F ). Niech M(λ) := M µ,f (λ) = e λf dµ. Stosując nierówność Poincaré do e λf/2 dostajemy ( λ ) 2 Var µ (e λf/2 ) = M(λ) M C 2 Zatem dla λ < 2/ C dostajemy M(λ) Iterując tę nierówność n razy dostajemy M(λ) n 1 k= 1 ( λ ) 2. 1 Cλ 2 /4 M 2 e λf/2 2 dµ Cλ2 4 M(λ). ( 1 ) 2k ( λ ) 2 n 1 Cλ 2 /4 k+1 M 2 n. Ponieważ M() = 1 i M () = F dµ =, to M(λ/2 n ) 2n 1 przy n i M(λ) k= ( 1 1 Cλ 2 /4 k+1 ) 2k. 21

Zauważmy, że (1 Cλ 2 4 k 1) 2 k 1 Cλ 2 2 k 4 k 1 = 1 C 2 λ2. k= W szczególności M(1/ C) 2 i teza wynika z nierówności Czebyszewa. Fakt 3.8. Symetryczny rozkład wykładniczy ν na R z gęstością 1 2 e x spełnia nierówność Poincaré ze stałą 4. Dowód. Proste całkowanie przez części pokazuje, że dla funkcji h C 1 ogr(r), h(x)dν(x) = h() + k= Niech f C 1 ogr(r) i g(x) = f(x) f() wówczas g 2 dν = 2 sgn(x)h (x)dν(x). sgn(x)g (x)g(x)dν(x) 2( g 2 dν) 1/2 ( g 2 dν) 1/2, stąd Var ν (f) g 2 dν 4 g 2 dν = 4 f 2 dν. Fakt 3.9. Załóżmy, że µ i są miarami probabilistycznymi na X i, X = X 1... X n oraz µ = µ 1 µ 2 µ n. Wówczas dla dowolnej funkcji f L 2 (X, µ) Var µ (f) E µ Var µi (f). Dowód. Prosta indukcja pokazuje, że wystarczy rozpatrzeć przypadek n = 2. Wówczas Var µ (f) = E µ2 E µ1 (f E µ f) 2 = E µ2 [Var µ1 (f) + (E µ1 f E µ f) 2 ] = E µ Var µ1 (f) + E µ2 [E µ1 (f E µ2 f)] 2 E µ Var µ1 (f) + E µ2 E µ1 [(f E µ2 f) 2 ] = E µ Var µ1 (f) + E µ Var µ2 (f), gdzie ostatnia nierówność wynika np. z nierówności Jensena. 22

Wniosek 3.1. Załóżmy, że miary probabilistyczne µ i na (X i, d i ) spełniają nierówność Poincaré ze stałą C i względem gradientu i. Wówczas miara µ = µ 1 µ n spełnia nierówność Poincaré ze stałą C = max i C i względem gradientu f danego wzorem Dowód. Z Faktu 3.9 dostajemy f 2 = i f 2. Var µ (f) E µ Var µi (f) E µ C i E µi i f 2 n CE µ i f 2. Wniosek 3.11. Produktowy rozkład wykładniczy ν n spełnia nierówność Poincaré na R n ze stałą 4. W szczególności α ν n(t) 2 exp( t/4). Kolejną przyjemną własnością nierówności Poincaré jest jej stabilność ze względu na zaburzenia miary µ. Fakt 3.12. Załóżmy, że µ jest miarą probabilistyczną na X, V jest ograniczoną funkcją borelowską oraz dν = Z 1 e V dµ, gdzie Z = e V dµ. Wówczas jeśli miara µ spełnia nierówność Poincaré ze stałą C to ν spełnia nierówność Poincaré ze stałą Ce 2 V. Dowód. Weźmy funkcję lipschitzowską f, odejmując stałą możemy założyć, że E µ f =. Wówczas Var ν (f) E ν f 2 = 1 f 2 e V dµ 1 Z Z e V f 2 dµ 1 Z e V C f 2 dµ = Ce V f 2 e V dν Ce 2 V f 2 dν. Fakt 3.13. Jeśli miara ν na (Y, ρ) jest L-lipschitzowskim obrazem miary µ na (X, d) oraz µ spełnia nierówność Poincaré ze stałą C, to ν spełnia nierówność Poincaré ze stałą CL 2. 23

Dowód. Niech ν = µ ϕ 1, gdzie ϕ: X Y i ϕ Lip L. Dla funkcji lipschitzowskich f na Y otrzymujemy Var ν (f) = Var µ (f ϕ) C f ϕ 2 dµ CL 2 f 2 (ϕ(x))dµ(x) = CL 2 f 2 dν, gdzie przedostatnia nierówność wynika z punktowego oszacowania f ϕ (x) L f (ϕ(x)). Wniosek 3.14. Istnieje stała uniwersalna L 12.5 taka, że dowolna miara symetryczna log-wklęsła µ o wariancji 1 na prostej jest L -lipschitzowskim obrazem symetrycznej miary wykładniczej ν. Stąd µ spełnia nierówność Poincare ze stałą 4L 2 62. Dowód. Niech g będzie gęstością miary µ, wówczas g = e h, gdzie h: R (, ] jest funkcją parzystą wypukłą, w szczególności g() = g. Określmy x := inf{x > : g(x) g()/e}. Zauważmy, że z log-wklęsłości wynika, że g(x) e x/x g() dla x > x oraz g() g(x) g()/e dla x < x. Stąd 2x g() e x x g(x)dx 1 = 2( 2(x g() + x + )g(x)dx x x e x/x g()dx) = 2x g (1 + 1 e ). Analogicznie Zatem 2 g() x 3 x3 x 2 g(x)dx 1 = 2( e x 2g()( skąd wnioskujemy, że x x 2 dx + x + )x 2 g(x)dx x x x 2 e x/x dx) = 2x 3 g ( 1 3 + 5 e ). e 2(e + 1) x g() e 2, 3e 2(e + 15) x3 g() 3e 2, 3 e + 15 x 3(e + 1) oraz e 2 e e + 15 g() 3(e + 1) 3/2 2. 3 24

Określmy ϕ: R R wzorem ν(, x] = µ(, ϕ(x)]. Wówczas ϕ transportuje ν na µ, jest nieparzysta i niemalejąca, zatem ϕ Lip = sup ϕ (x) = sup x x Rozpatrzmy dwie możliwości: i) ϕ(x) x. Wówczas g(ϕ(x)) g()/e i 1 2 g(ϕ(x)) e x e x 1 2 g(ϕ(x)). e 2g() 3(e + 1) 3/2. ii) ϕ(x) > x. Zauważmy, że z logarytmicznej wklęsłości g wynika, że g(ϕ(x)+ t) g(ϕ(x))e t/x dla t >, stąd Zatem 1 2 e x = ν([x, )) = µ([ϕ(x), )) = g(ϕ(x))e t/x dt = x g(ϕ(x)). 1 2 g(ϕ(x)) x e x 3(e + 1). g(ϕ(x) + t)dt Podsumowując oba przypadki otrzymujemy ϕ Lip 3(e + 1) 3/2 12.5. Uwaga. Wniosek 3.14 (z nieco gorszą stałą) jest prawdziwy bez założenia symetrii miary µ. Dowód jest bardzo podobny, choć nieco bardziej żmudny. 3.3.1 Charakteryzacja na prostej Okazuje się, że daje się podać prostą charakteryzację miar na R, które spełniają nierówność Poincaré. Zanim ją sformułujemy podamy ściśle związany fakt dotyczący tak zwanych ważonych nierówności Hardy ego. Twierdzenie 3.15 (Muckenhoupt). Załóżmy, że µ i ν są miarami na [, ). Wówczas istnieje stała C < taka, że dla każdej funkcji ograniczonej f, x f(t)dt 2 dµ C 25 f(x) 2 dν(x) (6)

wtedy i tylko wtedy gdy B := sup µ[r, ) r r 1 dx <, p(x) gdzie p oznacza gęstość części absolutnej ν. Co więcej, jeśli C opt jest najmniejszą stałą C taką, że zachodzi (6), to B C opt 4B. Dowód. Zamieniając f na f i zauważając, że wyzerowanie f na nośniku części singularnej ν nie zmienia lewej strony (6) wnioskujemy, że wystarczy badać nierówność x f(t)dt 2 dµ C f(x) 2 p(x)dx (7) dla nieujemnych f. Zauważmy, że dla f (7) implikuje ( r ) 2 r µ[r, ) f(t)dt C f(x) 2 p(x)dx Przyjmując f(x) = 1 p(x) 1 {p(x) 1/n} i biorąc najlepszą możliwą stałą dostajemy r 1 µ[r, ) p(x) 1 {p(x) 1/n}dx C opt, skąd po przejściu z n i wzięciu supremum po r dostajemy B C opt. By udowodnić, że C opt 4B wystarczy wykazać, że (7) zachodzi z C = 4B. Załóżmy wpierw, że miara µ ma gęstość g i przyjmijmy ( x 1 ) 1/2 h(x) := p(t) dt wówczas na mocy nierówności Schwarza i twierdzenia Fubiniego x Zauważmy, że f(t)dt 2 dµ = x = x [ x g(x) f(t)dt 2 g(x)dx f 2 (t)p(t)h(t)dt [ f 2 (t)p(t)h(t) g(x) t x x 1 x p(u)h(u) du = 2h (u)du = 2h(x), 26 1 ] p(u)h(u) du dx 1 ] p(u)h(u) dudx dt

więc na mocy definicji B (użytej dwa razy) t g(x) 2 B =4 B Zatem x 1 ( g(u)h(u) dudx = 2 x 1 ) 1/2 g(x) t p(u) du dx ( ) 1/2dx d ( g(x) g(u)du = 4 B dx t ( x t g(x)dx f(t)dt 2 dµ x ) 1/2 ( 4B t t 1 p(x) dx ) 1/2 = 4Bh 1 (t). x g(u)du) 1/2dx f 2 (t)p(t)h(t)4bh 1 (t) = 4B f 2 (t)p(t)dt. Jeśli miara µ nie ma gęstości, to znajdujemy miary µ n z gęstościami zbieżne słabo do µ takie, że µ n [x, ) µ[x, ) Można np przyjąć Wówczas więc x r sup µ n [r, ) r f(t)dt 2 dµ = lim 1/n µ n (A) = n µ(a + t)dt 1 p(x) x n r dx sup µ[r, ) r f(t)dt 2 dµ n 4B 1 dx = B, p(x) f(x) 2 p(x)dx. Twierdzenie 3.16. Załóżmy, że µ jest miarą probabilistyczną na R o medianie m, zaś p oznacza gęstość jej części absolutnie ciągłej. Wówczas miara µ spełnia nierówność Poincaré ze skończoną stałą C wtedy i tylko wtedy gdy max{b +, B } <, gdzie B + = sup µ[x, ) x>m x m 1 p(y) dy m 1 B = sup µ(, x] x<m x p(y) dy. Co więcej optymalna stała C opt w nierówności Poincaré spełnia 1 (1 + 2) 2 max{b +, B } C opt 4 max{b +, B }. 27

Dowód. Z Twierdzenia 3.15 (zastosowanego do miary µ obciętej do [m, ) i f zamiast f) wynika, że dla dowolnej funkcji Lipschitzowskiej f, m (f(x) f(m)) 2 dµ(x) = ( x Analogicznie rozpatrując miarę µ na odcinku (, m), m m m ) 2dµ(x) f (t)dt 4B+ f 2 (x)dµ(x). (f(x) f(m)) 2 dµ(x) 4B f 2 (x)dµ(x). m m Dodając stronami dostajemy Var µ (f) (f(x) f(m)) 2 dµ(x) 4 max{b +, B } f 2 (x)dµ(x), czyli C opt 4 max{b +, B }. By udowodnić nierówność w drugą stronę zauważmy, że jeśli f jest ograniczoną funkcją oraz g(x) = dla x m i g(x) = x m f(t)dt dla x > m, to g jest lipschitzowska, g (x) = f(x)1 {x m} p.w. oraz Med µ (g) =. Stąd na podstawie Faktu 3.6, x m m f(t)dt 2 dµ = g(x) Med µ g 2 dµ(x) (1 + 2) 2 C opt g 2 (x)dµ(x) = (1 + 2) 2 C opt f(x) 2 dµ(x). Stąd Twierdzenie 3.15 implikuje B + (1 + 2) 2 C opt, analogicznie pokazujemy B (1 + 2) 2 C opt. 3.4 Logarytmiczna Nierówność Sobolewa Definicja 3.4. Załóżmy, że µ jest miarą probabilistyczną na X, zaś f nieujemną funkcją mierzalną na X. Entropię f względem µ definiujemy wzorem { f log fdµ fdµ log fdµ jeśli f log(1 + f)dµ < Ent µ (f) := jeśli f log(1 + f)dµ =. Z wypukłości funkcji x log x na [, ) wynika, że Ent µ (f), łatwo też zauważyć, że Ent µ (λf) = λent µ (f) dla λ. m 28

Definicja 3.5. Mówimy, że miara probabilistyczna na (X, d) spełnia logarytmiczną nierówność Sobolewa ze stałą C, jeśli dla wszystkich ograniczonych lipschitzowskich funkcji f na X zachodzi Ent µ (f 2 ) 2C f 2 dµ. (8) Twierdzenie 3.17. Załóżmy, że miara µ spełnia logarytmiczną nierówność Sobolewa ze stałą C. Wówczas dla każdej funkcji 1-lipschitzowskiej F i t > ({ µ F W szczególności α X (t) exp( t 2 /8C). }) ( F dµ + t exp t2 ). 2C Dowód. Ustalmy ograniczoną funkcję 1-Lipschitzowską F taką, że F dµ =. Wystarczy, że pokażemy iż dla λ M(λ) := M F,λ = e λf dµ e Cλ2 /2. Zastosujmy logarytmiczną nierówność Sobolewa do f 2 := e λf. Wówczas Ent µ (f 2 ) = λe µ F e λf E µ e λf log E µ e λf = λm (λ) M(λ) log M(λ) oraz Zatem (8) daje f 2 dµ = λ2 4 F 2 e λf λ2 4 M(λ). λm (λ) M(λ) log M(λ) C λ2 M(λ). (9) 2 Określmy H(λ) := 1 λ log M(λ) dla λ >. Wówczas oraz na podstawie (9) lim H(λ) = M () λ M() = F dµ = H (λ) = 1 λ 2 log M(λ) + 1 M (λ) λ M(λ) C 2. Zatem H(λ) Cλ/2 czyli M(λ) exp(cλ 2 /2). 29

Lemat 3.18. Dla dowolnej funkcji nieujemnej na X, { } Ent µ (f) = sup fgdµ: e g dµ 1. (1) Dowód. Z jednorodności obu stron (1) możemy zakładać, że fdµ = 1, wówczas Ent µ (f) = f log fdµ. Nietrudno sprawdzić, że dla u >, sup v R (uv e v ) = u log u u, zatem uv u log u u + e v dla u, v R. (11) Zatem biorąc g takie, że e g dµ 1 dostajemy fgdµ (f log f f + e g )dµ = Ent µ (f) 1 + e g dµ Ent µ (f). By udowodnić nierówność w przeciwną stronę wystarczy przyjąć g = log f. Z powyższego lematu łatwo wykazać tensoryzowalność entropii: Fakt 3.19. Załóżmy, że µ i są miarami probabilistycznymi na X i, X = X 1... X n oraz µ = µ 1 µ 2 µ n. Wówczas dla dowolnej nieujemnej funkcji f na X Ent µ (f) E µ Ent µi (f). Dowód. Weźmy funkcję g na X taką, że e g dµ 1 oraz przyjmijmy dla i = 1,..., n, g i (x 1,..., x n ) := log ( e g(x 1,...,x n) dµ 1 (x 1 ) dµ i 1 (x i 1 )). e g(x 1,...,x n) dµ 1 (x 1 ) dµ i (x i ) Wówczas g n g i oraz e gi dµ i 1, stąd ( fgdµ fg i dµ = fg i dµ i )dµ Ent µi (f)dµ. Wniosek 3.2. Załóżmy, że miary probabilistyczne µ i na (X i, d i ) spełniają logarytmiczną nierówność Sobolewa ze stałą C i względem gradientu i. Wówczas miara µ = µ 1 µ n spełnia logarytmiczną nierówność Sobolewa ze stałą C = max i C i względem gradientu f danego wzorem f 2 = i f 2. 3

Dowód. Z Faktu 3.19 dostajemy Ent µ (f 2 ) E µ Ent µi (f 2 ) E µ 2C i E µi i f 2 n 2CE µ i f 2. Fakt 3.21. i) Niech µ 1 = 1 2 δ 1 + 1 2 δ 1, wówczas dla dowolnego f : { 1, 1} R, Ent µ1 (f 2 ) 2Ent µ1 Df 2, gdzie Df(x) = 1 2 (f(x) f( x)). ii) Niech µ n = µ 1 µ 1 będzie rozkładem jednostajnym na { 1, 1} n, wówczas dla dowolnego f : { 1, 1} n R, Ent µn (f 2 ) 2Ent µn Df 2, gdzie Df 2 (x) = 1 4 n (f(x) f(s i (x))) 2 oraz s i ((x 1,..., x n )) = (x 1,..., x i 1, x i, x i+1,..., x n ). Dowód. i) Z uwagi na jednorodność możemy zakładać, że E µ1 f 2 = 1, wówczas istnieje t [ 1, 1] takie, że f(1) = 1+t oraz f( 1) = 1 t i nierówność z punktu i) ma postać α(t), gdzie α(t) := 1 1 t 2 1 + t 2 log(1 + t) 1 t 2 Nietrudno sprawdzić, że α() = α () = oraz α (t) = 1 ( t 2 1 t 2 t 2 1 t 2 1 + ), 1 t 2 więc istotnie α(t). ii) Wynika z punktu i) i Faktu 3.19. log(1 t). Twierdzenie 3.22. Miara γ n spełnia logarytmiczną nierówność Sobolewa z C = 1. Dowód. Z uwagi na Fakt 3.19 wystarczy rozważyć przypadek n = 1. Niech f C 1 ogr(r). Określmy g n : { 1, 1} n R wzorem g n (x) := f( x 1 +... + x n n ). Niech µ n i Df będą jak w Fakcie 3.21. Wówczas na mocy centralnego twierdzenia granicznego Ent µn (gn) 2 = gn 2 log gndµ 2 n gndµ 2 n log gndµ 2 n Ent γ1 (f 2 ). 31

Ponadto kładąc T n (x) = n 1/2 (x 1 +... + x n ) Dg n (x) 2 = 1 (f(t n (x)) f(t n (x) 2 x i )) 2 = f (T n (x)) 2 + r n 4 n gdzie r n zbiega do zera jednostajnie względem T n (x). Zatem lim E µ n n Dg n (x) 2 = lim E µ n n f (T n (x)) 2 = E γ1 f (x) 2. Fakt 3.23. Załóżmy, że µ jest miarą probabilistyczną na X, V jest ograniczoną funkcją borelowską oraz dν = Z 1 e V dµ, gdzie Z = e V dµ. Wówczas jeśli miara µ spełnia logaryticzną nierówność Sobolewa ze stałą C to ν spełnia logarytmiczną nierówność Sobolewa ze stałą Ce 4 V. Dowód. Funkcja ϕ(u) = u log u jest wypukła na [, ) stąd dla dowolnych s, t, ϕ(s + t) ϕ(t) + ϕ (t)s, więc ϕ( ) ( ) f 2 dν = ϕ t + (f 2 t)dν ϕ(t) + ϕ (t) (f 2 t)dν. Zatem Ent ν (f 2 ) = inf [ϕ(f) ϕ(t) t R ϕ (t)(f 2 t)]dν 1 Z e V inf [ϕ(f) ϕ(t) ϕ (t)(f 2 t)]ze V dν t R = 1 Z e V Ent µ (f 2 ) 2C Z e V f 2 dµ 2Ce 2 V f 2 dν. Kolejny fakt dowodzimy tak samo jak dla nierówności Poincaré. Fakt 3.24. Jeśli miara ν na (Y, ρ) jest L-lipschitzowskim obrazem miary µ na (X, d) oraz µ spełnia logarytmiczną nierówność Sobolewa ze stałą C, to ν spełnia logarytmiczną nierówność Sobolewa ze stałą CL 2. Stosując nierówność logarytmiczną Sobolewa do funkcji f = 1 + εg dowodzimy Fakt 3.25. Jeśli miara probabilistyczna µ spełnia logarytmiczną nierówność Sobolewa ze stałą C, to spełnia również nierówność Poincaré ze stałą C. 32

Opierając się na twierdzeniu Muckenhoupta da się wyprowadzić kryterium równoważne nierówności logarytmicznej Sobolewa dla miar na prostej. Twierdzenie 3.26. Załóżmy, że µ jest miarą probabilistyczną na R o medianie m, zaś p oznacza gęstość jej części absolutnie ciągłej. Wówczas miara µ spełnia logarytmiczną nierówność Sobolewa ze skończoną stałą C wtedy i tylko wtedy gdy max{b +, B } <, gdzie ( 1 ) x 1 B + = sup µ[x, ) ln x>m µ[x, ) m p(y) dy ( 1 ) m 1 B = sup µ(, x] ln x<m µ(, x] x p(y) dy. Co więcej optymalna stała C opt w nierówności Poincaré spełnia 3.5 Nierówność Bobkowa 1 15 (B + + B ) C opt 468(B + + B ). Nierówność logarytmiczna Sobolewa implikuje koncentrację gaussowską, ale nie implikuje gaussowskiej izoperymetrii. Okazuje się, że jest silniejsza nierówność, która implikuje gaussowską izoperymetrię, a jednocześnie ma szereg równie dobrych własności jak nierówność Poincaré czy logarytmiczna nierówność Sobolewa. Przedstawione poniżej rozumowania można podobnie jak w poprzednich sekcjach prowadzić w większej ogólności, jednak by uniknąć szczegółów technicznych ograniczymy się do miar na R n i funkcji gładkich. W tej części przez I będziemy oznaczać gaussowską funckję izoperymetryczną, tzn I(x) = ϕ(φ 1 (x)), gdzie ϕ = (2π) 1/2 exp( x 2 /2). Dodatkowo określamy I() = I(1) =. Definicja 3.6. Mówimy, że miara probabilistyczna µ na R n spełnia nierówność Bobkowa ze stałą C, jeśli dla wszystkich f C 1 ogr(r n ) o wartościach w przedziale [, 1] zachodzi I( ) fdµ I(f) 2 + C f 2 dµ. (12) Fakt 3.27. Jeśli miary µ i spełniają nierówność Bobkowa ze stałymi C i, to miara µ 1 µ n spełnia nierówność Bobkowa ze stałą max i C i. 33

Twierdzenie 3.28. Jeśli miara probabilistyczna µ na R n spełnia nierówność Bobkowa na ze stałą C, to µ + (A) I(µ(A)) dla A B(R n ) oraz µ(a t ) Φ(Φ 1 (µ(a)) + t) dla A B(R n ), t >. Twierdzenie 3.29. Kanoniczna miara gaussowska γ n spełnia nierówność Bobkowa z C = 1. 3.6 Nierówności Splotu Infimum Zacznijmy od zaproponowanej przez Maureya definicji. Definicja 3.7. Splotem infimum dwu funkcji f i g określonych na R n nazywamy funkcję f g daną wzorem f g(x) := inf{f(y) + g(x y): y R n }. Niech µ będzie miarą probabilistyczną na R n oraz ϕ: R n [, ]. Mówimy, że para (µ, ϕ) ma własność (τ) bądź, że miara µ spełnia nierówność splotu infimum z funkcją kosztu ϕ jeśli e f ϕ dµ e f dµ 1 dla dowolnej ograniczonej mierzalnej funkcji f na R n. Pierwszą użyteczną cechą własności (τ) jest jej tensoryzowalność. Fakt 3.3. Jeśli pary (µ i, ϕ i ) mają własność (τ), µ = µ 1 µ n oraz ϕ(x 1,..., x n ) = ϕ 1 (x 1 ) +... + ϕ n (x n ), to również para (µ, ϕ) ma własność (τ). Dowód. Prosty argument indukcyjny pokazuje, że wystarczy udowodnić tezę dla n = 2. Niech f = f(x, y) będzie ograniczoną funkcją na R n 1 R n 2, określmy g na R n 2 jako ( ) g(y) := ln e f(x,y) dµ 1 (x). 34

Dodatkowo wprowadźmy oznaczenie f y (x) = f(x, y). Wówczas dla dowolnych y, ỹ e f ϕ(x,y) dµ 1 (x) e f ỹ ϕ 1 (x)+ϕ 2 (y ỹ) dµ 1 (x) e g(ỹ)+ϕ 2(y ỹ) na mocy własności (τ) dla (µ 1, ϕ 1 ). Stąd e f ϕ(x,y) dµ 1 (x) e g ϕ 2(y) i korzystając z Twierdzenia Fubiniego i (τ) dla (µ 1, ϕ 2 ). ( 1 e f ϕ dµ 1 µ 2 e g ϕ2(y) dµ 2 (y) e g(y) dµ 2 (y)) = ( e f dµ 1 µ 2 ) 1. Następny fakt pokazuje w jaki sposób można transportować (τ). Fakt 3.31. Załóżmy, że µ jest miarą probabilistyczną na R n, zaś ϕ funkcją kosztu na R n taką, że (µ, ϕ) spełnia własność (τ). Jeśli T : R n R m oraz funkcja ψ na R m spełnia ψ(t x T y) ϕ(x y) dla wszystkich x, y, to para (µ T 1, ψ) ma własność (τ). Dowód. Niech f będzie ograniczoną funkcją na R m. Zauważmy, że f T ϕ(x) = inf y (f(t y)+ϕ(x y)) inf(f(t y)+ψ(t x T y)) f ψ(t x). y Zatem e f ψ dµ T 1 = e f ψ(t x) dµ(x) ( 1 e f T ϕ(x) dµ(x) e dµ) f T ( = e f dµ T 1) 1. By sformułować związki nierówności splotu infimum z koncentracją określmy zbiór B ϕ (t) = {x: ϕ(x) t}. Zacznijmy od prostego faktu 35

Fakt 3.32. Jeśli (µ, ϕ) ma własność (τ) to dla dowolnego zbioru borelowskiego A takiego, że µ(a) > mamy 1 µ(a + B ϕ (t)) 1 µ(a) e t. Dowód. Zastosujmy własność (τ) do funkcji f = na zbiorze A i f = poza zbiorem A. Zauważmy, że f ϕ t poza zbiorem A + B ϕ (t), zatem 1 e f ϕ dµ e f dµ e t (1 µ(a + B ϕ (t))µ(a). Uwaga. Funkcja f w poprzednim dowodzie nie była oczywiście ograniczona, ale łatwo ominąć ten problem stosując nierówność (τ) do f n = n1 R n \A dla n t. Poprzedni Fakt daje dobre oszacowanie tylko dla dużych wartości t. Nieco modyfikując jego dowód da się uzyskać też nierówności koncentracyjne dla małych t. Fakt 3.33. Załóżmy, że para (µ, ϕ) ma własność (τ). Wówczas dla dowolnego zbioru borelowskiego A i t >, W szczególności µ(a + B ϕ (t)) e t µ(a) (e t 1)µ(A) + 1. (13) µ(a + B ϕ (t)) > min{e t/2 µ(a), 1/2} (14) oraz µ(a) 1 2 1 µ(a + B ϕ(t)) < e t/2 (1 µ(a)). (15) Ponadto µ(a) = ν(, x] µ(a + B ϕ (t)) ν(, x + t/2]. (16) Dowód. Niech f(x) = t1 R n \A. Wówczas f jest nieujemna, więc f ϕ też jest nieujemna (rozpatrujemy tylko nieujemne funkcje kosztu). Dla x A+B ϕ (t) mamy f ϕ(x) t. Zatem własność (τ) daje 1 e f ϕ(x) dµ(x) e f(x) dµ(x) [ µ ( A + B ϕ (t) ) + e t( 1 µ(a + B ϕ (t)) )] [ µ(a) + e t (1 µ(a)) ], 36

skąd bezpośredni rachunek prowadzi do (13). Niech f t (p) := e t p/((e t 1)p + 1), zauważmy, że f t is rosnąca względem p oraz dla p e t/2 /2, (e t 1)p + 1 e t/2 + 1 1 2 (et/2 + e t/2 ) < e t/2, skąd otrzymujemy (14). Ponadto dla p 1/2, 1 f t (p) = 1 p (e t 1)p + 1 1 p (e t + 1)/2 < e t/2 (1 p) i dostajemy (15). Niech F (x) = ν(, x] i g t (p) = F (F 1 (p) + t). Poprzednie rachunki pokazują, że dla t, p >, f t (p) g t/2 (p), jeśli F 1 (p)+t/2 lub F 1 (p). Ponieważ g t+s = g t g s i f t+s = f t f s, otrzymujemy f t (p) g t/2 (p) dla wszystkich t, p >, zatem (13) implikuje (16). Niech jak do tej pory ν oznacza miarę na R z gęstością 1 2 e x, zaś ν +, ν miary z gęstościami odpowiednio e x 1 [, ) i e x 1 (,]. Fakt 3.34. Para (ν +, ϕ ) ma własność (τ), gdzie ϕ (x) = { 1 18 x2 dla x 2 ( x 1) dla x > 2. Lemat 3.35. Dla wszystkich x R mamy 2 ϕ (x) 1 oraz 2 9 (1 4ϕ (x) 2 )e ϕ (x) 1. Dowód. Pierwszą nierówność otrzymujemy przez łatwe sprawdzenie. By udowodnić drugą, z uwagi na symetrię ϕ, wystarczy rozpatrywać przypadek x. Ponadto ϕ (x) jest stałe dla x 2 a ϕ rosnące na tym przedziale, więc możemy zakładać, że x 2. Wówczas nierówność po podstawieniu y = x 2 /18 ma postać e y 1 8 9 y, y 2 9. Funkcja e y jest wypukła, więc wystarczy sprawdzić tylko y = i y = 2/9. 37

Dowód Faktu 3.34. Ustalmy funkcję ograniczoną f, przyjmijmy g := f ϕ i niech I := e f(x) x dx, I 1 := e g(x) x dx. Musimy pokazać, że I I 1 1. Dla t (, 1) zdefiniujmy x(t) i y(t) wzorami Wówczas x(t) e f(x) x dx = ti oraz y(t) e g(x) x dx = ti 1. x (t) = I e f(x(t))+x(t), y (t) = I 1 e g(y(t))+y(t). Na mocy definicji g, g(y(t)) f(x(t)) + ϕ (y(t) x(t)), więc y (t) I 1 e f(x(t)) ϕ (y(t) x(t))+y(t). Niech z(t) = 1 2 (x(t) + y(t)) ϕ (x(t) y(t)), wówczas z (t) = ( 1 ( 1 ) 2 ϕ (x(t) y(t))) x (t) + 2 + ϕ (x(t) y(t)) y (t). Pisząc dla uproszczenia x i y zamiast x(t) i y(t) stosując poprzednie oszacowanie y (t) oraz nierówność między średnia arytmetyczną i geometryczną dostajemy (wykorzystując parzystość ϕ ) z (t) 1 2 (1 2ϕ (x y))i e x+f(x) + 1 2 (1 + 2ϕ (x y))i 1 e ϕ (x y)+y f(x) 1 4ϕ (x y)2 I I 1 e 1 2 (x+y) 1 2 ϕ (x y) = I I 1 e z(t) 1 4ϕ (x y)2 e 1 2 ϕ (x y). Zatem na mocy Lematu 3.35, ( e z(t) ) = e z(t) z (t) I I 1, co po odcałkowaniu daje I I 1 1. Uwaga. Funkcja g jest ciągła, więc y jest różniczkowalna. Funkcja f nie musi być ciągła więc x nie musi być różniczkowalna. Jednak z ograniczoności f łatwo wywnioskować lokalną Lipschitzowskość x (stąd też z), a zatem różniczkowalność x prawie wszędzie. Funkcja e z(t) jest zatem lokalnie lipschitzowska, czyli jest całką swojej pochodnej, która istnieje p.w.. Wniosek 3.36. Miara ν spełnia nierówność infimum z funkcją kosztu ϕ 1 postaci ϕ 1 (t) = 2ϕ ( t { 1 2 ) = 36 t2 dla t 4 2 9 ( t 2) dla t > 4. 38

Dowód. Z wypukłości funkcji ϕ łatwo wynika, że ϕ 1 = ϕ ϕ. Ponieważ miara ν jest symetrycznym odbiciem ν + a funkcja ϕ jest symetryczna, to (ν, ϕ ) ma własność (τ), więc (ν + ν, ϕ (x) + ϕ (y)) też ma (τ). Miara ν jest splotem miar ν + i ν, czyli obrazem ν + ν przy przekształceniu T (x, y) = x + y. Teza wynika z Faktu 3.31 Wiemy, że miara ν a zatem i miara produktowa ν n spełniają nierówność Poincaré, więc jeśli ν n (A) 1 2, to νn (A+tB2 n) 1 e t/c dla pewnej stałej absolutnej C. Okazuje się, że można tę nierówność wzmocnić. Zanim sformułujemy twierdzenie (które pierwszy z gorszymi stałymi udowodnił Talagrand) wprowadźmy następujące oznaczenie kuli jednostkowej w lp n dla 1 p < Bp n := {x R n : x i p 1}. Twierdzenie 3.37. Dla dowolnego zbioru borelowskiego A w R n takiego, że ν n (A) > mamy dla t, Ponadto 1 ν n (A + 6 tb n 2 + 9tB n 1 ) 1 ν n (A) e t. ν n (A) = ν(, x] ν n (A + 6 2tB n 2 + 18tB n 1 ) ν(, x + t]. Dowód. Para (ν n, ϕ n ) ma własność (τ), gdzie ϕ n (x 1,..., x n ) = ϕ 1 (x 1 ) +... + ϕ 1 (x n ). Łatwo sprawdzić, że B ϕn (t) 6 tb n 2 + 9tB n 1. Teza wynika zatem z Faktów 3.32 i 3.33. 3.7 Nierówności Splotu Infimum dla Funkcji Wypukłych 3.8 Nierówność Logarytmiczna Sobolewa dla Funkcji Wypukłych Fakt 3.38. Załóżmy, że F : R n R jest lipschitzowska oraz wypukła po każdej współrzędnej. Wówczas dla dowolnej produktowej miary probabilistycznej µ na R n, Ent µ (e f ) n (x i y i ) 2 ( i f) 2 (x)e f(x) dµ(x)dµ(y). 39