Algorytmy aproksymacyjne dla problemów stochastycznych

Podobne dokumenty
Algorytmy aproksymacyjne dla problemów stochastycznych

Algorytmy aproksymacyjne dla problemów stochastycznych

Algorytmy aproksymacyjne dla problemów stochastycznych

Algorytmika Problemów Trudnych

Sprzedaż online. Piotr Sankowski Uniwersytet Warszawski Warszawa p. 1/40

F t+ := s>t. F s = F t.

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Programowanie liniowe

jest ciągiem elementów z przestrzeni B(R, R)

Struktury danych i złożoność obliczeniowa Wykład 7. Prof. dr hab. inż. Jan Magott

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Informacja o przestrzeniach Sobolewa

Rozwiazywanie układów równań liniowych. Ax = b

8 Całka stochastyczna względem semimartyngałów

Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski

Wykład 1. Na początku zajmować się będziemy zbiorem liczb całkowitych

Rodzinę spełniającą trzeci warunek tylko dla sumy skończonej nazywamy ciałem (algebrą) w zbiorze X.

Dystrybucje, wiadomości wstępne (I)

Statystyka w przykładach

Prawdopodobieństwo i statystyka

Korzystając z własności metryki łatwo wykazać, że dla dowolnych x, y, z X zachodzi

ALGEBRA Z GEOMETRIĄ BAZY PRZESTRZENI WEKTOROWYCH

Programowanie liniowe

Rodzinę F złożoną z podzbiorów zbioru X będziemy nazywali ciałem zbiorów, gdy spełnione są dwa następujące warunki.

MODELE MATEMATYCZNE W UBEZPIECZENIACH

zbiorów domkniętych i tak otrzymane zbiory domknięte ustawiamy w ciąg. Oznaczamy

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Zdzisław Dzedzej. Politechnika Gdańska. Gdańsk, 2013

Wykład 10. Stwierdzenie 1. X spełnia warunek Borela wtedy i tylko wtedy, gdy każda scentrowana rodzina zbiorów domkniętych ma niepusty przekrój.

PROBLEM: SORTOWANIE PRZEZ ODWRÓCENIA METODA: ALGORYTMY ZACHŁANNE

Programowanie liniowe

Algorytmy aproksymacyjne i parametryzowane

Matematyka dyskretna. Andrzej Łachwa, UJ, /10

Ciągłość funkcji f : R R

Rekurencje. Jeśli algorytm zawiera wywołanie samego siebie, jego czas działania moŝe być określony rekurencją. Przykład: sortowanie przez scalanie:

Zadania do Rozdziału X

TEORETYCZNE PODSTAWY INFORMATYKI

Porównanie czasów działania algorytmów sortowania przez wstawianie i scalanie

Ćwiczenia z metodyki nauczania rachunku prawdopodobieństwa

Rozkład figury symetrycznej na dwie przystające

Metody numeryczne. Sformułowanie zagadnienia interpolacji

Równania różnicowe. Dodatkowo umawiamy się, że powyższy iloczyn po pustym zbiorze indeksów, czyli na przykład 0

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA

Programowanie celowe #1

Wykład z równań różnicowych

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Łatwy dowód poniższej własności pozostawiamy czytelnikowi.

i=7 X i. Zachodzi EX i = P(X i = 1) = 1 2, i {1, 2,..., 11} oraz EX ix j = P(X i = 1, X j = 1) = 1 7 VarS 2 2 = 14 3 ( 5 2 =

Podstawy metod probabilistycznych. dr Adam Kiersztyn

System BCD z κ. Adam Slaski na podstawie wykładów, notatek i uwag Pawła Urzyczyna. Semestr letni 2009/10

7. Algorytmy aproksymacyjne

B jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;

Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn

Lista zagadnień omawianych na wykładzie w dn r. :

Algorytmy i Struktury Danych, 9. ćwiczenia

Teoretyczne podstawy informatyki

Zadanie 1. Liczba szkód N w ciągu roku z pewnego ryzyka ma rozkład geometryczny: k =

Efektywność Procedur Obliczeniowych. wykład 5

Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014

Kombinatoryczne problemy optymalizacyjne to problemy wyboru najlepszego rozwiązania z pewnego zbioru rozwiązań

n=0 Dla zbioru Cantora prawdziwe są wersje lematu 3.6 oraz lematu 3.8 przy założeniu α = :

Przykłady problemów optymalizacyjnych

Detekcja rozkładów o ciężkich ogonach

Analiza stanów gry na potrzeby UCT w DVRP

Sortowanie topologiczne skierowanych grafów acyklicznych

Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak

Modele zapisane w przestrzeni stanów

ALGEBRA Z GEOMETRIĄ CIAŁO FUNKCJI WYMIERNYCH

26 marzec, Łańcuchy Markowa z czasem ciągłym. Procesy Stochastyczne, wykład 7, T. Byczkowski, Procesy Stochastyczne, PPT, Matematyka MAP1136

Wykład 11 i 12. Informatyka Stosowana. 9 stycznia Informatyka Stosowana Wykład 11 i 12 9 stycznia / 39

1. Wykład NWD, NWW i algorytm Euklidesa.

Kolorowanie wierzchołków Kolorowanie krawędzi Kolorowanie regionów i map. Wykład 8. Kolorowanie

Wstęp do sieci neuronowych, wykład 12 Wykorzystanie sieci rekurencyjnych w optymalizacji grafowej

Topologia - Zadanie do opracowania. Wioletta Osuch, Magdalena Żelazna, Piotr Kopyrski

Algorytmy i struktury danych.

Modelowanie motywów łańcuchami Markowa wyższego rzędu

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Ośrodkowość procesów, proces Wienera. Ośrodkowość procesów, proces Wienera Procesy Stochastyczne, wykład, T. Byczkowski,

Wykład 11: Martyngały: Twierdzenie o zbieżności i Hoeffdinga

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Spacery losowe generowanie realizacji procesu losowego

Analiza Algorytmów 2018/2019 (zadania na laboratorium)

OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Redukcja wariancji w metodach Monte-Carlo

dla t ściślejsze ograniczenie na prawdopodobieństwo otrzymujemy przyjmując k = 1, zaś dla t > t ściślejsze ograniczenie otrzymujemy przyjmując k = 2.

Prawdopodobieństwo i statystyka

Rozdział 6. Ciągłość. 6.1 Granica funkcji

Indukcja matematyczna. Zasada minimum. Zastosowania.

Statystyka matematyczna. Wykład III. Estymacja przedziałowa

Wykład 11: Martyngały: definicja, twierdzenia o zbieżności

Równania różniczkowe. Notatki z wykładu.

Na A (n) rozważamy rozkład P (n) , który na zbiorach postaci A 1... A n określa się jako P (n) (X n, A (n), P (n)

Optymalizacja ciągła

RACHUNEK PRAWDOPODOBIEŃSTWA WYKŁAD 3.

Elementy rachunku prawdopodobieństwa (M. Skośkiewicz, A. Siejka, K. Walczak, A. Szpakowska)

Transkrypt:

Algorytmy aproksymacyjne dla problemów stochastycznych Piotr Sankowski Uniwersytet Warszawski PhD Open, 5-6 grudzień, 2008 - p. 1/50

Plan - Wykład IV Uniwersalne algorytmy aproksymacyjne Uniwersalne stochastyczne algorytmy aproksymacyjne Uniwersalny problem pokrycia zbiorami górne ograniczenia dolne ograniczenia Universal Stochastic Set Cover Problem górne ograniczenia dolne ograniczenia - p. 2/50

Algorytmy stochastyczne Zakładamy, że żadanie dla algorytmu pochodza z uniwersum U, na którym zadany mamy rozkład prawdopodobieństwa π : U [0, 1]. Dane wejściowe ω generowane sa poprzez k krotne niezależne losowanie z π. Interesuje nas oczekiwany koszt algorytmu. - p. 3/50

Algorytmy stochatyczne Możemy rozważać różne wersje algorytmów: 2-etapowe problemy algorytm otrzymuje ω jako całość, jednak może zawczasu wykupić część rozwiazania taniej, problemy online ω może być ujawniana element po elemencie, problemy uniwersalne algorytm otrzymuje ω jako całość, ale zawczasu musi przygotować uniwersalne rozwiazanie. - p. 4/50

Współczynnik aproksymacji Naszym celem jest minimalizacja oczekiwanego kosztu algorytmu. Dlatego definiujemy współczynnik kompetytywny algorytmu jako: gdzie: RoE(ALG) = max π max k E ω π k,r[alg(ω, r)], E ω π k[opt(ω)] r oznacza losowe wybory algorytmu. OPT(ω) koszt optymalnego rozwiazania (offline). - p. 5/50

Algorytmy uniwersalne W algorytmach uniwersalnych, wprowadzonych przez Jia et al. [STOC 05], musimy zawczasu przypisać elementy e U rozwiazaniom S(e) je spełniajacym Rozwiazanie dla danych wejściowych ω jest dane jako: S(ω) = e ω S(e). A jego koszt to: c(s(ω)) = c( e ω S(e)). - p. 6/50

Algorytmy uniwersalne Naszym celem jest znalezienie funkcji S takiej, że S(ω) jest zawsze maksymalnie blisko kosztu optymalnego rozwiazania dla ω. Chcemy mimalizować uniwersalny współczynnik aproksymacji: UApx(S) = max ω U c(s(ω)) c(opt(ω)). - p. 7/50

Algorytmy uniwersalne Algorytmy uniwersalne moga się nam przydać gdy: chcemy zaplanować uniwersalna trasę TSP, chcemy zaplanować uniwersalny sieć komunikacji, chcemy skomunikować sieć sensorów o małej pamięci. Rozwi azanie jakie konstruujemy jednocześnie aproksymuje wszystkie możliwe przypadki. - p. 8/50

Stochastyczne algorytmy apr. Zazwyczaj w uniwersalnych stochastycznych problemach elementy z U sa wybierane do ω niezależnie zgodnie z rozkładem π. RoE(S) = E ω[c(s(ω))] E ω [c(opt(ω))] Ze względu na koncentrację średniej algorytmy te sa bardzo podobne do algorytmów online dla ustalonego k. - p. 9/50

Wyniki Twierdzenie 1 (Drzewo Steinera) Istnieje uniwersalny algorytm stochastyczny dla problemu drzewa Steinera taki, że RoE = O(1). Ponownie wynik także jest prawdziwy dla problemów addytywnych. Twierdzenie 2 Istnieją uniwersalne algorytmy stochastyczne dla problemów lasu Steinera, lokalizacji fabryk, oraz pokrycia wierzchołkowego takie, że RoE = O(1). - p. 10/50

Uniwersalne pokrycie zbiorami Instancja problemu uniwersalnego pokrycia zbiorami jest trójka (U, C, c), gdzie: U = {e 1,..., e n } zbiór podstawowy, C = {S 1,..., S m } kolekcja podzbiorów U, c : C R + to koszty zbiorów. Rozwi azaniem jest funkcja S : U C taka, że e f(e) dla każdego e U. - p. 11/50

Uniwersalne pokrycie zbiorami Rozważmy następujacy algorytm: D = ; while D = U do znajdź zbiór S minimalizujacy c(s) S D ; dla każdego e S D przypisujemy S(e) = S; D = D S; zwróć S; Ułamek c(s) nazywamy efektywnościa zbioru S. S D - p. 12/50

Uniwersalne pokrycie zbiorami Twierdzenie 3 (Jia et al. 05) Powyższy algorytm generuje rozwiązanie S o współczynniku UApx(S) = O( n log n). Niech S będzie dowolnym podzbiorem U oraz nich s = S. Rozważymy dwa przypadki: w którym S należy do C, gdy S nie należy do C. - p. 13/50

Uniwersalne pokrycie zbiorami W pierwszym przypadku niech k będzie liczba iteracji algorytmu oraz nich S 1, S 2,..., S k będa wybranymi zbiorami. Dla zbioru S i niech N i (oraz n i ) oznacza liczbę elementów z U (badź S) przypisana do S i przez S. To znaczy: N i = {e U : f(e) = S i }, n i = {e S : f(e) = S i }. - p. 14/50

Uniwersalne pokrycie zbiorami Ponieważ S jest też rozważane w każdej iteracji to: c(s i ) Ni c(s) s n1... n i 1. Korzystajac z tej nierówności otrzymujemy: c(s 1 ) + c(s 2 ) +... + c(s k ) c(s) N1 s + N2 s n1 +... + N2 s n1... n k 1 - p. 15/50

Uniwersalne pokrycie zbiorami N1 s + k N i i=1 N2 s n1 +... + 1 s + 1 +... + s n 1 N2 s n1... n k 1 1 s n 1... n k 1 n O( ln s) O( n ln n). Gdzie skorzystaliśmy z nierówności Schwarza. - p. 16/50

Uniwersalne pokrycie zbiorami Przejdźmy teraz do przypadku gdy S / C. Niech S 1, S 2,..., S k będzie optymalnym pokryciem S. Z pierwszego przypadku wiemy, że dla każdego z tych zbiorów zachodzi c( f(s i )) O( n ln n)c(s i ). A zatem c( f(s)) i c( f(s i )) O( n ln n) i c(s i ). - p. 17/50

Uniwersalne pokrycie zbiorami Twierdzenie 4 (Jia et al. 05) Istnieje n-elementowa instancja dla uniwersalnego problemu pokrycia zbiorami dla której każde rozwiązanie ma współczynnik UApx = Ω( n). Niech q będzie dowolna liczba pierwsza pomiędzy n/2 i n, której istnienie wynika z postulatu Bertranda. Elementy U to q 2 par (x, y) takich, że x i y należa do skończonego cała Z q. Do U właczamy także n q 2 elementów e 1,..., e n q 2. - p. 18/50

Uniwersalne pokrycie zbiorami Kolekcję C tworza zbiory: S a,b,c = {(x, y) U : x Z q, y = P a,b,c (x)}, gdzie a, b, c Z q oraz P a,b,c (x) = ax 2 + bx + c jest wielomianem nad Z q jednoznacznie zwiazanym ze zbiorem S a,b,c. Ponieważ a, b, c Z q to dostajemy w ten sposób q 3 różnych zbiorów. Właczamy do C także zbiór S 0 = {e i : 1 i n q 2 }. - p. 19/50

Uniwersalne pokrycie zbiorami Niech S będzie dowolnym rozwiazaniem. Ponieważ q 2 = U < C = q 3 to wiemy, że co najmniej jeden z S a,b,c nie jest w obrazie S. Ponieważ wielomiany stopnia 2 nie maja więcej niż 2 punkty przecięcia, to także zbiór S a,b,c ma co najwyżej dwa elementy wspólne z innymi zbiorami z C. Do pokrycia S a,b,c wystarczy jeden zbiór, a S potrzebuje do tego co najmniej q 2 = Ω( n) zbiorów. - p. 20/50

Stochastyczne pokrycie zbiorami W przypadku stochastycznego pokrycia zbiorami: mamy dane n-elementowe uniwersum U, kolekcję C podzbiorów U wraz z funkcja kosztu c : C R +, rozkład prawdopodobieństwa π jest rozkładem jednostajnym, sekwencja elementów do pokrycia e 1, e 2,... jest otrzymana poprzez niezależne losowanie z π. - p. 21/50

Stochastyczne pokrycie zbiorami Problem dla rozkładów niejednostajnych możemy przetransformować w standartowy sposób do problemu z rozkładam jednostajnym o rozmiarze n α razy większym. Element o prawdopodobieństwie π zamieniamy na πn α elementów. Tracimy w ten sposób tylko 1 n przypadków na α których musimy skonstruować rozwiazanie nie gorsze niż n α razy. - p. 22/50

Stochastyczne pokrycie zbiorami W przypadku uniwersalnym konstruujemy funkcje S minimalizujac a RoE. W przypadku online chcemy przetwarzać żadania bez wiedzy o przyszłości. Algorytm uniwersalny zadaje zawsze algorytm online o takim samym RoE. Nasze rozwi azanie w kroku t to S(e 1,..., e t ), które generuje nieodwracalne decyzje. - p. 23/50

Algorytm uniwersalny Rozważmy najpierw przypadek gdzie wszystkie zbiory waża 1. Pokażemy, że można użyć standardowego algorytmu zachłannego do konstrukcji S. while U = do niech S będzie zbiorem z C maksymalizujacym S U ; niech S(v) = S dla każdego v S U ; U = U \ S ; - p. 24/50

Wyniki Twierdzenie 5 Funkcja S jest uniwersalna dla stochastycznego nieważonego problemu pokrycia wierzchołkowego o RoE = O(log mn). W przypadku niestochastycznym dla najlepszego rozwiazania RoE = Θ( n) (Jia et al. 05). W przypadku online najlepsze rozwi azanie jest Θ(log n log m) kompetytywne (Alon et al. 03). - p. 25/50

Algorytm uniwersalny Ustalmy długość sekwencji wejściowej na k oraz niech µ = E ω U k[ OPT(ω) ] oznacza oczekiwany koszt rozwiazania optymalnego. Lemat 6 (Istnienie małego prawie pokrycia) Istnieje 2µ zbiorów w C, które pokrywają wszystkie oprócz co najwyżej δn elementów z U, dla δ = µ 3 ln 2m k. Algorytm zachłanny znajduje 2µ log n zbiorów pokrywajacych U bez δn elementów. Do pokrycia pozostałych elementów potrzebujemy δn k n = 3µ ln 2m zbiorów. - p. 26/50

Algorytm uniwersalny Mamy n k możliwych sekwencji i co najmniej w 1 2 z nich koszt optymalnego pokrycia wierzchołkowego wynosi mniej niż 2µ. Mamy co najwyżej p (2m) 2µ 2µ ln 2m = e kolekcji C i składajacych się z 2µ zbiorów. Załóżmy przez sprzeczność, że wszystkie C i pokrywaja mniej niż n(1 δ) < ne δ = e elementów. ln n δ - p. 27/50

Algorytm uniwersalny Dla każdej sekwencji elementy moga zostać wybrane z którejś kolekcji C i, dlatego: Tak więc: p i=0 C i k 1 2 nk. e 2µ ln 2m ( e ln n δ ) k > 1 2 ek ln n, e 2µ ln 2m+k ln n δ > 1 2 ek ln n. - p. 28/50

Algorytm uniwersalny e 2µ ln 2m+k ln n δ > 1 2 ek ln n. e 2µ ln 2m δk > 1 2 e µ ln 2m > 1 2 Ale m 1 oraz µ 1, tak więc otrzymujemy sprzeczność: 1 2 = e ln 2 e µ ln 2m. - p. 29/50

Algorytm uniwersalny Ostatecznie otrzymujemy, że do pokrycia wszystkich zbiorów potrzeba 2µ log n zbiorów pokrywajacych U bez δn elementów, δn k n = 3µ ln 2m zbiorów do pokrycia pozostałych elementów. suma to 2µ log n + 3µ ln 2m = O(log(nm)) µ. Twierdzenie 7 Istnieją wartości m i n takie, że dla każdej S dla nieważonego uniwersalnego ( stochastycznego ) pokrycia zbiorami mamy RoE = Ω. log m log log m log log n - p. 30/50

Algorytm uniwersalny Lukę między dolnym i górnym ograniczeniem możemy wypełnić poprawiajac nie znaczenie algorytm. Twierdzenie 8 Dla m > n, istnieje algorytm dla nieważonego uniwersalnego stochatycznego ( pokrycia ) zbiorami dla którego RoE = O. log m log log m log log n Klasyczne dolne ograniczenie Ω(log n) nadal obowiazuje. - p. 31/50

Algorytm uniwersalny z wagami Powyższy wynik możemy uogólnić do problemu z wagami. Twierdzenie 9 Dla zadanego k istnieje uniwersalny stochastyczny algorytm dla pokrycia zbiorami dla którego RoE = O(log mn). W modelu niezależnej aktywacji znamy k ze względu na koncentrację. Lemat 10 W przypadki gdy k jest nieznane dla każdego algorytmu RoE = Ω( n). - p. 32/50

Algorytm online Tak jak w przypadku drzewa Steinera online możemy tutaj zastosować technikę skalowania oczekiwanego kosztu rozwiazania. W każdej skali zwiększamy koszt dwa razy, tak aby ostatni z nich dominował cały ciag. Twierdzenie 11 Istnieje algorytm online dla stochastycznego pokrycia zbiorami taki, że RoE = O(log mn). - p. 33/50

Algorytm uniwersalny z wagami Załóżmy na chwile, że algorytm zna E [c(opt)]. while U = do niech S będzie zbiorem z C minimalizujacym c(s) jeżeli S U ; c(s) S U > 64E[c(OPT)] U to niech S będzie zbiorem z S minimalizujacym c(s); S(u) = S dla każdego u S U ; U U \ S; usuń z C zbiory S dla których U S = ; - p. 34/50

Algorytm uniwersalny z wagami Zauważmy, że algorytm porównuje E [c(opt)] tylko z ułamkiem c(s) U S U dla różnych zbiorów S. Ułamek ten może przyjać co najwyżej n 2 m różnych wartości i dlatego algorytm może wygenerować co najwyżej n 2 m + 1 różnych funkcji {S i } nm+1 i=1. Generujemy wszystkie S i wybieramy to o minimalnym oczekiwanym koszcie: E [c(s)] = S C c(s) Pr[ω S 1 (S) = ], gdzie S 1 (S) to przeciwobraz S C. - p. 35/50

Algorytm uniwersalny z wagami W każdej iteracji algorytmu wybieramy albo: zbiór o najlepszym współczynniku kosztu do liczby pokrywanych elementów zbiór Typu I, badź najtańszy zbiór pokrywajacy co najmniej jeden element zbiór Typu II. Trzeba zaznaczyć, że U zmienia się w każdym kroku, możemy więc na zmianę wybierać zbiory typu I lub II. Obydwa typy zbiorów s a konieczne do poprawnego działania algorytmu. - p. 36/50

Algorytm uniwersalny z wagami Zacznijmy od ograniczenia kosztu zbiorów typu I, co możemy uczynić przy użyciu standardowej analizy techniki zachłannej. Lemat 12 Koszt zbiorów I typu wybranych przez algorytm wynosi O(log n) E [c(opt)]. Niech S 1,..., S l będa zbiorami typu I wybranymi przez algorytm w tej kolejności. Co więcej, niech U i oznacza zbiór nieprzykrytych elementów zaraz przed wybraniam S i. - p. 37/50

Algorytm uniwersalny z wagami Ponieważ algorytm wybrał zbiór typu I to: c(s i ) S i U i 64 E[c(OPT)] U i. Tak więc całkowity koszt zbiorów S i możemy ograniczyć przez: l i=1 c(s i ) l i=1 64 S i U i E[c(OPT)] U i 64 E [c(opt)] l i=1 S i U i j=1 64E [c(opt)] n t=1 1 t, co wynosi co najwyżej 64E [c(opt)] ln n. 1 U i j+1 - p. 38/50

Algorytm uniwersalny z wagami Przejdziemy teraz do oszacowania oczekiwanego kosztu zbiorów wybranych w drugim etapie. Niech S 1,..., S l oznacza zbiory typu II wybrane przez algorytm w tej kolejności. Zauważmy, że zbiory te wybierane sa ze względu na koszt, a więc c(s i ) c(s i+1 ) dla każdego 1 i l 1. Pomysł na dowód jest taki aby podzielić ważony problem na podproblemy nieważone i dla każdego nieważonego podproblemu użyć znanej już techniki. - p. 39/50

Algorytm uniwersalny z wagami Niech U i oznacza zbiór niepokrytych elementów chwilę przez wybraniem S i. k Oznaczmy n i = U i oraz niech k i = n i n będzie oczekiwana liczba elementów wylosowanych z U i. Oznaczmy przez ω i podsekwencję ω otrzymana przez wybranie tylko elementów z U i. Niech OPT ωi będzie pokryciem zbiorami otrzymanym poprzez wzięcie dla każdego u ω i najtańszego zbioru z OPT = OPT ω zawierajacego u. - p. 40/50

Algorytm uniwersalny z wagami Analogicznie do przypadku nieważonego możemy pokazać następujacy lemat. Lemat 13 Dla każdego i {1,..., l}, jeżeli k i 8 log 2n to k i 16E [ OPT ωi ] log m. Lemat 14 Istnieje 2µ zbiorów w C, które pokrywają wszystkie oprócz co najwyżej δn elementów z U, dla δ = µ 3 ln 2m k. Oczekiwana liczba elementów nieprzykrytych δn k 3 ln 2m n = µ k n k n = µ3 ln 2m. - p. 41/50

Algorytm uniwersalny z wagami Lemat 15 Dla każdego 1 i l, c(s i )E [ OPT ωi+1 ] E [ c(opt ωi+1 ) ] Zbiór S i+1 jest najtańszym zbiorem pokrywajacym elementy z U i+1. Tak więc c(s i+1 ) jest dolnym ograniczenem na koszt zbiorów w OPT ωi+1. Z definicji algorytmu c(s i ) c(s i+1 ), czyli: c(s i ) OPT ωi+1 c(s i+1 ) OPT ωi+1 c(opt ωi+i ). - p. 42/50

Algorytm uniwersalny z wagami Lemat 16 Dla każdego 1 i l, c(s i ) ( E [ OPT ωi ] E [ OPT ωi+1 ] ) E [c(opt ωi )] E [ c(opt ωi+1 ) ]. Liczba zbiorów OPT użyta do pokrycie elementów z U i \ U i+1 wynosi OPT ωi OPT ωi+1 Do pokrycia tych elementów OPT musi zapłacić co najmniej c(s i ), tak więc: c(s i )( OPT ωi OPT ωi+1 ) c(opt ωi ) c(opt ωi+1 ). - p. 43/50

Algorytm uniwersalny z wagami Możemy teraz ograniczyć koszt zbiorów typu II: Lemat 17 Oczekiwany koszt zbiorów drugiego typu wybranych przez algorytm jest ograniczony przez O(log mn) E [c(opt)]. Zbiorami drugiego typu były zbiory S 1, S 2,..., S l. Niech k l+1 = 0 oraz c(s 0 ) = 0 dla wygody notacji. - p. 44/50

Algorytm uniwersalny z wagami Lemat 18 Dla każdego i {1,..., l}, jeżeli k i 8 log 2n to k i 16E [ OPT ωi ] log m. Niech j będzie takie, że k j 8 log 2n ale k j+1 < 8 log 2n. Oczekiwana liczba elementów wylosowanych z U j+1 wynosi co najwyżej 8 log 2n. Każdy z tych elementów jest pokryty zbiorem nie kosztujacym więcej niż zbiór wybrany w OPT. Dlatego koszt użytych zbiorów S j+1,..., S l jest ograniczony przez 8 log 2n E [c(opt)]. - p. 45/50

Algorytm uniwersalny z wagami Natomiast koszt zbiorów S 1,..., S j wynosi: j i=1 c(s i )Pr[ω (S i U i ) = ] = j i=1 j i=1 c(s i )E [ ω (S i U i ) ] = c(s i )E [ ω (U i \ U i+1 ) ] j i=1 c(s i ) (k i k i+1 ) - p. 46/50

Algorytm uniwersalny z wagami j i=1 c(s i ) (k i k i+1 ) j i=1 k i (c(s i ) c(s i 1 )) j i=1 = 16 log m 16E [ OPT ωi ] log m (c(s i ) c(s i 1 )) = ( c(s j )E [ ] OPT ωj+1 + + j i=1 c(s i ) ( E [ OPT ωi ] E [ OPT ωi+1 ] )). - p. 47/50

Algorytm uniwersalny z wagami = 16 log m ( c(s j )E [ ] OPT ωj+1 + + j i=1 16 log m (E + j i=1 c(s i ) ( E [ OPT ωi ] E [ OPT ωi+1 ] )) [ ] c(opt ωj+1 ) ( E [c(opt ωi )] E [ c(opt ωi+1 ) ]) ) = = 16E [c(opt ω1 )] log m = 16E [c(opt)] log m. + - p. 48/50

Algorytm uniwersalny z wagami Otrzymaliśmy więc następujace ograniczenia: zbiory I typu kosztuja nie więcej niż 64E [c(opt)] ln n. zbiory II typu kosztuja nie więcej niż 8 log 2n E [c(opt)] za S j+1,..., S l, 16E [c(opt)] log m za S 1,..., S j. Otrzymaliśmy więc: Twierdzenie 19 Dla zadanego k istnieje uniwersalny stochastyczny algorytm dla pokrycia zbiorami dla którego RoE = O(log mn). - p. 49/50

Niemetryczna lokalizacja fabryk Wynik ten możemy uogólnić na problem nie metrycznej lokalizacji fabryk. Twierdzenie 20 Dla znanego k istnieje stochastyczny uniwersalny algorytm dla problemu niematrcznej lokalizacji fabryk taki, że RoE = O(log mn). Dla algorytmu nie znajacego k musi być RoE = Ω( n). Twierdzenie 21 Istnieje algorytm online dla stochastycznego problemu niemetrycznej lokalizacji fabryk taki, że RoE = O(log mn). - p. 50/50