Wykorzystanie metod optymalizacji globalnej w ekstrakcji parametrów tranzystora MOS

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wykorzystanie metod optymalizacji globalnej w ekstrakcji parametrów tranzystora MOS"

Transkrypt

1 Politechnika Warszawska Wydział Elektroniki i Technik Informacyjnych Instytut Informatyki Rok akademicki 2011/2012 PRACA DYPLOMOWA MAGISTERSKA Dominik Tadeusz Szelenbaum Wykorzystanie metod optymalizacji globalnej w ekstrakcji parametrów tranzystora MOS Opiekun pracy: prof. dr hab. inż. Jarosław Arabas Ocena Podpis Przewodniczącego Komisji Egzaminu Dyplomowego

2

3 Kierunek: Informatyka Specjalność: Inżynieria Systemów Informatycznych Data urodzenia: Data rozpoczęcia studiów: Życiorys Urodziłem się 7 lutego 1986 roku w Warszawie. W latach uczęszczałem do szkoły podstawowej nr 306 im. ks. Jana Twardowskiego w Warszawie. W tym czasie zacząłem interesować się naukami ścisłymi. Od 1999 do 2002 roku byłem uczniem gimnazjum nr 81 im. Profesora Witolda Jana Doroszewskiego. Ze względu na rozwijające się zainteresowanie fizyką, w 2002, wystartowałem w wojewódzkim konkursie fizycznym, w którym to zostałem finalistą. W latach uczęszczałem do liceum im. Władysława IV w Warszawie. W tym czasie mogłem swobodnie rozwijać swoje zainteresowania w kierunku nauk ścisłych. Zaowocowało to uczestnictwem w XI Konkursie Fizycznym Politechniki Warszawskiej i uzyskaniem tytułu wyróżnionego finalisty. Dzięki temu osiągnięciu w 2005 roku zostałem studentem Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej na kierunku Informatyka. EGZAMIN DYPLOMOWY podpis studenta Złożył egzamin dyplomowy w dn Z wynikiem Ogólny wynik studiów Dodatkowe wnioski i uwagi Komisji

4

5 STRESZCZENIE Praca ta prezentuje wyniki badań na temat możliwości poprawy jakości ekstrakcji parametrów tranzystora MOS. Scharakteryzowano w niej został proces ekstrakcji parametrów, jako problem optymalizacji wynikający z procesu dopasowywania charakterystyk modelu tranzystora do rzeczywistych charakterystyk. Użyty do generowania charakterystyk został model kompaktowy EKV. Do rozwiązania problemu optymalizacji posłużono się metodami optymalizacji globalnej: Ewolucją Różnicową, metodą CMA-ES oraz DMEA. Na zbiorze testowym została zweryfikowana jakość uzyskiwanych przez nie wyników. Tak przygotowane metody użyto do przeprowadzenia wielokrotnej ekstrakcji parametrów tranzystora. W pracy zostały zaprezentowane uzyskane wyniki, które następnie posłużyły do porównania jakości ekstrakcji zaproponowanych metod z wynikami z literatury. Wnioski z zebranych wyników jednoznacznie wskazują, iż metody Ewolucji Różnicowej oraz CMA-ES pozwalają uzyskać lepszą jakość ekstrakcji niż metody referencyjne. Słowa kluczowe: Ewolucja Różnicowa, DMEA, CMA-ES, model EKV, ekstrakcja parametrów, optymalizacja globalna, algorytmy ewolucyjne. THE USE OF GLOBAL OPTIMIZATION METHODS FOR MOS PARAMETERS EXTRACTION This thesis presents the results of research focused on the possibility of improving quality of the extraction of MOS transistor parameters. Parameter extraction was defined as an optimization problem that arises from the process of matching characteristics generated by the transistor model to real characteristics. The model characteristics were generated using the EKV compact model. To solve the optimization problem global optimization methods were used including Differential Evolution, CMA-ES and DMEA. The methods were implemented, validated using benchmark problems, and applied to the multiple extractions of transistor parameters. The results are reported in the thesis and their quality is compared with the quality of the extraction results known from the literature which are considered reference methods.the comparison clearly shows that Differential Evolution and CMA-ES achieve better quality than the reference methods. Key words: Differential Evolution, CMA-ES, DMEA, EKV model, parameters extraction, global optimization, evolutionary algorithms.

6

7 Spis treści 1. Wstęp Zakres i cel pracy Układ pracy Zagadnienie ekstrakcji parametrów tranzystora MOS Modelowanie tranzystora MOS Ekstrakcja jako problem optymalizacji Algorytmy ewolucyjne Wykorzystane metody optymalizacji Metoda Monte Carlo Metoda Covariance Matrix Adaptation Evolution Strategy Ewolucja różnicowa Algorytm ewolucyjny bazujący na mutacji różnicowej Sympleks Neldera-Meada Uwzględnianie ograniczeń Testowanie niedeterministycznych metod optymalizacji Porównanie oparte na wielu niezależnych uruchomieniach Analiza testów porównawczych Implementacja badanego zagadnienia Weryfikacja poprawności wybranych metod optymalizacji Opis procedury badawczej Wyniki eksperymentów Wyniki ekstrakcji Metoda Monte Carlo Hybrydowa Metoda Monte Carlo Ewolucja Różnicowa Algorytm CMA-ES Algorytm DMEA Porównanie wyników algorytmów Ekstrakcja

8 Spis treści Optymalizacja Wnioski i podsumowanie Bibliografia

9 1. Wstęp 1.1. Zakres i cel pracy Prezentowana praca miała na celu przebadanie możliwości poprawienia jakości ekstrakcji parametrów tranzystora MOS, przy użyciu wybranych metod optymalizacji globalnej. Do jej realizacji wykorzystano model EKV, który posłużył do generowania charakterystyk tranzystora. Zaimplementowane zostały metody optymalizacji: ewolucja różnicowa, CMA-ES, oraz DMEA. Została zweryfikowana poprawność ich działania, a następnie zostały one użyte do przeprowadzania procesu ekstrakcji. Symulacja procesu ekstrakcji była dokonywana wielokrotnie, a uzyskane wyniki zostały zaprezentowane i poddane analizie Układ pracy Układ pracy odpowiada w uproszczeniu poszczególnym etapom realizacji jej celu, przy pominięciu aspektów technicznych związanych z implementacją. Na wstępie przedstawiono krótkie wprowadzenie do problemu ekstrakcji parametrów tranzystora, pokazując iż mamy rzeczywiście do czynienia z problemem optymalizacji globalnej. Ponieważ wykorzystane metody należą do klasy algorytmów ewolucyjnych, więc również we wstępie umieszczono jej opis, oraz przedstawiłem ogólny schemat algorytmów z tej klasy. Przedstawienie tych informacji uznano za konieczne do zrozumie zarówno badanego problemu, jak również metod jego rozwiązywania. Z tego powodu zostały one umieszczone w kolejnym rozdziale - Zagadnienie ekstrakcji parametrów tranzystora MOS. Po prezentacji podstawowych informacji, następnym rozdziale, zawarte zostały informacje dotyczące wykorzystanych metod optymalizacji. Znalazły się w nim powody, dla których wybrano poszczególne metody optymalizacji. Tam również został umieszczony ich opis. Badane metody mają charakter stochastyczny, co utrudnia porównanie wyników ich działania. Z tego powodu uznałem za zasadne umieszczenie w 9

10 Rozdział 1. Wstęp tym rozdziale informacji, w na temat podstawowych sposobów porównywania wyników działania takich algorytmów. Rozdział 4, Implementacja badanego zagadnienia, zawiera informacje na temat sposobu weryfikacji poprawności działania zaproponowanych metod. Znajdują się w nim szczegółowe informacje na temat procedury badawczej, jak również informacje o wartościach parametrów wykorzystanych metod. W następnym rozdziale, Wyniki eksperymentów, zostały umieszczone informacje na temat uzyskiwanej, przez poszczególne algorytmy, jakości ekstrakcji. Tam też zostało zawarte porównanie uzyskanych wyników, zarówno w kontekście jakości ekstrakcji, jak również wartości funkcji celu. W rozdziale 6 zostały umieszczone wnioski z przeprowadzonych badań, oraz podsumowanie pracy. Tam też znajdują się informacje o tym: co można było zrobić lepiej, oraz jakie nowe problemy i tematy do badań, wyłoniły się w trakcie tworzenia tej pracy. 10

11 2. Zagadnienie ekstrakcji parametrów tranzystora MOS 2.1. Modelowanie tranzystora MOS Współczesne projektowanie układów elektronicznych wymaga zastosowania modeli elementów elektronicznych, zwłaszcza w wypadku układów analogowych [19]. Wynika to z faktu, iż nie jest możliwe zbudowanie układu z gotowych elementów, celem poddania go analizie. Przeprowadzenie symulacji układu wymaga natomiast zastosowania modeli poszczególnych elementów. ID VDS Rysunek 2.1. Przykładowe charakterystyki wyjściowe tranzystora. 11

12 Rozdział 2. Zagadnienie ekstrakcji parametrów tranzystora MOS Jednym z najistotniejszych elementów układów elektronicznych wymagających modelowania jest tranzystor MOS. Wzmiankowany model na podstawie zadanego zestawu parametrów, powinien generować punty punkty należące do charakterystyk zadanego tranzystora. Przykładowe charakterystyki wyjściowe tranzystora przedstawiono na rysunku 2.1. Jeżeli uzyskane charakterystyki nie będą odpowiadały rzeczywistości z należytą dokładnością, to może się okazać iż symulowany układ elektroniczny w praktyce nie działa. Z tego powodu bardzo istotne jest właściwe dobranie parametrów modelu tranzystora, w celu uzyskania wiernych charakterystyk. Najpowszechniejszym sposobem określenia wartości parametrów modelu tranzystora jest dopasowanie charakterystyk generowanych przez model, do charakterystyk rzeczywistego tranzystora. Proces ten określamy mianem ekstrakcji parametrów [4]. Przy dobrym doborze parametrów modelu tranzystora jego charakterystyki, oraz charakterystyki fizycznego tranzystora są do siebie bardzo zbliżone. Istnieją modele tranzystora, o różnych liczbach parametrów, oraz sposobie wyznaczania charakterystyk. Za najpopularniejsze, wykorzystywane w przemyśle, należy uznać modele BSIM3, BSIM4 oraz EKV. Dwa pierwsze zostały uznane za standard w USA. Pozwalają uzyskać bardzo dużą zgodność charakterystyk modelu z rzeczywistymi. Poważną wadą tych dwóch modeli jest konieczność ustawienia bardzo dużej liczby parametrów, celem uzyskania dokładnych charakterystyk. Konieczność zadania wartości tak wielu (ponad 100) parametrów w sposób istotny utrudnia proces ekstrakcji parametrów. Model EKV natomiast oferuje możliwość wykorzystania tylko ponad 20 parametrów. Uwzględnia przy tym wiele zjawisk fizycznych i opisuje zachowanie tranzystora we wszystkich zakresach polaryzacji. Uważany jest w związku z tym za najpraktyczniejszy w projektowaniu układów analogowych. Przedstawione charakterystyki zostały wykonane przy jego użyciu. 12

13 2.2. Ekstrakcja jako problem optymalizacji 2.2. Ekstrakcja jako problem optymalizacji Problem optymalizacji w ogólności można sformułować jako poszukiwanie takiego x D, że: x = min x D f(x) (2.1) gdzie D R n nazywamy zbiorem dopuszczalnym, który to stanowi podzbiór przestrzeni wszystkich rozwiązań R n ; f(x) : R n R funkcją celu, natomiast x rozwiązaniem optymalnym [1, 5]. W zależności od własności zbioru dopuszczalnego, oraz funkcji celu możemy dokonać bardziej szczegółowej klasyfikacji problemu. W wypadku ekstrakcji parametrów tranzystora dokonuje się próby jak najlepszego dopasowania charakterystyk napięciowo-prądowych wygenerowanych za pomocą modelu, do danych pomiarowych. W tym celu manipuluje się określonymi parametrami modelu, co pozwala uzyskać różne charakterystyki. Parametry podlegające modyfikacji mają charakter ciągły, ponadto przyjmuje się dla nich ograniczenia zarówno górne jak i dolne. Można więc stwierdzić, iż zbiór dopuszczalny przyjmie formę hiperprostopadłościanu, o liczbie wymiarów równej liczbie optymalizowanych parametrów modelu, a punkty w nim zawarte stanowią możliwe rozwiązania problemu. Mamy więc do czynienia z problemem optymalizacji ciągłej. Natomiast sama funkcja celu nie jest nam dana jawnie, ale za pośrednictwem zależności od określonego modelu tranzystora. Wiadome jest jednak, iż wykorzystywany model tranzystora ma charakter nieliniowy [4]. Wynika z tego, iż badana funkcja celu może posiadać wiele minimów lokalnych (Rysunek 2.2). W takim Minima lokalne Minimum globalne Rysunek 2.2. Przykład dwuwymiarowej funkcji posiadającej wiele minimów lokalnych. 13

14 Rozdział 2. Zagadnienie ekstrakcji parametrów tranzystora MOS wypadku metody nastawione na przeszukiwanie pojedynczego obszaru przyciągania minimum mogą okazać się niewystarczające. Należy więc skorzystać z metod optymalizacji globalnej, które ze swej definicji [10] zapewniają środki pozwalające opuszczać obszar przyciągania pojedynczego minimum, zwiększając prawdopodobieństwo osiągnięcia minimum globalnego. 14

15 2.3. Algorytmy ewolucyjne 2.3. Algorytmy ewolucyjne Mianem algorytmów ewolucyjnych określa się szeroką grupę algorytmów stochastycznych, inspirowanych mechanizmami ewolucji biologicznej. Również z biologii została zaczerpnięta terminologia wykorzystywana do opisu algorytmów ewolucyjnych. Należy zaznaczyć, iż algorytmy ewolucyjne nie wywodzą się z jednego ośrodka naukowego, lecz z kilku, gdzie były rozwijane pod różnymi nazwami[1]. Stąd podział na programowanie ewolucyjne, strategie ewolucyjne, algorytmy genetyczne oraz programowanie genetyczne. Wymiana konkretnych rozwiązań i pomysłów pomiędzy poszczególnymi grupami algorytmów prowadziła do zacierania się różnic między nimi. Współcześnie powyższy podział ma głównie znaczenie historyczne, najpraktyczniej używać jest wspólnej nazwy - algorytmy ewolucyjne[1]. Mimo pierwotnej różnorodności można przedstawić ogólną strukturę algorytmu ewolucyjnego. Poniższy ogólny schemat został przedstawiony w [1], jak również w postaci rozszerzonej w [2]. Algorytm 1 Ogólny schemat algorytmu ewolucyjnego t = 0 Inicjacja(P t ) Ocena(P t ) while ( WarunekZatrzymania()) do T t =Reprodukcja(P t ) O t =Perturbacja(T t ) Ocena(O t ) P t+1 =Sukcesja(O t, T t ) t = t + 1 end while W trakcie działania algorytmu przetwarzane są populacje osobników (P t, O t, T t ). Osobniki reprezentują rozwiązania problemu, natomiast populacja jest ich wielozbiorem. Po utworzeniu populacji początkowej, określa się liczbowo jakość poszczególnych rozwiązań x g i poprzez obliczenie funkcji celu w odpowiadających im punktach. Następnie rozpoczyna się działanie głównej pętli algorytmu ewolucyjnego, która jest wykonywana, aż do spełnienia warunku zatrzymania. Działanie pętli rozpoczyna się od przeprowadzenia reprodukcji, polegającej na utworzeniu wielozbioru zawierającego losowo wybrane elementy z populacji poddawanej reprodukcji. Na ogół przyjmuje się, iż osobniki lepsze (co do wartości funkcji celu) są wybierane z niemniejszym prawdopodobieństwem niż gorsze. Następnie przeprowadzana jest perturbacja populacji. Polega 15

16 Rozdział 2. Zagadnienie ekstrakcji parametrów tranzystora MOS ona na dokonywaniu losowych modyfikacji perturbowanych rozwiązań. Utworzona w wyniku poprzednich dwóch kroków populacja O t podlega następnie ocenie. O tym które rozwiązania z populacji P t oraz O t będą przetwarzane w następnej iteracji algorytmu ewolucyjnego decyduje mechanizm sukcesji. Poszczególne etapy algorytmu są realizowane na wiele różnych sposobów, spełniają jednak na ogół te same role. Reprodukcja oraz sukcesja, zwane razem selekcją, mają na celu poprawianie średniej wartości funkcji celu w populacji poprzez preferowanie lepszych rozwiązań. Rolą perturbacji natomiast jest zwiększanie różnorodności przetwarzanej populacji. Algorytmy ewolucyjne można rozszerzyć o wykorzystanie metod optymalizacji lokalnej. W takim wypadku po zakończeniu działania algorytmu ewolucyjnego najlepsze uzyskane rozwiązanie zostaje poddane optymalizacji lokalnej. Ma to na celu znalezienie optimum w którego obszarze przyciągania znajduje się najlepsze uzyskane rozwiązanie. Podobne modyfikacje można wprowadzać również do innych metod optymalizacji globalnej. Powstałe w ten sposób metody w niniejszej pracy będą określane mianem hybrydowych. Dla uproszczenia strony pojęciowej na potrzeby niniejszej pracy przyjęto, iż osobnik jest tożsamy z punktem mu odpowiadającym. W ogólności wprawdzie z osobnikiem mogą być związane dodatkowe informacje np. zasięg mutacji, jednak zaimplementowane algorytmu nie wykorzystują tej możliwości. Stąd w dalszej części pracy zamiast pojęcia osobnik będzie używane bardziej intuicyjne pojęcie punkt. 16

17 3. Wykorzystane metody optymalizacji 3.1. Metoda Monte Carlo Za najprostszy sposób rozwiązywania problemów optymalizacji globalnej należy uznać metodę Monte Carlo. Została ona opracowana przez Stanisława Ulama w latach czterdziestych XX wieku, i wykorzystywana jest obecnie głównie do przeprowadzania całkowania numerycznego. Możliwe jest jednak jej użycie również w zadaniu optymalizacji globalnej. Sprowadza się ono do losowego próbkowania przestrzeni dopuszczalnej z rozkładem jednostajnym: x i,j,0 = ξ U(0,1) (b i,u b i,l ) + b i,l F = min {x1,x 2,,x n}{f (x 1 ), F (x 2 ),, F (x n )} (3.1) x max : F (x max ) = F Nie wykorzystuje ona żadnych mechanizmów wspierających przeszukiwanie obszaru dopuszczalnego. Można więc oszacować jakie jest prawdopodobieństwo znalezienia w danym kroku rozwiązania optymalnego. Dla prostego przypadku, gdy zbiór dopuszczalny jest postaci [1, 2,, 10] 6, i znajduję się w nim jeden wektor optymalny prawdopodobieństwo znalezienia tego rozwiązania w pojedynczym kroku wynosi 1. Po wykonaniu próbkowań szansa, że nie udało nam się znaleźć rozwiązania optymalnego przekracza w dalszym ciągu 90%. Wydaje się więc, iż zastosowanie metody Monte Carlo w problemach o większej mocy zbioru dopuszczalnego niż wyżej zaprezentowany jest bezcelowe. Należy jednak zwrócić uwagę na następujące kwestie: często satysfakcjonujące jest nie tylko rozwiązanie optymalne, ale również inne rozwiązania spełniające określone przez użytkownika warunki; prezentowana metoda jest bardzo prosta w implementacji, może być wykonywana praktycznie w pełni równolegle, co ma znaczenie w wypadku przeprowadzania obliczeń z użyciem współczesnych kart graficznych. Przeprowadzenie testów z użyciem metody Monte Carlo pozwala również sprawdzić jak dużo można zyskać stosując bardziej wyrafinowane metody optymalizacji. 17

18 Rozdział 3. Wykorzystane metody optymalizacji 3.2. Metoda Covariance Matrix Adaptation Evolution Strategy Opracowany przez Nikolausa Hansena algorytm CMA-ES, tworzy nowe populacje punktów z wielowymiarowym rozkładem normalnym. Jego istota tkwi w sposobie wyliczania parametrów tego rozkładu. Ważną cechą tej metody jest brak parametrów, którym użytkownik powinien nadać wartość początkową, co pozwala uniknąć dodatkowego nakładu czasowego poświęconego na strojenie parametrów. CMA-ES jest również algorytmem dość złożonym, stąd jego pełny opis byłby dość obszerny. Z tego powodu zaprezentowany zostanie ogólny schemat działania algorytmu, z krótkim omówieniem poszczególnych kroków. Algorytm 2 Uproszczony pseudokod algorytmu CMA-ES Inicjuj(C, m, µ, σ, λ) g = 0 while WarunekZatrzymania() do for j {1, 2, 3,..., λ} do x j,g N(m, σ 2 C) Napraw(x j,g ) end for Zaktualizuj C, m, σ uwzględniając µ najlepszych punktów z generacji g g = g + 1 end while W prezentowanym pseudokodzie C oznacza macierz kowariancji na podstawie której generowane są nowe punkty, m jest wartością średnią rozkładu normalnego, natomiast wartość σ jest czynnikiem skalującym zasięgiem ewolucji. Inicjacja przeprowadzana jest na podstawie informacji o liczbie wymiarów funkcji celu, oraz wartości ograniczeń kostkowych. Po inicjacji rozpoczyna się pętla główna algorytmu, która jest przetwarzana, aż do spełnienia warunków zatrzymania. W pętli głównej następuje generowanie λ nowych punktów zgodnie z rozkładem normalnym o wartości średniej m i macierzy kowariancji równej σ 2 C. Nowo wygenerowane punkty mogą znajdować się poza obszarem dopuszczalnym, stąd obecność w kolejnym kroku mechanizmu naprawy wygenerowanego punktu. Po wygenerowaniu nowej populacji punktów konieczne jest zaktualizowanie parametrów algorytmu. 18

19 3.2. Metoda Covariance Matrix Adaptation Evolution Strategy Wartość parametru m jest wyliczana na nowo w każdej iteracji. W tym celu oblicza się średnią ważoną z µ najlepszych punktów ostatniej populacji. Uzyskany punkt staje się nowym parametrem m. Taki sposób wyliczania m pozwala przesuwać generację punktów w kierunku lepszych wartości funkcji celu. Parametr σ jest czynnikiem skalującym i odpowiada za zasięg ewolucji, to znaczy jak daleko od punktu m generowane są kolejne punkty. W wypadku gdy wartość σ jest zbyt mała algorytm wprawdzie będzie zbiegał do ekstremum, jednak będzie to wolna zbieżność. Gdy wartość σ będzie zbyt duża, algorytm będzie poruszał się cały czas w tym samym obszarze, omijając w kolejnych krokach obszary o lepszych wartościach funkcji celu. Z tego powodu parametr σ jest modyfikowany w każdej iteracji. Jeżeli m przebywa po kolejnych iteracjach zbyt małą odległość σ jest zmniejszana; w przeciwnym wypadku wartość σ ulega zwiększeniu. Macierz C odpowiada za kształt gęstości prawdopodobieństwa wielowymiarowego rozkładu normalnego, a tym samym za właściwe ukierunkowanie poszukiwań. Ona również ulega modyfikacji w każdej iteracji. Jej adaptacja następuje na podstawie wektora przemieszczenia parametru m między iteracjami. Macierz C nie ma za zadania dopasowywać się do kształtu funkcji celu, lesz do kierunków spadku funkcji celu. Istnieją algorytmy przeprowadzające w ramach swojego działania wielokrotne uruchomienia CMA-ES, z różnymi wartościami początkowymi średniej m. Mogą one również modyfikować inne parametry algorytmu; algorytm IPOP-CMA-ES wraz z kolejnymi uruchomieniami zwiększa wielkość przetwarzanej populacji (parametr λ). Więcej szczegółowych informacji na temat sposobu wyliczania poszczególnych parametrów algorytmu CMA-ES wraz z uzasadnieniem, jak również samego algorytmu można znaleźć w [11]. 19

20 Rozdział 3. Wykorzystane metody optymalizacji 3.3. Ewolucja różnicowa Algorytm Ewolucji Różnicowej (ang. Differential Evolution, w skrócie DE) został opracowany przez Kennetha Price a i Rainera Storna w latach Jego nazwa pochodzi od zastosowanego mechanizmu mutacji punktów - wykorzystuje on różnice między parami punktów do określenia zasięgu mutacji. Zastosowanie tej metody powoduje, iż zasięg mutacji zmienia się wraz ze zmianą wariancji przetwarzanej populacji. Od pierwszej publikacji algorytmu w roku 1997, zaproponowano dla niego wiele modyfikacji i usprawnień. Mimo to klasyczna wersja ewolucji różnicowej (ang. classic DE ) wciąż często występuje w publikacjach naukowych i wydaje się być dobrym punktem odniesienia do dalszych badań. W pracy wykorzystana została postać algorytmu określana powszechnie jako: DE/rand/1/bin. Pierwszym krokiem algorytmu jest inicjacja populacji bazowej. W tym celu generowane jest NP punktów n-wymiarowych z określonym rozkładem losowym oraz przy uwzględnieniu ograniczeń kostkowych. Zalecane jest użycie rozkładu jednostajnego, zwłaszcza gdy nie jest dostępna wiedza na temat położenia optimum globalnego. Dla ograniczeń postaci [b i,l ; b i,u ] i {1,, n} uzyskujemy: x i,j,0 = ξ U(0,1) (b i,u b i,l ) + b i,l i {1, 2, 3,..., n} j {1, 2, 3..., µ} n, µ N (3.2) gdzie: i jest indeksem współrzędnej punktu, j jest indeksem punktu w populacji, 0 odnosi się do numeru generacji populacji. Oznaczenie x i,j,0 odnosi się do i-tej współrzędnej j-tego punktu w generacji 0 populacji. Zapis: ξ U(0,1) oznacza realizację zmiennej losowej o rozkładzie jednostajnym na przedziale [0, 1). Dysponując zainicjowaną populacją, algorytm ewolucji różnicowej za pomocą mechanizmów mutacji, a następnie krzyżowania, tworzy populację potomną. W pierwszej kolejności do wybranych punktów z aktualnej populacji dodawana jest różnica dwóch innych punktów, z tej samej populacji, przemnożona przez czynnik skalujący: v j,g = x r1,g + F (x r2,g x r3,g) r 1, r 2, r 3 {1, 2, 3,..., µ} µ, g N (3.3) 20

21 3.3. Ewolucja różnicowa Indeksy: r 1,r 2,r 3 punktów wyznaczane są poprzez realizację zmiennej losowej o dyskretnym rozkładzie jednostajnym na zbiorze wszystkich indeksów z aktualnej populacji: r i = ξ U{1,2,3,...,µ} i {1, 2, 3} (3.4) Dodatkowo, uzyskane indeksy muszą być różne od siebie, oraz od aktualnego indeksu j, czyli: r1 r2 r3 j. Czynnik skalujący F powinien być dodatnią liczbą rzeczywistą. Mimo braku górnego ograniczenia na jego wartość, w praktyce przeważnie przyjmuje się F (0, 1). Uzyskany w wyniku tej procedury punkt v j,g nazywany jest punktem zmutowanym lub mutantem. W drugim kroku tworzenia populacji potomnej przeprowadzany jest proces krzyżowania, z użyciem metody krzyżowania równomiernego. Tworzy ona nowy punkt z wykorzystaniem współrzędnych pochodzących z dwóch różnych punktów w następujący sposób: u i,j,g = v i,j,g jeżeli ξ U(0,1) Cr j = j rand x i,j,g w przeciwnym przypadku (3.5) j rand = ξ DU{1,2,3,...,µ} Wartość współczynnika prawdopodobieństwa krzyżowania Cr [0, 1], wpływa na to, jaka część składowych nowego punktu pochodzić będzie z punktu zmutowanego, a jaka z wektora z aktualnej populacji. Tworzenie nowego punktu z wykorzystaniem współrzędnych pochodzących jedynie z punktu z aktualnej populacji jest bezcelowe. Stąd wprowadzony został dodatkowy warunek, j = j rand, gwarantujący, że co najmniej jedna współrzędna pochodzić będzie z punktu zmutowanego. Indeks j rand wybierany jest poprzez realizację zmiennej losowej o rozkładzie jednostajnym na zbiorze {1, 2, 3,, D}. Uzyskane punkty potomne u j,g mogą, ale nie muszą, spełniać narzuconych ograniczeń. Jeżeli nowo powstały punkt znajduje się poza obszarem dopuszczalnym musi zostać przeprowadzona pewna forma jego naprawy. Jest to zagadnienie często pomijane w publikacjach naukowych, również w publikacji przedstawiającej algorytm ewolucji różnicowej. Brak ustalonej metody uwzględniania ograniczeń kostkowych pozwala na dość swobodny jej dobór, bez wprowadzania zmian w przebiegu klasycznej postaci algorytmu. Z przeprowadzonych w ostatnim okresie badań wynika, iż dobór metody uwzględniania graniczeń kostkowych ma wpływ na jakość uzyskiwanych rozwiązań[18]. Spośród testowanych metod najlepsze wyniki osiągnęła metoda 21

22 Rozdział 3. Wykorzystane metody optymalizacji ponownego generowania rozwiązania (ang. resampling). Jeżeli punkt nie spełnia ograniczeń kostkowych, należy go odrzucić, a następnie powtórzyć całą procedurę tworzenia punktu potomnego. Nie ma jednak gwarancji, iż rozwiązanie dopuszczalne zostanie osiągnięte po jednokrotnym przeprowadzeniu procedury. Może być konieczne wielokrotne generowanie nowego rozwiązania, zwłaszcza gdy populacja znajduje się w pobliżu narożniku przeszukiwanej hiperkostki. W celu ograniczenia tego zjawisko należy wprowadzić limit re max liczby ponownych generacji punktu potomnego. Po jego przekroczeniu powinna zostać zastosowana metoda naprawy gwarantująca uzyskanie rozwiązania dopuszczalnego. Propozycja rozwiązania zostanie opisana w dalszej części pracy. W ostatnim kroku w algorytmu przeprowadzana jest sukcesja, by określić które punkty przenieść do następnej generacji rozwiązań, a które odrzucić. W tym celu porównuje się wartość funkcji celu dla punktów o zgodnych indeksach pochodzących z aktualnej populacji oraz populacji potomnej: u j,g jeżeli f(u j,g ) f(x j,g ) x j,g+1 = w przeciwnym przypadku x j,g j {1, 2, 3..., µ} (3.6) Uzyskane punkty x j,g+1 tworzą nową populację. Następnie powtarzane są procesy mutacji, krzyżowania oraz sukcesji, aż do spełnienia warunku zatrzymania algorytmu. Zapis całego algorytmu w pseudokodzie wygląda następująco: 22

23 3.3. Ewolucja różnicowa Algorytm 3 Pseudokod algorytmu DE/rand/1/bin g = 0 for j {1, 2, 3,..., µ} do Inicjuj(x j,g ) end for while WarunekZatrzymania() do for j {1, 2, 3,..., µ} do r 1, r 2, r 3 DU{1, 2,..., µ} r 1 r 2 r 3 j v j,g = x r1,g + F (x r2,g x r3,g) d DU{1, 2,..., D} for i {1, 2, 3,..., D} do v i,j,g if(u(0, 1) CR) j = d u i,j,g = x i,j,g if(u(0, 1) > CR) j d end for if f(u i,j,g ) < f(x i,j,g ) then else x i,j,g+1 = u i,j,g x i,j,g+1 = x i,j,g end if end for g = g + 1 end while 23

24 Rozdział 3. Wykorzystane metody optymalizacji 3.4. Algorytm ewolucyjny bazujący na mutacji różnicowej W roku 2011 na konferencji w Paryżu został zaproponowany nowy algorytm ewolucyjny wykorzystujący do przeprowadzania mutacji mechanizm zastosowany w ewolucji różnicowej. W publikacji nazywany jest on w skrócie DMEA (od ang. Differential Mutation Evolutionary Algorithm). Wyniki zaprezentowane dla zbioru testowego CEC2005 wydają się bardzo obiecujące, zważywszy na fakt, iż algorytm DMEA był testowany w dość wąskim zakresie. W pierwszym kroku algorytmu przeprowadzana jest inicjacja populacji z rozkładem jednostajnym na zbiorze rozwiązań dopuszczalnych, czyli analogicznie jak w algorytmie ewolucji różnicowej (wzór 3.2). Z aktualnej populacji zostają następnie wybrane punkty do populacji rodzicielskiej z użyciem reprodukcji proporcjonalnej (zwanej również ruletkową). Prawdopodobieństwo wybrania punktu jest wprost proporcjonalne do wartości jego funkcji przystosowania, poddanej przesunięciu korygującemu: P sel (x j,g g = t) = f(x j,t ) f min (t) µ k=1 (f(x k,t) f min (t)) f min (t) min k {1,2,3,...,µ} f(x k,t ) (3.7) Czynnik korygujący f min (t) musi spełniać powyższą nierówność, ponieważ w przeciwnym wypadku prawdopodobieństwo wyboru punktu mogłoby przyjmować wartości ujemne. Dodatkowo, w wypadku równości obu stron istnieje możliwość przyjęcia przez wyrażenie µ k=1 (f(x k,t) f min (t)) wartości zero. Stąd propozycja by nierówność słabą, zastąpić nierównością ostrą. W praktycznym zastosowaniu można to osiągnąć poprzez wyznaczenie przesunięcia korygującego ze wzoru: f min (t) = min k {1,2,3,...,µ} f(x k,t ) 0.01 µ (3.8) Punkty wybrane do populacji rodzicielskiej poddawane są następnie mutacji. Mechanizm mutacji używany w algorytmie DMEA stanowi rozszerzenie koncepcji mutacji różnicowej. Pierwszą różnicą jest wybieranie par punktów nie tylko z aktualnej generacji populacji, ale również z generacji poprzednich. Jeżeli populację punktów w generacji t oznaczymy przez X t, to wybór par punktów H k1,t, H k2,t dokonuje się spośród: H t = i {1,2,...,h} X t i+1 h 1 (t < 0 X t = ) (3.9) 24

25 3.4. Algorytm ewolucyjny bazujący na mutacji różnicowej, gdzie h określa liczbę ostatnich populacji z których losowane są pary punktów. Kolejnym rozszerzeniem mutacji różnicowej jest losowanie nie jednej, lecz wielu par punktów, a następnie wymnażanie ich różnic przez dodatkowy czynnik a k. Punkt będący sumą różnic v j,t uzyskujemy zgodnie z: p k=1 v j,t = a k (H k1,t H k2,t) p k=1 (a k) 2 (3.10) a k = ξ U(0,1) k 1, k 2 = ξ U{1,2,3,...,h µ}, przy czym zarówno współczynnik a k jak również indeksy k 1, k 2 są generowane losowo dla każdej pary punktów. Punkt v j,t jest więc zmienną losową której wariancja odpowiada podwojonej wariancji punktów ze zbioru H t. Następnie należy wygenerować punkt m jako realizację zmiennej losowej o rozkładzie normalnym. Wartość średnia dla rozkładu wynosi zero, natomiast macierz kowariancji jest postaci v m I, gdzie I jest macierzą jednostkową, natomiast v m jest określoną liczbą dodatnią. Dysponując punktem rodzicielskim x j,t, punktem będącym sumą różnic v j,t, oraz punktem losowym m, punkt potomny otrzymywany jest według wzoru: u j,t = x j,t + F v j,t + m (3.11) Czynnik skalujący F wpływa na zasięg mutacji. Większe wartości tego parametru prowadzić będzie do większego zróżnicowania populacji potomnej. Nie zostały zdefiniowane żadne ograniczenia na wartość tego parametru. Można jednak przyjąć, iż powinien on przyjmować wartości dodatnie. Ujemna wartość parametru F postaci a a R +, odpowiadają dodatniej wartości a, przy zamienionych indeksach k1, k2 we wzorze (3.10), natomiast dla wartości zero punkt potomny jest zdegenerowany. Wydaje się zasadne przyjęcie ograniczenia na wartość F analogiczną jak w ewolucji różnicowej: F (0, 1), w celu uniknięcia generowania zbyt odległych punktów. Na chwilę obecną brak jednak dowodów na poparcie tej tezy. Wygenerowane według wzoru (3.11) punkty potomne mogą znajdować się poza obszarem dopuszczalnym. Stąd konieczność zastosowania metody uwzględniania ograniczeń, która zostanie omówiona w dalszej części pracy. Po dokonaniu naprawy punktów potomnych przeprowadzana jest sukcesja z całkowitym zastępowaniem. Cała dotychczasowa populacja zastępowana jest przez nowo utworzone punkty potomne. Następnie przeprowadzane są ponownie wszystkie kroki DMEA, za 25

26 Rozdział 3. Wykorzystane metody optymalizacji Algorytm 4 Pseudokod algorytmu DMEA g = 0 for j {1, 2, 3,..., µ} do Inicjuj(x j,g ) end for while WarunekZatrzymania() do for j {1, 2, 3,..., µ} do Wylosuj i zgodnie z rozkładem P sel v j,g = 0 for k {1, 2, 3,..., p} do a k U(0, 1) l, m DU{1, 2,..., h µ} v j,g + = a k (H l,t H m,t ) end for v j,g v j,g = nk=1 (a k ) 2 m N(0, v m I) u j,g = x i,g + F v j,g + m x j,g+1 =Napraw(u j,g ) end for g = g + 1 end while x res =LokalnaOptymalizacja(x best ) 26

27 3.4. Algorytm ewolucyjny bazujący na mutacji różnicowej wyjątkiem inicjacji, o ile nie zostały spełnione warunki zatrzymania algorytmu. Punkt o najmniejszej wartości funkcji celu uzyskany w podczas wyżej opisanego przetwarzania można następnie poddać działaniu metody optymalizacji lokalnej. Mamy wtedy do czynienia z algorytmem hybrydowym, składającym się z metody optymalizacji globalnej, oraz optymalizacji lokalnej. Należy określić go mianem HDMEA - Hybrid Differential Mutation Evolutionary Algorithm. 27

28 Rozdział 3. Wykorzystane metody optymalizacji 3.5. Sympleks Neldera-Meada W ramach prowadzonych badań została również użyta metoda Neldera-Meada. Wprawdzie nie jest to metoda optymalizacji globalnej, jednakże została wykorzystana jako element metod hybrydowych. Opisywany algorytm opiera się o iteracyjnej modyfikacji sympleksu, w ten sposób, by ostatecznie jego środek przybliżał minimum lokalne. Dla problemu minimalizacji funkcji f(x) : R n R metoda rozpoczyna się od utworzenia punktów: P 0,, P n stanowiących wierzchołki sympleksu. Wartości funkcji w tych punktach oznaczamy kolejno: y 0,, y n. Następnie wyznaczamy indeksy skrajnych, co do wartości funkcji celu, wierzchołków sympleksu: h takie, że y h = max (y i) i {0,,n} l takie, że y l = min (y i) i {0,,n} (3.12) oraz centroid P dla punktów P i takich, że i {0,, n}\{h}. W następnym kroku należy dokonać modyfikacji najgorszego punktu, o indeksie h. Można tego dokonać za pomocą jednej z trzech operacji: odbicia, zawężenia lub ekspansji. W pierwszym kroku przeprowadza się próbę odbicia P h, względem P w następujący sposób: P = (1 + α)p αp h (3.13) gdzie współczynnik odbicia α jest większy od zera. Jeżeli odpowiadająca punktowi P wartość y, spełnia warunek: y l < y i h y i > y, to punkt P h jest zastępowany przez P i tak zmodyfikowany sympleks jest powtórnie przetwarzany. Jeżeli natomiast y < y l, czyli utworzone zostało, w wyniku odbicia, nowe minimum, to następuje ekspansja P według: P = γp + (1 γ)p (3.14) gdzie współczynnik ekspansji γ jest większy od jedności. Jeżeli wartość y < y l, to ekspansja się powiodła, i punkt P h zostaje zastąpiony przez P. W wypadku niepowodzenia ekspansji P h zostaje zastąpione przez P. Następnie nowo utworzony sympleks jest powtórnie przetwarzany. 28

29 3.5. Sympleks Neldera-Meada Jeżeli jednak i h y i < y, to P h poddajemy zawężeniu, uprzednio zastępując P h punktem P, o ile y < y h. Zawężenie dokonywane jest zgodnie ze wzorem: P = βp h + (1 β)p (3.15) gdzie współczynnik zawężania β (0, 1). Tak uzyskany punkt P zastępuje dotychczasowy punkt P h chyba, że y > y h. W wypadku takiego niepowodzenia zawężania, wszystkie punkty ulegają zbliżeniu do punktu o najmniejszej wartości funkcji celu. Następuje to według: P i = (P i + P l ) 2 i {0,, n} (3.16) Powyższa procedura jest powtarzana, aż do spełnienia kryterium zatrzymania. W przeprowadzanych badaniach jako kryterium zostało przyjęte przekroczenie zadanej liczby ewaluacji funkcji celu. Prezentowana metoda nie została przeze mnie zaimplementowana. Wykorzystałem gotową implementację znajdującą się w bibliotece GSL. 29

30 Rozdział 3. Wykorzystane metody optymalizacji 3.6. Uwzględnianie ograniczeń Problem ekstrakcji parametrów tranzystora narzuca ograniczenia na wartości parametrów tranzystora. Dla każdego parametru występuje zarówno ograniczenia dolne, jak również górne jego wartości. W ramach działania rozważanych algorytmów może się okazać, iż nowo wygenerowany punkt nie spełnia co najmniej jednego z ograniczeń. Ponieważ rozwiązania nie spełniające ograniczeń są poza naszym obszarem zainteresowań, należy ustalić sposób postępowania w takich przypadkach. Ponieważ w analizowanym problemie dla każdego parametru występują stałe ograniczenia górne i dolne, więc zbiór dopuszczalny przyjmuje formę n wymiarowego hiperprostopadłościanu. Możemy więc mówić w tym wypadku o ograniczeniach kostkowych. Taki zbiór został dodatkowo przekształcony do postaci n wymiarowego hipersześcianu. Dobór niewłaściwej metody uwzględniania ograniczeń może w sposób istotny negatywnie wpływać na wyniki uzyskiwane przez metody optymalizacji. Spośród negatywnych skutków należy wymienić tendencję do błądzenia przypadkowego, obniżenie zdolności do generacji punktów w okolicach przecięcia licznych ograniczeń, czy też zmniejszenie różnorodności generowanych rozwiązań. Stąd konieczność odpowiedniego doboru metody uwzględniania ograniczeń. Dla każdego z rozważanych algorytmów, w kontekście testu CEC2005, zaproponowane zostały różne sposoby uwzględniania ograniczeń [15, 17, 14]. Jednak, jak pokazały badania [18], dla metod CMA-ES oraz DE i zbioru testowego CEC 2005, istnieje lepsza niż proponowane metoda. Chodzi o ponowne próbkowanie, które uzyskało najlepsze wyniki zarówno dla algorytmu CMA-ES jak również DE. Metoda ponownego próbkowania polega na ponownym przeprowadzaniu procedury generowania punktu, w wypadku gdy wcześniej uzyskany nie znajduje się w obszarze dopuszczalnym. Ze względu na stochastyczny sposób generowania punktów, nowo utworzone rozwiązanie może znaleźć się w obszarze dopuszczalnym. Jest to metoda prosta i intuicyjna nie gwarantująca jednak naprawy w pojedynczej iteracji. To też stanowi istotną wadę tej metody i może prowadzić do wielokrotnego bezskutecznego generowania nowych rozwiązań znajdujących się poza obszarem dopuszczalnym. Zjawisko to zostało odnotowane [18] zarówno dla metody DE jak również dla CMA-ES. 30

31 3.6. Uwzględnianie ograniczeń Chcąc wykorzystać powyższą metodę, a jednocześnie ograniczyć jej niepożądane właściwości należało przeprowadzić jej hybrydyzację. Wprowadzono górne ograniczenie liczby ponownych generacji na poziomie liczby wymiarów problemu. Jeżeli w następstwie wprowadzenia ograniczenia nie udało się uzyskać rozwiązania dopuszczalnego metoda przeprowadzała naprawdę nieakceptowalnego rozwiązania. Naprawa była przeprowadzana zgodnie z koncepcją zaproponowaną w [15]. Punkt nieakceptowalny był przesuwany w kierunku środka populacji według wzoru: x = Pmid t + a(x Pmid) t (3.17) gdzie Pmid t oznacza punkt będący środkiem populacji, w generacji t, x jest punktem spoza obszaru dopuszczalnego, natomiast współczynnik a początkowo wynosi 1, jednak 2 w razie niepowodzenia utworzenia punktu w obszarze dopuszczalnym, jest dzielony przez 2. Ta procedura gwarantuje uzyskanie punktu dopuszczalnego po zastosowaniu wystarczająco małej wartości parametru a. Wyżej opisana metoda hybrydowa została zastosowana w algorytmach DE, DMEA, oraz CMA-ES. Metoda Monte Carlo nie wymaga mechanizmów uwzględniania ograniczeń, ponieważ ze swej zasady działania generuje punkty w obszarze dopuszczalnym. Dla metody Neldera-Meada natomiast zastosowano prostą funkcję kary. 31

32 Rozdział 3. Wykorzystane metody optymalizacji 3.7. Testowanie niedeterministycznych metod optymalizacji Metody niedeterministyczne ze względu na swój charakter wymagają dość specyficznego podejścia. Nie gwarantują one ani uzyskiwania optymalnych rozwiązań, ani nawet powtarzalności wyników. Nie posiadając wiedzy czy zostało już osiągnięte minimum lokalne nie jesteśmy w stanie jednoznacznie stwierdzić kiedy należy przerwać działanie algorytmu. Z tymi cechami wiążą się problemy ich w testowaniu Porównanie oparte na wielu niezależnych uruchomieniach Ze względu na stochastyczny charakter badanych metod niewłaściwym jest przeprowadzanie porównania w oparciu o jeden przebieg algorytmu. Takie podejście jest mylące. Przeprowadzając dwa niezależne uruchomienia metody optymalizacji globalnej niejednokrotnie należałoby stwierdzić, iż metoda jest lepsza/gorsza od samej siebie. Z tego powodu porównania należy dokonywać na podstawie wielu niezależnych uruchomień. Dysponując wieloma wynikami działania poszczególnych metod możemy mówić o ich parametrach statystycznych i na ich podstawie dokonywać porównania. Parametrami statystycznymi wartymi uwagi są mediana oraz średnia z uzyskiwanych wyników. Obserwowanie ich wartości, w trakcie działania metod, pozwala na dość wiarygodne porównanie, zwłaszcza jeżeli zostały wyznaczone na podstawie stosunkowo dużej liczby uruchomień. Można w ten sposób rejestrować tzw. krzywe zbieżności obrazujące jak, średnio, wartości funkcji celu maleją wraz z kolejnymi ewaluacjami. Drugim istotnym narzędziem porównawczym są dystrybuanty empiryczne rozwiązań. Pozwalają one porównać algorytmy pod kątem uzyskiwanych ostatecznie wyników. Ukazują one częstość występowania wyników o nie gorszej niż podana wartości funkcji celu. Można dzięki nim ocenić jaka jest szansa uzyskania wyników z określonych przedziałów wartości. Do porównania wyników dwóch algorytmów przydatny jest również test Wilcoxona. Pozwala on stwierdzić, z zadanym poziomem istotności, czy uzyskane wyniki są od siebie różne w sposób statystycznie istotny. Można na jego podstawie również stwierdzić jaki jest charakter tej różnicy - czy wyniki A są statystycznie większe od B czy wręcz przeciwnie. 32

33 3.7. Testowanie niedeterministycznych metod optymalizacji Analiza testów porównawczych Poszukując wydajnych metod optymalizacji globalnej mających służyć ekstrakcji parametrów tranzystora należy przeanalizować dostępne testy porównawcze. Uwagę zwracają dwa kompletne zbiory testowe - BBOB oraz CEC. Oba traktowały funkcje testowe jako czarną skrzynkę pozwalając ustawiać parametry algorytmów tylko w oparciu o wymiarowość problemu, nie wykorzystując przy tym żadnej dodatkowej wiedzy na ich temat. Jest to ujęcie zgodne z badanym w niniejszej pracy, gdzie również nie wykorzystywana była dodatkowa wiedza o funkcji celu. W teście BBOB 2010 [12] przeprowadzana jest optymalizacja 24 różnych funkcji testowych, w kilku wariantach zaszumienia, oraz dla różnej wymiarowości problemu (2, 3, 5, 10, 20, 40). Najbardziej interesujące z punktu widzenia badanego zagadnienia są wyniki uzyskane przez różne metody dla 5 wymiarowych funkcji testowych bez szumów, ze względu na liczne przetestowane funkcje oraz fakt, iż docelowo optymalizacji podlegać będzie funkcja 6 wymiarowa. Najistotniejsze wydają się wyniki dla funkcji f 24 (Lunacek bi-rastrigin), ponieważ okazała się ona największym wyzwaniem dla testowanych algorytmów. Dla tej funkcji tylko pięciu metodom udało się osiągnąć odległość od optimum na poziomie lepszym niż Trzy (Adap DE, DE (uniform),pm-adapss-de) z nich są bezpośrednio oparte na algorytmie ewolucji różnicowej, jeden na algorytmie CMA-ES (IPOP-CMA-ES). Piąty algorytm (CMA+DE-MOS) jest natomiast hybrydą obu powyższych. Spośród nich należy wyróżnić dla algorytmy - DE (uniform) oraz IPOP-CMA-ES, z różnych jednak względów. Pierwszy ze względu na pełną niezawodność - dla każdej funkcji testowej udało mu się uzyskać wynik różniący się od docelowego o nie więcej niż Natomiast algorytm IPOP-CMA-ES wprawdzie nie zawsze uzyskiwał tak dobre rozwiązania, jednak szybciej dążył do optimum, co potwierdzają wyniki kolejnego testu. Test CEC2005 składa się z 25 funkcji, w różnych wariantach wymiarowości, jednak główne zestawienie wyników zostało zaprezentowane dla funkcji 10 i 30 wymiarowych. Dla funkcji 10 wymiarowych dwa powyżej wymienione algorytmy zajmowały miejsca w czołówce. Utwierdza to w przeświadczeniu, iż do przeprowadzenia ekstrakcji parametrów tranzystora należy wykorzystać wzmiankowane wcześniej algorytmy DE oraz CMA-ES Stąd do rozwiązywania problemu ekstrakcji parametrów, zostały wybrane właśnie te dwa algorytmy, w możliwie klasycznej postaci. Do celów badawczych wybrano również dwa dodatkowe algorytmy, próbkowanie Monte Carlo 33

34 Rozdział 3. Wykorzystane metody optymalizacji (MC) jako jedna z najprostszych metoda optymalizacji globalnej, oraz algorytm DMEA bazujący na DE, zaprezentowany po raz pierwszy w 2011 roku na konferencji w Paryżu. MC spełnia rolę algorytmu odniesienia, natomiast DMEA jest algorytmem wykorzystującym uogólnioną metodę mutacji DE, a przy tym nowym, stąd pomysł by przetestować jego działanie w praktycznym zastosowaniu, a nie tylko na syntetycznych funkcjach testowych. 34

35 4. Implementacja badanego zagadnienia 4.1. Weryfikacja poprawności wybranych metod optymalizacji Wybrane metody optymalizacji globalnej mają charakter stochastyczny, co utrudnia weryfikację poprawności ich realizacji. Można jednak porównać wyniki działania zaimplementowanych algorytmów na pewnym zbiorze funkcji testowych, z opublikowanymi już wynikami uzyskanymi dla tego samego zestawu testów. Do tego celu posłużono się zestawem CEC 2005 [13]. Wyniki dla algorytmów DE, CMA-ES oraz DMEA znajdują się w [14], [15]; posłużyły one do przeprowadzenia porównania z wynikami uzyskanymi przez własne implementacje metod. Implementacja w języku C funkcji testowych ze zbioru CEC 2005 została udostępniona na stronie: Documents/Forms/AllItems.aspx. Niestety korzystanie z niej jest niewygodne (wyboru funkcji dokonuje się poprzez jej odkomentowanie przed kompilacją). Są również zastrzeżenia względem optymalności zaprezentowanej implementacji, zwłaszcza względem funkcji F 11, która wpływa również na wydajność funkcji hybrydowych (F 15 -F 25 ). Z tych powodów został zaimplementowany zestaw funkcji testowych CEC Algorytmy DE oraz L-CMA-ES zaimplementowano dokonując kilku modyfikacji. Ujednolicono w nich mechanizm uwzględniania ograniczeń kostkowych (jest on ten sam, dla wszystkich algorytmów, i bazuje na zastosowanym w DMEA). Dodatkowo w wypadku L-CMA-ES uwzględniono późniejsze zmiany sposobu obliczania parametrów wykorzystywanych przy modyfikacji macierzy kowariancji. Ogólny przebieg algorytmu pozostał jednak niezmieniony. Uzyskiwane dla funkcji CEC2005 wyniki mogły się więc różnić od zamieszonych w artykułach. Z tego powodu oczekiwano by uzyskane wyniki były statystycznie nie gorsze od zaprezentowanych w artykułach. W wypadku niespełnienia tych oczekiwań konieczna byłaby rewizja zaimplementowanych algorytmów, lub nawet odtworzenie ich pierwotnej wersji. 35

36 Rozdział 4. Implementacja badanego zagadnienia F n IW IU F n IW IU F n IW IU F n Σ IW IU Tabela 4.1. Czas wykonania, ewaluacji 10 wymiarowych funkcji ze zbioru CEC 2005, w sekundach; IW - implementacja własna, IU - implementacja udostępniona, F n numer funkcji. F n IW IU F n IW IU F n Σ IW IU Tabela 4.2. Czas wykonania, ewaluacji 30 wymiarowych funkcji ze zbioru CEC 2005, w sekundach; IW - implementacja własna, IU - implementacja udostępniona, F n numer funkcji. Do porównania wyników wykorzystałem test Wilcoxona dla par obserwacji, uznając za próg istotności p-wartość na poziomie Porównaniu poddano mediany uzyskiwanych rozwiązań oraz oddzielnie średnie wartości rozwiązań, na poszczególnych etapach działania algorytmu. Jako hipotezę alternatywną przyjęto uzyskiwanie przez zaimplementowane algorytmy wyników gorszych (czyli co do wartości większych), od tych zaprezentowanych w artykułach. 36

37 4.1. Weryfikacja poprawności wybranych metod optymalizacji Liczba ewaluacji: Mediana Średnia Tabela 4.3. Wyniki testu Wilcoxona: funkcje 10 wymiarowe, algorytm L-CMA-ES. Przybliżone p-wartości. W wypadku algorytmu L-CMA-ES zarówno dla funkcji 10 jak i 30 wymiarowych p-wartość nie spadła poniżej progu istotności (Tabele 4.3 oraz 4.4). Nie było więc praktycznie żadnych przesłanek dla odrzucenia hipotezy zerowej. Wprawdzie dla przypadku funkcji 10 wymiarowych oraz 10 5 ewaluacji p-wartości znacznie zmalały, jednak nie w stopniu pozwalającym odrzucić hipotezę zerową. Dalsza analiza wykazała, iż nie tylko uzyskane wyniki nie są statystycznie gorsze, lecz nawet są statystycznie lepsze od zaprezentowanych w artykule. Wyniki te pozwoliły więc zaakceptować zaimplementowany algorytm. Liczba ewaluacji: Mediana Średnia Tabela 4.4. Wyniki testu Wilcoxona: funkcje 30 wymiarowe, algorytm L-CMA-ES. Przybliżone p-wartości. Analogiczne testy przeprowadzono dla algorytmu DE. Ponownie uzyskane p-wartości nie pozwoliły, w żadnym z rozważanych przypadków, odrzucić hipotezy zerowej. Zwracam przy tym uwagę na fakt, iż procedura testowa w wypadku tego algorytmu została zmodyfikowana. Jako warunek zatrzymania wykorzystałem jedynie liczbę przeprowadzonych ewaluacji funkcji celu. Podyktowane to było wynikiem analizy wyników zawartych w [17]. Wynika z niej dość jednoznacznie, iż przy produkcji wyników również pominięto warunki zatrzymania poza liczbą ewaluacji. Uzyskane w ten sposób wyniki pozwoliły przyjąć również ten algorytm do dalszych badań. Dla algorytmu DMEA test przeprowadzono jedynie dla funkcji 30 wymiarowych. Było to spowodowane faktem, iż wyniki dla funkcji 10 wymiarowych nie zostały udostępnione. Zaobserwowane wyniki (Tabela 4.7) jednoznacznie wskazywały, iż zaimplementowany algorytm osiąga statystycznie gorsze wyniki, niż przedstawiono w artykule. Rewizja implementacji algorytmu nie ujawniła żadnych błędów. Dopiero 37

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło

ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ. Konrad Wypchło ROZWÓJ ALGORYTMU EWOLUCJI RÓŻNICOWEJ Konrad Wypchło Plan prezentacji 2 Elementy klasycznego algorytmu ewolucyjnego Ewolucja różnicowa DMEA i inne modyfikacje Adaptacja zasięgu mutacji (AHDMEA, SaHDMEA)

Bardziej szczegółowo

Metody Rozmyte i Algorytmy Ewolucyjne

Metody Rozmyte i Algorytmy Ewolucyjne mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb

Bardziej szczegółowo

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób:

CMAES. Zapis algorytmu. Generacja populacji oraz selekcja Populacja q i (t) w kroku t generowana jest w następujący sposób: CMAES Covariance Matrix Adaptation Evolution Strategy Opracowanie: Lidia Wojciechowska W algorytmie CMAES, podobnie jak w algorytmie EDA, adaptowany jest rozkład prawdopodobieństwa generacji punktów, opisany

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak,

Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak, Testowanie metod optymalizacji i hipotez statystycznych Opracowanie: Łukasz Lepak, 277324 Po wyborze i wykorzystaniu pewnej metody optymalizacji nadchodzi czas na ocenę wytworzonych przez nią punktów.

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą

Bardziej szczegółowo

Algorytm genetyczny (genetic algorithm)-

Algorytm genetyczny (genetic algorithm)- Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie

Bardziej szczegółowo

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA

PLAN WYKŁADU OPTYMALIZACJA GLOBALNA OPERATOR KRZYŻOWANIA ETAPY KRZYŻOWANIA PLAN WYKŁADU Operator krzyżowania Operator mutacji Operator inwersji Sukcesja Przykłady symulacji AG Kodowanie - rodzaje OPTYMALIZACJA GLOBALNA Wykład 3 dr inż. Agnieszka Bołtuć OPERATOR KRZYŻOWANIA Wymiana

Bardziej szczegółowo

ALGORYTMY GENETYCZNE ćwiczenia

ALGORYTMY GENETYCZNE ćwiczenia ćwiczenia Wykorzystaj algorytmy genetyczne do wyznaczenia minimum globalnego funkcji testowej: 1. Wylosuj dwuwymiarową tablicę 100x2 liczb 8-bitowych z zakresu [-100; +100] reprezentujących inicjalną populację

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH 1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Wnioskowanie statystyczne dla zmiennych numerycznych Porównywanie dwóch średnich Boot-strapping Analiza

Bardziej szczegółowo

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES

WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES WAE Jarosław Arabas Adaptacja i samoczynna adaptacja parametrów AE Algorytm CMA-ES Dynamika mutacyjnego AE Mutacja gaussowska σ=0.1 Wszystkie wygenerowane punkty Wartość średnia jakości punktów populacji

Bardziej szczegółowo

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek

Strategie ewolucyjne. Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne Gnypowicz Damian Staniszczak Łukasz Woźniak Marek Strategie ewolucyjne, a algorytmy genetyczne Podobieństwa: Oba działają na populacjach rozwiązań Korzystają z zasad selecji i przetwarzania

Bardziej szczegółowo

Programowanie celowe #1

Programowanie celowe #1 Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem

Bardziej szczegółowo

ALHE Z11 Jarosław Arabas wykład 11

ALHE Z11 Jarosław Arabas wykład 11 ALHE Z11 Jarosław Arabas wykład 11 algorytm ewolucyjny inicjuj P 0 {x 1, x 2... x } t 0 while! stop for i 1: if a p c O t,i mutation crossover select P t, k else O t,i mutation select P t,1 P t 1 replacement

Bardziej szczegółowo

Dobór parametrów algorytmu ewolucyjnego

Dobór parametrów algorytmu ewolucyjnego Dobór parametrów algorytmu ewolucyjnego 1 2 Wstęp Algorytm ewolucyjny posiada wiele parametrów. Przykładowo dla algorytmu genetycznego są to: prawdopodobieństwa stosowania operatorów mutacji i krzyżowania.

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji n-wymiarowych Forma kwadratowa w n wymiarach Procedury minimalizacji Minimalizacja wzdłuż prostej w n-wymiarowej przestrzeni Metody minimalizacji wzdłuż osi współrzędnych wzdłuż kierunków

Bardziej szczegółowo

166 Wstęp do statystyki matematycznej

166 Wstęp do statystyki matematycznej 166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania Metody optymalizacji Metody bezgradientowe optymalizacji bez ograniczeń Materiały pomocnicze do ćwiczeń

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 13. PROBLEMY OPTYMALIZACYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska PROBLEMY OPTYMALIZACYJNE Optymalizacja poszukiwanie

Bardziej szczegółowo

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Statystyka Wykład 10 Wrocław, 22 grudnia 2011 Testowanie hipotez statystycznych Definicja. Hipotezą statystyczną nazywamy stwierdzenie dotyczące parametrów populacji. Definicja. Dwie komplementarne w problemie

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia stacjonarne i niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia stacjonarne i niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki,

Bardziej szczegółowo

Wykład 3 Hipotezy statystyczne

Wykład 3 Hipotezy statystyczne Wykład 3 Hipotezy statystyczne Hipotezą statystyczną nazywamy każde przypuszczenie dotyczące nieznanego rozkładu obserwowanej zmiennej losowej (cechy populacji generalnej) Hipoteza zerowa (H 0 ) jest hipoteza

Bardziej szczegółowo

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne

Algorytmy genetyczne. Materiały do laboratorium PSI. Studia niestacjonarne Algorytmy genetyczne Materiały do laboratorium PSI Studia niestacjonarne Podstawowy algorytm genetyczny (PAG) Schemat blokowy algorytmu genetycznego Znaczenia, pochodzących z biologii i genetyki, pojęć

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

Wprowadzenie do analizy korelacji i regresji

Wprowadzenie do analizy korelacji i regresji Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących

Bardziej szczegółowo

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15 VI WYKŁAD STATYSTYKA 9/04/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 6 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI Weryfikacja hipotez ( błędy I i II rodzaju, poziom istotności, zasady

Bardziej szczegółowo

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl

Bardziej szczegółowo

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa.

TESTY NIEPARAMETRYCZNE. 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa. TESTY NIEPARAMETRYCZNE 1. Testy równości średnich bez założenia normalności rozkładu zmiennych: Manna-Whitney a i Kruskala-Wallisa. Standardowe testy równości średnich wymagają aby badane zmienne losowe

Bardziej szczegółowo

Algorytmy genetyczne w optymalizacji

Algorytmy genetyczne w optymalizacji Algorytmy genetyczne w optymalizacji Literatura 1. David E. Goldberg, Algorytmy genetyczne i ich zastosowania, WNT, Warszawa 1998; 2. Zbigniew Michalewicz, Algorytmy genetyczne + struktury danych = programy

Bardziej szczegółowo

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO

SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania

Bardziej szczegółowo

Zadania ze statystyki, cz.6

Zadania ze statystyki, cz.6 Zadania ze statystyki, cz.6 Zad.1 Proszę wskazać, jaką część pola pod krzywą normalną wyznaczają wartości Z rozkładu dystrybuanty rozkładu normalnego: - Z > 1,25 - Z > 2,23 - Z < -1,23 - Z > -1,16 - Z

Bardziej szczegółowo

METODY STATYSTYCZNE W BIOLOGII

METODY STATYSTYCZNE W BIOLOGII METODY STATYSTYCZNE W BIOLOGII 1. Wykład wstępny 2. Populacje i próby danych 3. Testowanie hipotez i estymacja parametrów 4. Planowanie eksperymentów biologicznych 5. Najczęściej wykorzystywane testy statystyczne

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych 9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :

Bardziej szczegółowo

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

KADD Minimalizacja funkcji

KADD Minimalizacja funkcji Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego

Bardziej szczegółowo

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych

Bardziej szczegółowo

Statystyka matematyczna dla leśników

Statystyka matematyczna dla leśników Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 03/04 Wykład 5 Testy statystyczne Ogólne zasady testowania hipotez statystycznych, rodzaje

Bardziej szczegółowo

Wydział Matematyki. Testy zgodności. Wykład 03

Wydział Matematyki. Testy zgodności. Wykład 03 Wydział Matematyki Testy zgodności Wykład 03 Testy zgodności W testach zgodności badamy postać rozkładu teoretycznego zmiennej losowej skokowej lub ciągłej. Weryfikują one stawiane przez badaczy hipotezy

Bardziej szczegółowo

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek

ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek ALHE Jarosław Arabas Metaheurystyki w Rn Ewolucja różnicowa EDA CMAES Rój cząstek Metoda przeszukiwania stan adaptacja S0 S1 om : Π X M M inicjacja S2 S4 S8 selekcja I : S U X o s : Π H U X wariacja o

Bardziej szczegółowo

Systemy uczące się Lab 4

Systemy uczące się Lab 4 Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego

Bardziej szczegółowo

Strategie ewolucyjne (ang. evolution strategies)

Strategie ewolucyjne (ang. evolution strategies) Strategie ewolucyjne (ang. evolution strategies) 1 2 Szybki przegląd Rozwijane w Niemczech w latach 60-70. Wcześni badacze: I. Rechenberg, H.-P. Schwefel (student Rechenberga). Typowe zastosowanie: Optymalizacja

Bardziej szczegółowo

ALHE. prof. Jarosław Arabas semestr 15Z

ALHE. prof. Jarosław Arabas semestr 15Z ALHE prof. Jarosław Arabas semestr 15Z Wykład 5 Błądzenie przypadkowe, Algorytm wspinaczkowy, Przeszukiwanie ze zmiennym sąsiedztwem, Tabu, Symulowane wyżarzanie 1. Błądzenie przypadkowe: Pierwszym krokiem

Bardziej szczegółowo

Automatyczny dobór parametrów algorytmu genetycznego

Automatyczny dobór parametrów algorytmu genetycznego Automatyczny dobór parametrów algorytmu genetycznego Remigiusz Modrzejewski 22 grudnia 2008 Plan prezentacji Wstęp Atrakcyjność Pułapki Klasyfikacja Wstęp Atrakcyjność Pułapki Klasyfikacja Konstrukcja

Bardziej szczegółowo

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo

Zadanie 5 - Algorytmy genetyczne (optymalizacja)

Zadanie 5 - Algorytmy genetyczne (optymalizacja) Zadanie 5 - Algorytmy genetyczne (optymalizacja) Marcin Pietrzykowski mpietrzykowski@wi.zut.edu.pl wersja 1.0 1 Cel Celem zadania jest zapoznanie się z Algorytmami Genetycznymi w celu rozwiązywanie zadania

Bardziej szczegółowo

Algorytmy ewolucyjne 1

Algorytmy ewolucyjne 1 Algorytmy ewolucyjne 1 2 Zasady zaliczenia przedmiotu Prowadzący (wykład i pracownie specjalistyczną): Wojciech Kwedlo, pokój 205. Konsultacje dla studentów studiów dziennych: poniedziałek,środa, godz

Bardziej szczegółowo

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH

ROZWIĄZYWANIE RÓWNAŃ NIELINIOWYCH Transport, studia I stopnia Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać ogólna równania nieliniowego Często występującym, ważnym problemem obliczeniowym

Bardziej szczegółowo

Testy nieparametryczne

Testy nieparametryczne Testy nieparametryczne Testy nieparametryczne możemy stosować, gdy nie są spełnione założenia wymagane dla testów parametrycznych. Stosujemy je również, gdy dane można uporządkować według określonych kryteriów

Bardziej szczegółowo

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych

Algorytm Genetyczny. zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Algorytm Genetyczny zastosowanie do procesów rozmieszczenia stacji raportujących w sieciach komórkowych Dlaczego Algorytmy Inspirowane Naturą? Rozwój nowych technologii: złożone problemy obliczeniowe w

Bardziej szczegółowo

Spacery losowe generowanie realizacji procesu losowego

Spacery losowe generowanie realizacji procesu losowego Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z

Bardziej szczegółowo

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego

WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego WAE Jarosław Arabas Pełny schemat algorytmu ewolucyjnego Algorytm ewolucyjny algorytm ewolucyjny inicjuj P 0 {P 0 1, P 0 2... P 0 μ } t 0 H P 0 while! stop for (i 1: λ) if (a< p c ) O t i mutation(crossover

Bardziej szczegółowo

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH RÓWNOWAŻNOŚĆ METOD BADAWCZYCH Piotr Konieczka Katedra Chemii Analitycznej Wydział Chemiczny Politechnika Gdańska Równoważność metod??? 2 Zgodność wyników analitycznych otrzymanych z wykorzystaniem porównywanych

Bardziej szczegółowo

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE

LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania i mutacji na skuteczność poszukiwań AE Instytut Mechaniki i Inżynierii Obliczeniowej Wydział Mechaniczny Technologiczny, Politechnika Śląska www.imio.polsl.pl METODY HEURYSTYCZNE LABORATORIUM 4: Algorytmy ewolucyjne cz. 2 wpływ operatorów krzyżowania

Bardziej szczegółowo

Algorytmy ewolucyjne NAZEWNICTWO

Algorytmy ewolucyjne NAZEWNICTWO Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 1. Optymalizacja funkcji jednej zmiennej Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.02.2019 1 / 54 Plan wykładu Optymalizacja funkcji jednej

Bardziej szczegółowo

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik

Zadanie transportowe i problem komiwojażera. Tadeusz Trzaskalik Zadanie transportowe i problem komiwojażera Tadeusz Trzaskalik 3.. Wprowadzenie Słowa kluczowe Zbilansowane zadanie transportowe Rozwiązanie początkowe Metoda minimalnego elementu macierzy kosztów Metoda

Bardziej szczegółowo

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 5 Mikołaj Czajkowski Wiktor Budziński Zadanie 1. Wykorzystując dane me.medexp3.dta przygotuj model regresji kwantylowej 1. Przygotuj model regresji kwantylowej w którym logarytm wydatków

Bardziej szczegółowo

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x ZJAZD 4 KORELACJA, BADANIE NIEZALEŻNOŚCI, ANALIZA REGRESJI Analiza korelacji i regresji jest działem statystyki zajmującym się badaniem zależności i związków pomiędzy rozkładami dwu lub więcej badanych

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji

Bardziej szczegółowo

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła

Testy De Jonga. Problemy. 1 Optymalizacja dyskretna i ciągła Problemy 1 Optymalizacja dyskretna i ciągła Problemy 1 Optymalizacja dyskretna i ciągła 2 Środowisko pomiarowe De Jonga Problemy 1 Optymalizacja dyskretna i ciągła 2 Środowisko pomiarowe De Jonga 3 Ocena

Bardziej szczegółowo

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności:

Zad. 4 Należy określić rodzaj testu (jedno czy dwustronny) oraz wartości krytyczne z lub t dla określonych hipotez i ich poziomów istotności: Zadania ze statystyki cz. 7. Zad.1 Z populacji wyłoniono próbę wielkości 64 jednostek. Średnia arytmetyczna wartość cechy wyniosła 110, zaś odchylenie standardowe 16. Należy wyznaczyć przedział ufności

Bardziej szczegółowo

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski Książka jest nowoczesnym podręcznikiem przeznaczonym dla studentów uczelni i wydziałów ekonomicznych. Wykład podzielono na cztery części. W pierwszej

Bardziej szczegółowo

Algorytmy genetyczne

Algorytmy genetyczne 9 listopada 2010 y ewolucyjne - zbiór metod optymalizacji inspirowanych analogiami biologicznymi (ewolucja naturalna). Pojęcia odwzorowujące naturalne zjawiska: Osobnik Populacja Genotyp Fenotyp Gen Chromosom

Bardziej szczegółowo

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań Raport 1/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych z zastosowaniem

Bardziej szczegółowo

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka

Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej

Bardziej szczegółowo

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Testowanie hipotez statystycznych. Wnioskowanie statystyczne Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy

Bardziej szczegółowo

Testowanie hipotez statystycznych.

Testowanie hipotez statystycznych. Bioinformatyka Wykład 4 Wrocław, 17 października 2011 Temat. Weryfikacja hipotez statystycznych dotyczących wartości oczekiwanej w dwóch populacjach o rozkładach normalnych. Model 3. Porównanie średnich

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych

Bardziej szczegółowo

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład

Bardziej szczegółowo

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:

W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe

Bardziej szczegółowo

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH

UKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH Transport, studia I stopnia rok akademicki 2011/2012 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Uwagi wstępne Układ liniowych równań algebraicznych można

Bardziej szczegółowo

Redukcja wariancji w metodach Monte-Carlo

Redukcja wariancji w metodach Monte-Carlo 14.02.2006 Seminarium szkoleniowe 14 lutego 2006 Plan prezentacji Wprowadzenie Metoda losowania warstwowego Metoda próbkowania ważonego Metoda zmiennych kontrolnych Metoda zmiennych antytetycznych Metoda

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metody kierunków poparwy (metoda Newtona-Raphsona, metoda gradientów sprzężonych) Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 28.03.2019 1

Bardziej szczegółowo

przetworzonego sygnału

przetworzonego sygnału Synteza falek ortogonalnych na podstawie oceny przetworzonego sygnału Instytut Informatyki Politechnika Łódzka 28 lutego 2012 Plan prezentacji 1 Sformułowanie problemu 2 3 4 Historia przekształcenia falkowego

Bardziej szczegółowo

Testowanie hipotez statystycznych

Testowanie hipotez statystycznych Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom

Bardziej szczegółowo

Rozdział 1 PROGRAMOWANIE LINIOWE

Rozdział 1 PROGRAMOWANIE LINIOWE Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 1 PROGRAMOWANIE LINIOWE 1.1 Opis programów Do rozwiązania zadań programowania

Bardziej szczegółowo

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych

Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych Zadania ze statystyki, cz.7 - hipotezy statystyczne, błąd standardowy, testowanie hipotez statystycznych Zad. 1 Średnia ocen z semestru letniego w populacji studentów socjologii w roku akademickim 2011/2012

Bardziej szczegółowo

Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński

Mikroekonometria 6. Mikołaj Czajkowski Wiktor Budziński Mikroekonometria 6 Mikołaj Czajkowski Wiktor Budziński Metody symulacyjne Monte Carlo Metoda Monte-Carlo Wykorzystanie mocy obliczeniowej komputerów, aby poznać charakterystyki zmiennych losowych poprzez

Bardziej szczegółowo

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,

Bardziej szczegółowo

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów

Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa. Diagnostyka i niezawodność robotów Instytut Politechniczny Państwowa Wyższa Szkoła Zawodowa Diagnostyka i niezawodność robotów Laboratorium nr 6 Model matematyczny elementu naprawialnego Prowadzący: mgr inż. Marcel Luzar Cele ćwiczenia:

Bardziej szczegółowo

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch

LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE. opracował: dr inż. Witold Beluch OBLICZENIA EWOLUCYJNE LABORATORIUM 2: Wpływ wielkości populacji i liczby pokoleń na skuteczność poszukiwań AE opracował: dr inż. Witold Beluch witold.beluch@polsl.pl Gliwice 12 OBLICZENIA EWOLUCYJNE LABORATORIUM

Bardziej szczegółowo

Ważne rozkłady i twierdzenia c.d.

Ważne rozkłady i twierdzenia c.d. Ważne rozkłady i twierdzenia c.d. Funkcja charakterystyczna rozkładu Wielowymiarowy rozkład normalny Elipsa kowariacji Sploty rozkładów Rozkłady jednostajne Sploty z rozkładem normalnym Pobieranie próby

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Zadanie. Niech (X, Y) ) będzie dwuwymiarową zmienną losową, o wartości oczekiwanej (μ, μ, wariancji każdej ze współrzędnych równej σ oraz kowariancji równej X Y ρσ. Staramy się obserwować niezależne realizacje

Bardziej szczegółowo

Wnioskowanie bayesowskie

Wnioskowanie bayesowskie Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,

Bardziej szczegółowo

PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com

PDF created with FinePrint pdffactory Pro trial version http://www.fineprint.com Analiza korelacji i regresji KORELACJA zależność liniowa Obserwujemy parę cech ilościowych (X,Y). Doświadczenie jest tak pomyślane, aby obserwowane pary cech X i Y (tzn i ta para x i i y i dla różnych

Bardziej szczegółowo

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. STATYSTYKA MATEMATYCZNA WYKŁAD 4 WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X. Wysuwamy hipotezy: zerową (podstawową H ( θ = θ i alternatywną H, która ma jedną z

Bardziej szczegółowo

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba

Algorytmy ewolucyjne - algorytmy genetyczne. I. Karcz-Dulęba Algorytmy ewolucyjne - algorytmy genetyczne I. Karcz-Dulęba Algorytmy klasyczne a algorytmy ewolucyjne Przeszukiwanie przestrzeni przez jeden punkt bazowy Przeszukiwanie przestrzeni przez zbiór punktów

Bardziej szczegółowo

Zadanie 1. Analiza Analiza rozkładu

Zadanie 1. Analiza Analiza rozkładu Zadanie 1 data lab.zad 1; input czas; datalines; 85 3060 631 819 805 835 955 595 690 73 815 914 ; run; Analiza Analiza rozkładu Ponieważ jesteśmy zainteresowani wyznaczeniem przedziału ufności oraz weryfikacja

Bardziej szczegółowo

Porównanie dwóch rozkładów normalnych

Porównanie dwóch rozkładów normalnych Porównanie dwóch rozkładów normalnych Założenia: 1. X 1 N(µ 1, σ 2 1), X 2 N(µ 2, σ 2 2) 2. X 1, X 2 są niezależne Ocena µ 1 µ 2 oraz σ 2 1/σ 2 2. Próby: X 11,..., X 1n1 ; X 21,..., X 2n2 X 1, varx 1,

Bardziej szczegółowo

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne

METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne METODY SZTUCZNEJ INTELIGENCJI algorytmy ewolucyjne dr hab. inż. Andrzej Obuchowicz, prof. UZ Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski A. Obuchowicz: MSI - algorytmy ewolucyjne

Bardziej szczegółowo

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28 Statystyka #5 Testowanie hipotez statystycznych Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik rok akademicki 2016/2017 1 / 28 Testowanie hipotez statystycznych 2 / 28 Testowanie hipotez statystycznych

Bardziej szczegółowo

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009

Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009 Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.

Bardziej szczegółowo

Sterowanie wielkością zamówienia w Excelu - cz. 3

Sterowanie wielkością zamówienia w Excelu - cz. 3 Sterowanie wielkością zamówienia w Excelu - cz. 3 21.06.2005 r. 4. Planowanie eksperymentów symulacyjnych Podczas tego etapu ważne jest określenie typu rozkładu badanej charakterystyki. Dzięki tej informacji

Bardziej szczegółowo

Dane dotyczące wartości zmiennej (cechy) wprowadzamy w jednej kolumnie. W przypadku większej liczby zmiennych wprowadzamy każdą w oddzielnej kolumnie.

Dane dotyczące wartości zmiennej (cechy) wprowadzamy w jednej kolumnie. W przypadku większej liczby zmiennych wprowadzamy każdą w oddzielnej kolumnie. STATISTICA INSTRUKCJA - 1 I. Wprowadzanie danych Podstawowe / Nowy / Arkusz Dane dotyczące wartości zmiennej (cechy) wprowadzamy w jednej kolumnie. W przypadku większej liczby zmiennych wprowadzamy każdą

Bardziej szczegółowo