Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba

Save this PDF as:
 WORD  PNG  TXT  JPG

Wielkość: px
Rozpocząć pokaz od strony:

Download "Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b ba"

Transkrypt

1 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 1 Ćwczene 2: Perceptron WYMAGANIA 1. Sztuczne sec neuronowe budowa oraz ops matematyczny perceptronu (funkcje przejśca perceptronu), uczene perceptronu reguła uczena, możlwośc perceptronu (np.: klasyfkacja w oparcu o separowalność zborów) 2. Środowsko Matlab, w szczególnośc z zakresu: tworzena perceptronu (newp) uczena perceptronu (tran, adept) konstruowana skryptów WPROWADZENIE TEORETYCZNE Perwszy perceptron został zbudowany w 1958 roku przez Rosenblata - było to elektronczno-elektromechanczne urządzene przeznaczone do rozpoznawana znaków. W odróżnenu od nnych urządzeń perceptron Rosenblata ne wymagał klasycznego programowana gdyż posadał zdolność do uczena sę. Ponadto odkryto nną bardzo ważną cechę tego elementu, którą znamy jako twerdzene Rosenblatta o zbeżnośc perceptronu: jeżel tylko stneje tak wektor wag w, przy pomocy którego element perceptronowy odwzorowuje w sposób poprawny zbór wzorcowych wektorów wejścowych na odpowadający mu zbór oczekwanych wartośc wyjścowych, to stneje metoda uczena tego elementu gwarantująca zbeżność do wektora w. Perceptron prosty Perceptron prosty składa sę jedyne z warstwy wejścowej warstwy wyjścowej, stanow węc najprostszą seć jednokerunkową. Poneważ ne stneją połączena pomędzy elementam warstwy wyjścowej, każdy z neuron może być traktowany nezależne jako osobna seć o welu wejścach jednym wyjścu. b x x n W 1. u y W lub. W n Perceptron składa sę z neuronów o budowe dentycznej jak wszystke sztuczne neurony (rys.2.1), różnca polega jedyne na ogranczenu sę do dwóch funkcj przejśca: unpolarnej: y = 1( u) 1 = 0 dla u > 0 dla u 0 Rys Model perceptronu bpolarnej: y = sgn( u) 1 dla u > 0 = 1 dla u 0

2 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 2 Potencjał membranowy u wyznaczany jest klasyczne: gdze: w waga -tego wejśca neuronu b bas neuronu x -te wejśce neuronu u = n = 1 w x b Seć perceptronowa (perceptron welowarstwowy) W sec perceptronowej można wyodrębnć warstwy neuronów, wśród których wyróżnć można warstwę wejścową wyjścową. Pozostałe noszą nazwę warstw ukrytych. W sec perceptronowej (w perceptrone) ne ma połączeń pomędzy elementam należącym do tej samej warstwy elementy łączą sę jedyne z elementam z warstw sąsednch wg reguły każdy z każdym. Połączena pomędzy warstwam są asymetryczne skerowane zgodne z ch uporządkowanem, tzn. od warstwy wejścowej do perwszej warstwy ukrytej, następne od perwszej do drugej warstwy ukrytej, td. aż do warstwy wyjścowej. Ne ma połączeń zwrotnych. Warstwa wejścowa posada elementy o neco uproszczonej funkcj przejśca jednym wejścu. Jest to swego rodzaju układ receptorów odberających sygnały wejścowe po wstępnym ch przetworzenu (np. normalzacj, fltracj) przesyłających je do elementów warstwy następnej. Umowne jest to warstwa zerowa sec. Stąd perceptron zawerający jedyne warstwy wejścową wyjścową nos nazwę perceptronu jednowarstwowego lub naczej perceptronu prostego (jedyne warstwa wyjścowa jest warstwą przetwarzana neuronowego). Analogczne, jeśl stneje jedna warstwa ukryta, mamy do czynena z perceptronem dwuwarstwowym, td. Wymenone cechy perceptronu jednoznaczne klasyfkują go do grupy sec jednokerunkowych. Uczene perceptronu Uczene perceptronu (podobne jak uczene nnych sztucznych sec neuronowych) polega na takej modyfkacj jego wag aby kolejne jego odpowedz były coraz blższe odpowedz pożądanej. Oczekwana odpowedź mus być znana a proces uczena ma charakter uczena nadzorowanego (z nauczycelem). Algorytm uczena można sformułować w następujący sposób: 1. Podaj wektor wejścowy x wyznacz wyjśce y. 2. Podejmj jedną z ponższych decyzj: o jeśl odpowedź (y) jest poprawna, to wróć do punktu 1 zaprezentuj nny wektor wejścowy x; o jeśl odpowedź (y) jest nepoprawna zbyt mała (równa 0, bądź 1 zależne od funkcj przejśca), to dodaj wartość każdego wejśca x pomnożoną przez pewną lczbę η do wartośc odpowednego współczynnka wag, w ; o jeśl odpowedź (y) jest nepoprawna zbyt duża (równa 1), to odejmj wartość każdego wejśca x pomnożoną przez pewną lczbę η od wartośc odpowednego współczynnka wag, w. 3. Wróć do punktu perwszego pokaż nny wektor wejścowy x.

3 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str Jeżel podawane kolejnych wektorów wejścowych ne powoduje zman wag należy proces uczena zakończyć. Przedstawone w powyższym algorytme zmany wag można opsać zależnoścą: w ( t +1) = w ( t ) + w ( t ) gdze: w(t+1) wartość wag -tego wejśca neuronu w chwl t+1 (przyszła wartość) w(t) - wartość wag -tego neuronu w chwl t (aktualna wartość), w(t) zmana wartość wag -tego neuronu w chwl. Korektę wag w(t) można wyznaczyć na klka sposobów, najprostszy opsuje zależność: rys.2.2. Schemat uczena perceptronu w ( t ) =ηδ ( t )x µ wartość δ µ opsuje błąd popełnany przez neuron w odpowedz na podane µ tego wektora wejścowego (d µ oczekwana odpowedź, y µ rzeczywsta odpowedź) δ ( ) = d y ( t ) µ t µ µ Możlwośc perceptronu Rozmar wektora wejścowego (lość jego elementów) określa wymar przestrzen poddanej analze. Jeśl wektor wejścowy lczy 2 elementy to mamy doczynena z przestrzeną dwuwymarową (płaszczyzną) w układze współrzędnym na osach mamy sygnały wejścowe, zaś sygnał wyjścowy z perceptronu (y) to punkt znajdujący sę w obrębe przestrzen y=1 układu. Jeżel zapszemy wzór na potencjał membranowy perceptronu prostego dla przypadku dwuwymarowego: u = w1x1 + w2x2 b 0=w x +w x -b y=0 1 2 zauważymy, ż perceptron przełącza sę gdy potencjał membranowy u=0 to otrzymujemy równane prostej, Rys.2.3. Klasyfkacja perceptronu dwuwejścowego w 1 x1 + w2x2 b = 0 która dzel płaszczyznę na dwe półpłaszczyzny (rys.2.3.). Dla wejść z jednej półprzestrzen perceptron jest aktywy (y=1) a dla drugej ne (y=0 lub y=-1). Z przedstawonego rozważana wynka, że aby funkcja mogła być realzowana przez perceptron prosty sygnały wejścowe dla których funkcja aktywacj przyjmuje wartość 0

4 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 4 (-1) muszą leżeć w nnej półpłaszczyźne nż te sygnały wejścowe dla których funkcja ta przyjmuje wartość 1. Mów sę że muszą one być lnowo separowalne. Uogólnając rozważane na przestrzeń n-wymarową należy stwerdzć, ż perceptron dzel ją na dwe podprzestrzene (n-1)-wymarowe hperpłaszczyzną opsana równanem: n = 1 w x b = 0 Przykładem zadań lnowo separowanych może być problem bramk OR czy bramk AND. Jak wdać na rysunku 4.2 łatwo jest znaleźć prostą, która rozdzel 0 (zera) od 1 (jedynek), a zatem można wyznaczyć take wag perceptronu, które umożlwą wykonane odpowednej klasyfkacj. OR(x,x )=1 OR(x,x )=0 AND(x,x )=1 AND(x,x )=0 Rys.4.2. Lnowa separowalność punktów bramk OR AND Zupełne naczej będze z bramką XOR, rozkład jej punktów (rys.4.3a.) ne pozwala dokonać separacj przy pomocy jednej prostej. Oznacza to, ż klasyfkacj punktów bramk XOR ne może dokonać perceptron prosty gdyż ne są one lnowo separowane. Zauważyl to Mnsky Papert w 1969r. powodując swom odkrycem długoletn marazm w badanach nad sztucznym secam neuronowym. XOR(x,x )=1 XOR(x,x )=0 XOR(x,x )=1 XOR(x,x )=0 Rys.4.3. Brak lnowej separowalnośc punktów bramk XOR (a). Rozwązane problemu XOR przez perceptron dwuwarstwowy (b)

5 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 5 Ogranczene lnowej separowalnośc perceptronu prostego można usunąć poprzez wprowadzene warstw ukrytych co prowadz do perceptronu welowarstwowego. Własnośc perceptronu welowarstwowego pozwalają rozwązać problem XOR (rys4.3b.) do jego rozwązana wystarczy perceptron dwuwarstwowy (rys.4.4.) u 1 W 11 W 12 V 1 u W 21 V 2 u 2 x2 W 22 Rys.4.4 Schemat perceptronu dwuwarstwowego rozwązującego problem XOR Perceptron trójwarstwowy, tzn. seć z dwema warstwam ukrytym może realzować dowolne odwzorowana przestrzen stanów wejścowych w przestrzeń stanów wyjścowych. Innym słowy, perceptron trójwarstwowy gwarantuje stnene układu pojedyncza warstwa seć dwuwarstwowa seć trójwarstwowa Rys.4.5 Możlwośc podzału przestrzen w zależnośc od lczby warstw perceptronu wag sec realzującej poprawne dowolne odwzorowane zboru wzorcowych wektorów wejścowych {x} na odpowadający mu zbór oczekwanych odpowedz (wektorów wyjścowych {y}). Każdy z elementów perwszej warstwy ukrytej dzel przestrzeń stanów wejścowych na dwe półprzestrzene rozdzelona pewną hperpłaszczyzną decyzyjną. Następne każdy z elementów drugej warstwy, dokonuje przekształcena mnogoścowego półprzestrzen z warstwy perwszej, dzeląc przestrzeń stanów wejścowych na dwe podprzestrzene, z których jedną stanow zbór weloścenny wypukły. Następne każdy z elementów warstwy wyjścowej dokonuje transformacj mnogoścowej powyższych zborów wypukłych, w wynku której można uzyskać zbór o dowolnej postac. Jedynym ogranczenem jest dostateczne duża lczba elementów przetwarzających w sec połączeń mędzy nm.

6 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 6 PRZEBIEG ĆWICZENIA Zadane 1 Zbadać czy ponższe zadana klasyfkacj wzorców możlwe są do realzacj przy użycu perceptronu (czy zbory A B są lnowo-separowalne). Rozwązane przedstawć na rysunku odpowedź uzasadnć. a) A={a1, a2}, B={b1, b2} gdze a1={0.5, -0.5}, a2={-0.5, -1}, b1={1, 2}, b2={-1, 2}; b) A={a1, a2, a3}, B={b1, b2} gdze a1={-0.5, -0.5}, a2={0.5, 0.5}, a3={1, 1.5}, b1={0, -0.5}, b2={0, 1}; c) A={a1, a2},b={b1, b2, b3} gdze a1={0.5, -0.5}, a2={1, -0.5}, b1={-1.5, 0.5}, b2={-1, 2} b3={-2, 1}; d) d) A={a1, a2},b={b1, b2} gdze a1={-2, 1} a2={-3, 4} b1={2, -3} b2={1, 4} Wskazówka: Wykorzystać funkcję plotpv z paketu Matlab. Na potrzeby funkcj koneczne jest zakodowane zborów A oraz B np.: poprzez przypsane zborow A 0 oraz zborow B 1. Zadane 2 Opracować w matlabe skrypt wykonujący uczene perceptronu dla problemów podanych w zadanu 1 a) za pomocą funkcj tran, b) za pomocą funkcj adept. % Przykładowe rozwązane zad.2b przy pomocy funkcj adept p=[ ]; % punkty wejścowe z zad1a t=[ ]; % dane wzorcowe zad1a (pożądane odpowedz) net=newp([-1 1;-],1); E=1; % błąd popełnany przez seć =0; whle(sse(e)) % sse(e) funkcja celu (zależy od błędu sec) [net,y,e]=adapt(net,p,t); % wykonane 1 epok uczena perceptronu =+1; end end; Y E f >= 100 dsp('seć ne została nauczona') break %p o 100 epokach uczena przerwj go % lczba teracj % odpowedz neuronu na wzorzec uczacy % wektor błędów sec Porównać efekty uczena sec dla obu funkcj. Zameścć w sprawozdanu odpowedz sec oraz odpowedz oczekwane. Wskazówk! 1. W macerzy sygnałów wejścowych P należy zapsać wszystke wektory uczące, w macerzy oczekwanych odpowedz T należy w przypadku przynależnośc do zboru A przypsać 0, a do zboru B 1 (lub odwrotne)

7 Nowoczesne technk nformatyczne - Ćwczene 2: PERCEPTRON str. 7 Zadane 3 Sprawdzć czy ponższe zadane klasyfkacj możlwe jest do realzacj przy użycu sec złożonej z dwóch neuronów. Jeżel zadane jest możlwe do realzacj opracować w matlabe skrypt, który wyznaczy wag, dla których sec będze klasyfkowała elementy czterech zborów A, B, C, D: A={a1,a2,a3}, B={b1,b2}, C={c1,c2}, D={d1,d2,d3} gdze a1=(2,11), a2=(7,10), a3=(8,16), b1=(10,6), b2=(15,10), c1=(-4,6), c2=(0,7), c3=(-5,-15), d1=(-6,-7), d2=(-10,-4). W sprawozdanu proszę zameścć rysunek obrazujący rozkład punktów na płaszczyźne oraz proste wydzelające poszczególne zbory.

Klasyfkator lnowy Wstęp Klasyfkator lnowy jest najprostszym możlwym klasyfkatorem. Zakłada on lnową separację lnowy podzał dwóch klas mędzy sobą. Przedstawa to ponższy rysunek: 5 4 3 1 0-1 - -3-4 -5-5

Bardziej szczegółowo

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych

Neuron liniowy. Najprostsza sieć warstwa elementów liniowych Najprostsza jest jednostka lnowa: Neuron lnowy potraf ona rozpoznawać wektor wejścowy X = (x 1, x 2,..., x n ) T zapamętany we współczynnkach wagowych W = (w 1, w 2,..., w n ), Zauważmy, że y = W X Załóżmy,

Bardziej szczegółowo

Diagnostyka układów kombinacyjnych

Diagnostyka układów kombinacyjnych Dagnostyka układów kombnacyjnych 1. Wprowadzene Dagnostyka obejmuje: stwerdzene stanu układu, systemu lub ogólne sec logcznej. Jest to tzw. kontrola stanu wykrywająca czy dzałane sec ne jest zakłócane

Bardziej szczegółowo

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Zaawansowane metody numeryczne Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Zaawansowane metody numeryczne Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2006/07 Podstawowe fakty Równane Ax = b, x,

Bardziej szczegółowo

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni.

Zestaw zadań 4: Przestrzenie wektorowe i podprzestrzenie. Liniowa niezależność. Sumy i sumy proste podprzestrzeni. Zestaw zadań : Przestrzene wektorowe podprzestrzene. Lnowa nezależność. Sumy sumy proste podprzestrzen. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar :

Bardziej szczegółowo

Sieci Neuronowe 1 Michał Bereta

Sieci Neuronowe 1 Michał Bereta Wprowadzene Zagadnena Sztucznej Intelgencj laboratorum Sec Neuronowe 1 Mchał Bereta Sztuczne sec neuronowe można postrzegać jako modele matematyczne, które swoje wzorce wywodzą z bolog obserwacj ludzkch

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu

Wprowadzenie do Sieci Neuronowych Algorytm wstecznej propagacji błędu Wprowadzene do Sec Neuronowych Algorytm wstecznej propagacj błędu Maja Czoków, Jarosław Persa --6 Powtórzene. Perceptron sgmodalny Funkcja sgmodalna: σ(x) = + exp( c (x p)) Parametr c odpowada za nachylene

Bardziej szczegółowo

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych.

Neural networks. Krótka historia 2004-05-30. - rozpoznawanie znaków alfanumerycznych. Neural networks Lecture Notes n Pattern Recognton by W.Dzwnel Krótka hstora McCulloch Ptts (1943) - perwszy matematyczny ops dzalana neuronu przetwarzana przez nego danych. Proste neurony, które mogly

Bardziej szczegółowo

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem

Pokazać, że wyżej zdefiniowana struktura algebraiczna jest przestrzenią wektorową nad ciałem Zestaw zadań : Przestrzene wektorowe. () Wykazać, że V = C ze zwykłym dodawanem jako dodawanem wektorów operacją mnożena przez skalar : C C C, (z, v) z v := z v jest przestrzeną lnową nad całem lczb zespolonych

Bardziej szczegółowo

Wykład 2: Uczenie nadzorowane sieci neuronowych - I

Wykład 2: Uczenie nadzorowane sieci neuronowych - I Wykład 2: Uczene nadzorowane sec neuronowych - I Algorytmy uczena sec neuronowych Na sposób dzałana sec ma wpływ e topologa oraz funkconowane poszczególnych neuronów. Z reguły topologę sec uznae sę za

Bardziej szczegółowo

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB

Rozwiązywanie zadań optymalizacji w środowisku programu MATLAB Rozwązywane zadań optymalzacj w środowsku programu MATLAB Zagadnene optymalzacj polega na znajdowanu najlepszego, względem ustalonego kryterum, rozwązana należącego do zboru rozwązań dopuszczalnych. Standardowe

Bardziej szczegółowo

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1

KURS STATYSTYKA. Lekcja 6 Regresja i linie regresji ZADANIE DOMOWE. www.etrapez.pl Strona 1 KURS STATYSTYKA Lekcja 6 Regresja lne regresj ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowedź (tylko jedna jest prawdzwa). Pytane 1 Funkcja regresj I rodzaju cechy Y zależnej

Bardziej szczegółowo

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim

5. Pochodna funkcji. lim. x c x c. (x c) = lim. g(c + h) g(c) = lim 5. Pocodna funkcj Defncja 5.1 Nec f: (a, b) R nec c (a, b). Jeśl stneje granca lm x c x c to nazywamy ją pocodną funkcj f w punkce c oznaczamy symbolem f (c) Twerdzene 5.1 Jeśl funkcja f: (a, b) R ma pocodną

Bardziej szczegółowo

Laboratorium ochrony danych

Laboratorium ochrony danych Laboratorum ochrony danych Ćwczene nr Temat ćwczena: Cała skończone rozszerzone Cel dydaktyczny: Opanowane programowej metody konstruowana cał skończonych rozszerzonych GF(pm), poznane ch własnośc oraz

Bardziej szczegółowo

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja)

Analiza danych OGÓLNY SCHEMAT. http://zajecia.jakubw.pl/ Dane treningowe (znana decyzja) Klasyfikator. Dane testowe (znana decyzja) Analza danych Dane trenngowe testowe. Algorytm k najblższych sąsadów. Jakub Wróblewsk jakubw@pjwstk.edu.pl http://zajeca.jakubw.pl/ OGÓLNY SCHEMAT Mamy dany zbór danych podzelony na klasy decyzyjne, oraz

Bardziej szczegółowo

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE

5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE 5. CHARAKTERYSTYKI CZĘSTOTLIWOŚCIOWE Oprócz transmtancj operatorowej, do opsu członów układów automatyk stosuje sę tzw. transmtancję wdmową. Transmtancję wdmową G(j wyznaczyć moŝna dzęk podstawenu do wzoru

Bardziej szczegółowo

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np.

W praktyce często zdarza się, że wyniki obu prób możemy traktować jako. wyniki pomiarów na tym samym elemencie populacji np. Wykład 7 Uwaga: W praktyce często zdarza sę, że wynk obu prób możemy traktować jako wynk pomarów na tym samym elemence populacj np. wynk x przed wynk y po operacj dla tego samego osobnka. Należy wówczas

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 15. ALGORYTMY GENETYCZNE Częstochowa 014 Dr hab. nż. Grzegorz Dudek Wydzał Elektryczny Poltechnka Częstochowska TERMINOLOGIA allele wartośc, waranty genów, chromosom - (naczej

Bardziej szczegółowo

Nieeuklidesowe sieci neuronowe

Nieeuklidesowe sieci neuronowe Unwersytet Mkoaja Kopernka Wydza Fzyk, Astronom Informatyk Stosowanej IS Helena Jurkewcz numer albumu: 177622 Praca magsterska na kerunku Fzyka Komputerowa Neeukldesowe sec neuronowe Opekun pracy dyplomowej

Bardziej szczegółowo

I. Elementy analizy matematycznej

I. Elementy analizy matematycznej WSTAWKA MATEMATYCZNA I. Elementy analzy matematycznej Pochodna funkcj f(x) Pochodna funkcj podaje nam prędkość zman funkcj: df f (x + x) f (x) f '(x) = = lm x 0 (1) dx x Pochodna funkcj podaje nam zarazem

Bardziej szczegółowo

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox),

Warszawa, 28 stycznia 2017 r., Blok tematyczny II Sztuczne sieci neuronowe (środowisko MATLAB i Simulink z wykorzystaniem Neural Network Toolbox), Studa Doktorancke IBS PA nt. Technk nformacyjne teora zastosowana WYKŁAD Semnarum nt. Modelowane rozwoju systemów w środowsku MATLABA Smulnka Prof. nadzw. dr hab. nż. Jerzy Tchórzewsk, jtchorzewsk@ntera.pl;

Bardziej szczegółowo

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5

MATEMATYKA POZIOM ROZSZERZONY Kryteria oceniania odpowiedzi. Arkusz A II. Strona 1 z 5 MATEMATYKA POZIOM ROZSZERZONY Krytera ocenana odpowedz Arkusz A II Strona 1 z 5 Odpowedz Pytane 1 2 3 4 5 6 7 8 9 Odpowedź D C C A B 153 135 232 333 Zad. 10. (0-3) Dana jest funkcja postac. Korzystając

Bardziej szczegółowo

5. OPTYMALIZACJA GRAFOWO-SIECIOWA

5. OPTYMALIZACJA GRAFOWO-SIECIOWA . OPTYMALIZACJA GRAFOWO-SIECIOWA Defncja grafu Pod pojęcem grafu G rozumemy następującą dwójkę uporządkowaną (defncja grafu Berge a): (.) G W,U gdze: W zbór werzchołków grafu, U zbór łuków grafu, U W W,

Bardziej szczegółowo

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie.

Zapis informacji, systemy pozycyjne 1. Literatura Jerzy Grębosz, Symfonia C++ standard. Harvey M. Deitl, Paul J. Deitl, Arkana C++. Programowanie. Zaps nformacj, systemy pozycyjne 1 Lteratura Jerzy Grębosz, Symfona C++ standard. Harvey M. Detl, Paul J. Detl, Arkana C++. Programowane. Zaps nformacj w komputerach Wszystke elementy danych przetwarzane

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW

SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW SZACOWANIE NIEPEWNOŚCI POMIARU METODĄ PROPAGACJI ROZKŁADÓW Stefan WÓJTOWICZ, Katarzyna BIERNAT ZAKŁAD METROLOGII I BADAŃ NIENISZCZĄCYCH INSTYTUT ELEKTROTECHNIKI ul. Pożaryskego 8, 04-703 Warszawa tel.

Bardziej szczegółowo

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty)

Plan wykładu. Sztuczne sieci neuronowe. Neuronu dyskretny. Neuron dyskretny (perceptron prosty) Plan wykładu Dzałane neuronu dyskretnego warstwy neuronów dyskretnych Wykład : Reguły uczena sec neuronowych. Sec neuronowe ednokerunkowe. Reguła perceptronowa Reguła Wdrowa-Hoffa Reguła delta ałgorzata

Bardziej szczegółowo

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE

TRANZYSTOR BIPOLARNY CHARAKTERYSTYKI STATYCZNE POLITHNIKA RZSZOWSKA Katedra Podstaw lektronk Instrkcja Nr4 F 00/003 sem. letn TRANZYSTOR IPOLARNY HARAKTRYSTYKI STATYZN elem ćwczena jest pomar charakterystyk statycznych tranzystora bpolarnego npn lb

Bardziej szczegółowo

EUROELEKTRA. Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej. Rok szkolny 2013/2014

EUROELEKTRA. Ogólnopolska Olimpiada Wiedzy Elektrycznej i Elektronicznej. Rok szkolny 2013/2014 EUROELEKTRA Ogólnopolska Olmpada Wedzy Elektrycznej Elektroncznej Rok szkolny 232 Zadana z elektronk na zawody III stopna (grupa elektronczna) Zadane. Oblczyć wzmocnene napęcowe, rezystancję wejścową rezystancję

Bardziej szczegółowo

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne

Wprowadzenie do Sieci Neuronowych Sieci rekurencyjne Wprowadzene do Sec Neuronowych Sec rekurencyjne M. Czoków, J. Persa 2010-12-07 1 Powtórzene Konstrukcja autoasocjatora Hopfelda 1.1 Konstrukcja Danych jest m obrazów wzorcowych ξ 1..ξ m, gdze każdy pojedynczy

Bardziej szczegółowo

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że

Twierdzenie Bezouta i liczby zespolone Javier de Lucas. Rozwi azanie 2. Z twierdzenia dzielenia wielomianów, mamy, że Twerdzene Bezouta lczby zespolone Javer de Lucas Ćwczene 1 Ustal dla których a, b R można podzelć f 1 X) = X 4 3X 2 + ax b przez f 2 X) = X 2 3X+2 Oblcz a b Z 5 jeżel zak ladamy, że f 1 f 2 s a welomanam

Bardziej szczegółowo

WikiWS For Business Sharks

WikiWS For Business Sharks WkWS For Busness Sharks Ops zadana konkursowego Zadane Opracowane algorytmu automatyczne przetwarzającego zdjęce odręczne narysowanego dagramu na tablcy lub kartce do postac wektorowej zapsanej w formace

Bardziej szczegółowo

dy dx stąd w przybliżeniu: y

dy dx stąd w przybliżeniu: y Przykłady do funkcj nelnowych funkcj Törnqusta Proszę sprawdzć uzasadnć, które z podanych zdań są prawdzwe, a które fałszywe: Przykład 1. Mesęczne wydatk na warzywa (y, w jednostkach penężnych, jp) w zależnośc

Bardziej szczegółowo

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA

KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA KRZYWA BÉZIERA TWORZENIE I WIZUALIZACJA KRZYWYCH PARAMETRYCZNYCH NA PRZYKŁADZIE KRZYWEJ BÉZIERA Krzysztof Serżęga Wyższa Szkoła Informatyk Zarządzana w Rzeszowe Streszczene Artykuł porusza temat zwązany

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Realizacja logiki szybkiego przeniesienia w prototypie prądowym układu FPGA Spartan II

Realizacja logiki szybkiego przeniesienia w prototypie prądowym układu FPGA Spartan II obert Berezowsk Natala Maslennkowa Wydzał Elektronk Poltechnka Koszalńska ul. Partyzantów 7, 75-4 Koszaln Mchał Bałko Przemysław Sołtan ealzacja logk szybkego przenesena w prototype prądowym układu PG

Bardziej szczegółowo

Kwantowa natura promieniowania elektromagnetycznego

Kwantowa natura promieniowania elektromagnetycznego Efekt Comptona. Kwantowa natura promenowana elektromagnetycznego Zadane 1. Foton jest rozpraszany na swobodnym elektrone. Wyznaczyć zmanę długośc fal fotonu w wynku rozproszena. Poneważ układ foton swobodny

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W PILE INSTYTUT POLITECHNICZNY. Zakład Budowy i Eksploatacji Maszyn PRACOWNIA TERMODYNAMIKI TECHNICZNEJ INSTRUKCJA

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W PILE INSTYTUT POLITECHNICZNY. Zakład Budowy i Eksploatacji Maszyn PRACOWNIA TERMODYNAMIKI TECHNICZNEJ INSTRUKCJA PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W PILE INSTYTUT POLITECHNICZNY Zakład Budowy Eksploatacj Maszyn PRACOWNIA TERMODYNAMIKI TECHNICZNEJ INSTRUKCJA Temat ćwczena: PRAKTYCZNA REALIZACJA PRZEMIANY ADIABATYCZNEJ.

Bardziej szczegółowo

Najlepsze odpowiedzi Najlepsze odpowiedzi p. 1/7

Najlepsze odpowiedzi Najlepsze odpowiedzi p. 1/7 Najlepsze odpowedz Rozgrzewka A B C X 1,4 2,12 0,9 Y 3,0 1,2 0,1 Z 1,12 1,0 5,3 Rozgrzewka L P A 0,0 0,0 B -2,1 1,-2 C 1,-2-2,1 Rozgrzewka L P A 0,0 0,0 B -2,1 1,-2 Gracz drug gra L C 1,-2-2,1 Rozgrzewka

Bardziej szczegółowo

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA

Problemy jednoczesnego testowania wielu hipotez statystycznych i ich zastosowania w analizie mikromacierzy DNA Problemy jednoczesnego testowana welu hpotez statystycznych ch zastosowana w analze mkromacerzy DNA Konrad Furmańczyk Katedra Zastosowań Matematyk SGGW Plan referatu Testowane w analze mkromacerzy DNA

Bardziej szczegółowo

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne

XXX OLIMPIADA FIZYCZNA ETAP III Zadanie doświadczalne XXX OLIMPIADA FIZYCZNA ETAP III Zadane dośwadczalne ZADANIE D Nazwa zadana: Maszyna analogowa. Dane są:. doda półprzewodnkowa (krzemowa) 2. opornk dekadowy (- 5 Ω ), 3. woltomerz cyfrowy, 4. źródło napęca

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

V. TERMODYNAMIKA KLASYCZNA

V. TERMODYNAMIKA KLASYCZNA 46. ERMODYNAMIKA KLASYCZNA. ERMODYNAMIKA KLASYCZNA ermodynamka jako nauka powstała w XIX w. Prawa termodynamk są wynkem obserwacj welu rzeczywstych procesów- są to prawa fenomenologczne modelu rzeczywstośc..

Bardziej szczegółowo

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda

BADANIA OPERACYJNE. Podejmowanie decyzji w warunkach niepewności. dr Adam Sojda BADANIA OPERACYJNE Podejmowane decyzj w warunkach nepewnośc dr Adam Sojda Teora podejmowana decyzj gry z naturą Wynk dzałana zależy ne tylko od tego, jaką podejmujemy decyzję, ale równeż od tego, jak wystąp

Bardziej szczegółowo

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4.

Modele wieloczynnikowe. Modele wieloczynnikowe. Modele wieloczynnikowe ogólne. α β β β ε. Analiza i Zarządzanie Portfelem cz. 4. Modele weloczynnkowe Analza Zarządzane Portfelem cz. 4 Ogólne model weloczynnkowy można zapsać jako: (,...,,..., ) P f F F F = n Dr Katarzyna Kuzak lub (,...,,..., ) f F F F = n Modele weloczynnkowe Można

Bardziej szczegółowo

2012-10-11. Definicje ogólne

2012-10-11. Definicje ogólne 0-0- Defncje ogólne Logstyka nauka o przepływe surowców produktów gotowych rodowód wojskowy Utrzyywane zapasów koszty zwązane.n. z zarożene kaptału Brak w dostawach koszty zwązane.n. z przestoje w produkcj

Bardziej szczegółowo

Statystyka Opisowa 2014 część 2. Katarzyna Lubnauer

Statystyka Opisowa 2014 część 2. Katarzyna Lubnauer Statystyka Opsowa 2014 część 2 Katarzyna Lubnauer Lteratura: 1. Statystyka w Zarządzanu Admr D. Aczel 2. Statystyka Opsowa od Podstaw Ewa Waslewska 3. Statystyka, Lucjan Kowalsk. 4. Statystyka opsowa,

Bardziej szczegółowo

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A

Analiza rodzajów skutków i krytyczności uszkodzeń FMECA/FMEA według MIL STD - 1629A Analza rodzajów skutków krytycznośc uszkodzeń FMECA/FMEA według MIL STD - 629A Celem analzy krytycznośc jest szeregowane potencjalnych rodzajów uszkodzeń zdentyfkowanych zgodne z zasadam FMEA na podstawe

Bardziej szczegółowo

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych

Ćwiczenie 2. Parametry statyczne tranzystorów bipolarnych Ćwczene arametry statyczne tranzystorów bpolarnych el ćwczena odstawowym celem ćwczena jest poznane statycznych charakterystyk tranzystorów bpolarnych oraz metod dentyfkacj parametrów odpowadających m

Bardziej szczegółowo

Prawdopodobieństwo i statystyka r.

Prawdopodobieństwo i statystyka r. Prawdopodobeństwo statystya.05.00 r. Zadane Zmenna losowa X ma rozład wyładnczy o wartośc oczewanej, a zmenna losowa Y rozład wyładnczy o wartośc oczewanej. Obe zmenne są nezależne. Oblcz E( Y X + Y =

Bardziej szczegółowo

Natalia Nehrebecka. Wykład 2

Natalia Nehrebecka. Wykład 2 Natala Nehrebecka Wykład . Model lnowy Postad modelu lnowego Zaps macerzowy modelu lnowego. Estymacja modelu Wartośd teoretyczna (dopasowana) Reszty 3. MNK przypadek jednej zmennej . Model lnowy Postad

Bardziej szczegółowo

Model ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli)

Model ASAD. ceny i płace mogą ulegać zmianom (w odróżnieniu od poprzednio omawianych modeli) Model odstawowe założena modelu: ceny płace mogą ulegać zmanom (w odróżnenu od poprzedno omawanych model) punktem odnesena analzy jest obserwacja pozomu produkcj cen (a ne stopy procentowej jak w modelu

Bardziej szczegółowo

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału

= σ σ. 5. CML Capital Market Line, Rynkowa Linia Kapitału 5 CML Catal Market Lne, ynkowa Lna Katału Zbór ortolo o nalny odchylenu standardowy zbór eektywny ozważy ortolo złożone ze wszystkch aktywów stnejących na rynku Załóży, że jest ch N A * P H P Q P 3 * B

Bardziej szczegółowo

p Z(G). (G : Z({x i })),

p Z(G). (G : Z({x i })), 3. Wykład 3: p-grupy twerdzena Sylowa. Defncja 3.1. Nech (G, ) będze grupą. Grupę G nazywamy p-grupą, jeżel G = dla pewnej lczby perwszej p oraz k N. Twerdzene 3.1. Nech (G, ) będze p-grupą. Wówczas W

Bardziej szczegółowo

Metody Prognozowania: Sztuczne sieci neuronowe

Metody Prognozowania: Sztuczne sieci neuronowe Metody prognozowania: Sztuczne sieci Cechy mózgu ODPORNY NA USZKODZENIA; ELASTYCZNY ŁATWO DOSTOSOWUJE SIĘ DO ZMIENNEGO OTOCZENIA; UCZY SIĘ -NIE MUSI BYĆ PROGRAMOWANY; POTRAFI RADZIĆ SOBIE Z INFORMACJĄ

Bardziej szczegółowo

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ

Hipotezy o istotności oszacowao parametrów zmiennych objaśniających ˆ ) ˆ WERYFIKACJA HIPOTEZY O ISTOTNOŚCI OCEN PARAMETRÓW STRUKTURALNYCH MODELU Hpoezy o sonośc oszacowao paramerów zmennych objaśnających Tesowane sonośc paramerów zmennych objaśnających sprowadza sę do nasępującego

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID

AUTOMATYKA I STEROWANIE W CHŁODNICTWIE, KLIMATYZACJI I OGRZEWNICTWIE L3 STEROWANIE INWERTEROWYM URZĄDZENIEM CHŁODNICZYM W TRYBIE PD ORAZ PID ĆWICZENIE LABORAORYJNE AUOMAYKA I SEROWANIE W CHŁODNICWIE, KLIMAYZACJI I OGRZEWNICWIE L3 SEROWANIE INWEREROWYM URZĄDZENIEM CHŁODNICZYM W RYBIE PD ORAZ PID Wersja: 03-09-30 -- 3.. Cel ćwczena Celem ćwczena

Bardziej szczegółowo

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją

Oligopol dynamiczny. Rozpatrzmy model sekwencyjnej konkurencji ilościowej jako gra jednokrotna z pełną i doskonalej informacją Olgopol dynamczny Rozpatrzmy model sekwencyjnej konkurencj loścowej jako gra jednokrotna z pełną doskonalej nformacją (1934) Dwa okresy: t=0, 1 tzn. frma 2 podejmując decyzję zna decyzję frmy 1 Q=q 1 +q

Bardziej szczegółowo

ELEKTROCHEMIA. ( i = i ) Wykład II b. Nadnapięcie Równanie Buttlera-Volmera Równania Tafela. Wykład II. Równowaga dynamiczna i prąd wymiany

ELEKTROCHEMIA. ( i = i ) Wykład II b. Nadnapięcie Równanie Buttlera-Volmera Równania Tafela. Wykład II. Równowaga dynamiczna i prąd wymiany Wykład II ELEKTROCHEMIA Wykład II b Nadnapęce Równane Buttlera-Volmera Równana Tafela Równowaga dynamczna prąd wymany Jeśl układ jest rozwarty przez elektrolzer ne płyne prąd, to ne oznacza wcale, że na

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sztuczne siei neuronowe - wprowadzenie

Sztuczne siei neuronowe - wprowadzenie Metody Sztucznej Inteligencji w Sterowaniu Ćwiczenie 2 Sztuczne siei neuronowe - wprowadzenie Przygotował: mgr inż. Marcin Pelic Instytut Technologii Mechanicznej Politechnika Poznańska Poznań, 2 Wstęp

Bardziej szczegółowo

2. STOPIEŃ KINEMATYCZNEJ NIEWYZNACZALNOŚCI

2. STOPIEŃ KINEMATYCZNEJ NIEWYZNACZALNOŚCI Część. STOPIEŃ KINEMATYCZNEJ NIEWYZNACZALNOŚCI.. STOPIEŃ KINEMATYCZNEJ NIEWYZNACZALNOŚCI W metodze sł w celu przyjęca układu podstawowego należało odrzucć węzy nadlczbowe. O lczbe odrzuconych węzów decydował

Bardziej szczegółowo

Wyszukiwanie. Wyszukiwanie

Wyszukiwanie. Wyszukiwanie ZŁOŻOOŚĆ PROBLEMÓW ALGORYTMICZYCH Dolne górne oszacowana złożonośc problemu Złożoność każdego poprawnego algorytmu znajdującego rozwązane danego problemu ustanawa górne oszacowane złożonośc dla tego problemu.

Bardziej szczegółowo

Programowanie Równoległe i Rozproszone

Programowanie Równoległe i Rozproszone Programowane Równoległe Rozproszone Wykład Programowane Równoległe Rozproszone Lucjan Stapp Wydzał Matematyk Nauk Informacyjnych Poltechnka Warszawska (l.stapp@mn.pw.edu.pl) /38 PRR Wykład Chcemy rozwązać

Bardziej szczegółowo

Regulamin promocji 14 wiosna

Regulamin promocji 14 wiosna promocja_14_wosna strona 1/5 Regulamn promocj 14 wosna 1. Organzatorem promocj 14 wosna, zwanej dalej promocją, jest JPK Jarosław Paweł Krzymn, zwany dalej JPK. 2. Promocja trwa od 01 lutego 2014 do 30

Bardziej szczegółowo

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X

( ) ( ) 2. Zadanie 1. są niezależnymi zmiennymi losowymi o. oraz. rozkładach normalnych, przy czym EX. i σ są nieznane. 1 Niech X Prawdopodobeństwo statystyka.. r. Zadane. Zakładamy, że,,,,, 5 są nezależnym zmennym losowym o rozkładach normalnych, przy czym E = μ Var = σ dla =,,, oraz E = μ Var = 3σ dla =,, 5. Parametry μ, μ σ są

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji

Podstawy Sztucznej Inteligencji Politechnika Łódzka Katedra Informatyki Stosowanej Podstawy Sztucznej Inteligencji Laboratorium Ćwiczenie 2 Wykorzystanie środowiska Matlab do modelowania sztucznych sieci neuronowych Opracowali: Dr hab

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych

Komputerowa analiza zagadnień różniczkowych 1. Układy równań liniowych Komputerowa analza zagadneń różnczkowych 1. Układy równań lnowych P. F. Góra http://th-www.f.uj.edu.pl/zfs/gora/ semestr letn 2007/08 Podstawowe fakty Równane Ax = b, x, b R N, A R N N (1) ma jednoznaczne

Bardziej szczegółowo

Treść zadań 1 8 odnosi się do poniższego diagramu przestrzenno-czasowego.

Treść zadań 1 8 odnosi się do poniższego diagramu przestrzenno-czasowego. Treść zadań 8 odnos sę do ponższego dagramu przestrzenno-czasowego. P e e e e e e P e P P e e e e. Jaka będze wartość zmennej clock (zegara skalarnego) po zajścu zdarzena e w procese P zakładając że wartość

Bardziej szczegółowo

Natalia Nehrebecka. Zajęcia 3

Natalia Nehrebecka. Zajęcia 3 St ł Cchock Stansław C h k Natala Nehrebecka Zajęca 3 1. Dobroć dopasowana równana regresj. Współczynnk determnacj R Dk Dekompozycja warancj zmennej zależnej ż Współczynnk determnacj R. Zmenne cągłe a

Bardziej szczegółowo

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ Autor: Joanna Wójcik

System Przeciwdziałania Powstawaniu Bezrobocia na Terenach Słabo Zurbanizowanych SPRAWOZDANIE Z BADAŃ   Autor: Joanna Wójcik Opracowane w ramach projektu System Przecwdzałana Powstawanu Bezroboca na Terenach Słabo Zurbanzowanych ze środków Europejskego Funduszu Społecznego w ramach Incjatywy Wspólnotowej EQUAL PARTNERSTWO NA

Bardziej szczegółowo

D Archiwum Prac Dyplomowych - Instrukcja dla studentów

D Archiwum Prac Dyplomowych - Instrukcja dla studentów Kraków 01.10.2015 D Archwum Prac Dyplomowych - Instrukcja dla studentów Procedura Archwzacj Prac Dyplomowych jest realzowana zgodne z zarządzenem nr 71/2015 Rektora Unwersytetu Rolnczego m. H. Kołłątaja

Bardziej szczegółowo

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy

(M2) Dynamika 1. ŚRODEK MASY. T. Środek ciężkości i środek masy (MD) MECHANIKA - Dynamka T. Środek cężkośc środek masy (M) Dynamka T: Środek cężkośc środek masy robert.szczotka(at)gmal.com Fzyka astronoma, Lceum 01/014 1 (MD) MECHANIKA - Dynamka T. Środek cężkośc środek

Bardziej szczegółowo

Proces narodzin i śmierci

Proces narodzin i śmierci Proces narodzn śmerc Jeżel w ewnej oulacj nowe osobnk ojawają sę w sosób losowy, rzy czym gęstość zdarzeń na jednostkę czasu jest stała w czase wynos λ, oraz lczba osobnków n, które ojawły sę od chwl do

Bardziej szczegółowo

Zadanie na wykonanie Projektu Zespołowego

Zadanie na wykonanie Projektu Zespołowego Zadane na wykonane Projektu Zespołowego Celem projektu jest uzyskane następującego szeregu umejętnośc praktycznych: umejętnośc opracowana równoległych wersj algorytmów (na przykładze algorytmów algebry

Bardziej szczegółowo

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego

Portfele zawierające walor pozbawiony ryzyka. Elementy teorii rynku kapitałowego Portel nwestycyjny ćwczena Na podst. Wtold Jurek: Konstrukcja analza rozdzał 5 dr chał Konopczyńsk Portele zawerające walor pozbawony ryzyka. lementy teor rynku kaptałowego 1. Pożyczane penędzy amy dwa

Bardziej szczegółowo

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego.

RUCH OBROTOWY Można opisać ruch obrotowy ze stałym przyspieszeniem ε poprzez analogię do ruchu postępowego jednostajnie zmiennego. RUCH OBROTOWY Można opsać ruch obrotowy ze stałym przyspeszenem ε poprzez analogę do ruchu postępowego jednostajne zmennego. Ruch postępowy a const. v v at s s v t at Ruch obrotowy const. t t t Dla ruchu

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO

ZASTOSOWANIE KLASYCZNEGO ALGORYTMU GENETYCZNEGO DO ROZWIĄZANIA ZBILANSOWANEGO ZAGADNIENIA TRANSPORTOWEGO Studa Materały. Mscellanea Oeconomcae Rok 6, Nr 2/22 Wydzał Zarządzana Admnstrac Unwersytetu Jana Kochanowskego w Kelcach Z a r z ą d z a n e f n a n s e Rafał Prońko ZASTOSOWANIE KLASYCZNEGO ALGORYTMU

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

ZASADA ZACHOWANIA MOMENTU PĘDU: PODSTAWY DYNAMIKI BRYŁY SZTYWNEJ

ZASADA ZACHOWANIA MOMENTU PĘDU: PODSTAWY DYNAMIKI BRYŁY SZTYWNEJ ZASADA ZACHOWANIA MOMENTU PĘDU: PODSTAWY DYNAMIKI BYŁY SZTYWNEJ 1. Welkośc w uchu obotowym. Moment pędu moment sły 3. Zasada zachowana momentu pędu 4. uch obotowy były sztywnej względem ustalonej os -II

Bardziej szczegółowo

Symetrie i struktury ciała stałego - W. Sikora

Symetrie i struktury ciała stałego - W. Sikora Symetre struktury cała stałego - W. Skora ( W wykładach zostały wykorzystane fragmenty materałów opracowanych w ramach praktyk wakacyjnej przez studentk specjalnośc Fzyka Cała Stałego WFIS: Sylwę Chudy,

Bardziej szczegółowo

Zmodyfikowana technika programowania dynamicznego

Zmodyfikowana technika programowania dynamicznego Zmodyfkowana technka programowana dynamcznego Lech Madeysk 1, Zygmunt Mazur 2 Poltechnka Wrocławska, Wydzał Informatyk Zarządzana, Wydzałowy Zakład Informatyk Wybrzeże Wyspańskego 27, 50-370 Wrocław Streszczene.

Bardziej szczegółowo

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna

Przykład 5.1. Kratownica dwukrotnie statycznie niewyznaczalna rzykład.. Kratownca dwukrotne statyczne newyznaczana oecene: korzystaąc z metody sł wyznaczyć sły w prętach ponższe kratowncy. const Rozwązane zadana rozpoczynamy od obczena stopna statyczne newyznaczanośc

Bardziej szczegółowo

7. Wykład VII: Warunki Kuhna-Tuckera

7. Wykład VII: Warunki Kuhna-Tuckera Wocech Grega, Metody Optymalzac 7 Wykład VII: Warunk Kuhna-Tuckera 7 Warunk koneczne stnena ekstremum Rozważane est zadane z ogranczenam nerównoścowym w postac: mn F( x ) x X X o F( x ), o { R x : h n

Bardziej szczegółowo

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia,

Metody gradientowe poszukiwania ekstremum. , U Ŝądana wartość napięcia, Metody gradentowe... Metody gradentowe poszukwana ekstremum Korzystają z nformacj o wartośc funkcj oraz jej gradentu. Wykazując ch zbeŝność zakłada sę, Ŝe funkcja celu jest ogranczona od dołu funkcją wypukłą

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Zadanie 1. Udowodnij, że CAUS PRAM. Załóżmy przetwarzanie przyczynowo spójne. Dla każdego obrazu historii hv i zachodzi zatem:

Zadanie 1. Udowodnij, że CAUS PRAM. Załóżmy przetwarzanie przyczynowo spójne. Dla każdego obrazu historii hv i zachodzi zatem: Zadane 1 Udowodnj, że CAUS PRAM Załóżmy przetwarzane przyczynowo spójne. Dla każdego obrazu hstor hv zachodz zatem: O OW O OW x X p j o O o1 o2 o1 o2 o1 j o2 ( o1 = w( x) v o2 = r( x) v) o1 o2 ( o1 o o2)

Bardziej szczegółowo

Urządzenia wejścia-wyjścia

Urządzenia wejścia-wyjścia Urządzena wejśca-wyjśca Klasyfkacja urządzeń wejśca-wyjśca. Struktura mechanzmu wejśca-wyjśca (sprzętu oprogramowana). Interakcja jednostk centralnej z urządzenam wejśca-wyjśca: odpytywane, sterowane przerwanam,

Bardziej szczegółowo

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów.

METODA UNITARYZACJI ZEROWANEJ Porównanie obiektów przy ocenie wielokryterialnej. Ranking obiektów. Opracowane: Dorota Mszczyńska METODA UNITARYZACJI ZEROWANEJ Porównane obektów przy ocene welokryteralnej. Rankng obektów. Porównane wybranych obektów (warantów decyzyjnych) ze względu na różne cechy (krytera)

Bardziej szczegółowo

Ćwiczenie 10. Metody eksploracji danych

Ćwiczenie 10. Metody eksploracji danych Ćwczene 10. Metody eksploracj danych Grupowane (Clusterng) 1. Zadane grupowana Grupowane (ang. clusterng) oznacza grupowane rekordów, obserwacj lub przypadków w klasy podobnych obektów. Grupa (ang. cluster)

Bardziej szczegółowo

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO

3. ŁUK ELEKTRYCZNY PRĄDU STAŁEGO I PRZEMIENNEGO 3. ŁUK ELEKTRYCZNY PRĄDU STŁEGO I PRZEMIENNEGO 3.1. Cel zakres ćwczena Celem ćwczena jest zapoznane sę z podstawowym właścwoścam łuku elektrycznego palącego sę swobodne, w powetrzu o cśnentmosferycznym.

Bardziej szczegółowo

P 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A

P 1, P 2 - wektory sił wewnętrznych w punktach powierzchni F wokół punktu A TEORI STNU NPRĘŻENI. WEKTOR NPRĘŻENI r x P P P P, P - wektory sł wewnętrznych w unktach owerzchn wokół unktu P P r, P - suma sł wewnętrznych na owerzchn P P P P średna gęstość sł wewnętrznych na owerzchn

Bardziej szczegółowo

Programowanie liniowe

Programowanie liniowe Programowanie liniowe Maciej Drwal maciej.drwal@pwr.wroc.pl 1 Problem programowania liniowego min x c T x (1) Ax b, (2) x 0. (3) gdzie A R m n, c R n, b R m. Oznaczmy przez x rozwiązanie optymalne, tzn.

Bardziej szczegółowo

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja

Modelowanie i obliczenia techniczne. Metody numeryczne w modelowaniu: Optymalizacja Modelowane oblczena technczne Metody numeryczne w modelowanu: Optymalzacja Zadane optymalzacj Optymalzacja to ulepszane lub poprawa jakośc danego rozwązana, projektu, opracowana. Celem optymalzacj jest

Bardziej szczegółowo

65120/ / / /200

65120/ / / /200 . W celu zbadana zależnośc pomędzy płcą klentów ch preferencjam, wylosowano kobet mężczyzn zadano m pytane: uważasz za lepszy produkt frmy A czy B? Wynk były następujące: Odpowedź Kobety Mężczyźn Wolę

Bardziej szczegółowo