Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!

Wielkość: px
Rozpocząć pokaz od strony:

Download "Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie!"

Transkrypt

1 Preprocesing Postprocesing Kwestia wyboru struktury modelu neuronowego Nie istnieje ogólna recepta, każdy przypadek musi być rozważany indywidualnie! Schematyczne przedstawienie etapów przetwarzania danych w procesie neuronowego modelowania dane wejściowe zmienne wejściowe zmienne wyjściowe dane wyjściowe Niektóre metody przetwarzania wstępnego danych wejściowych Typy sztucznych sieci neuronowych Sztuczne Sieci Neuronowe jednokierunkowe rekurencyjne Bayesa modularne specjalne częściowo połączone całkowicie połączone komitety asocjacyjne dynamiczne jednowarstwowe perceptrony Jordana Elmana Boltzmanna kompozytowe pulsacyjne liniowe komórkowe Hopfielda kaskadowe RBF wielowarstwowe perceptrony neuronoworozmyte Kohonena MLP ontogeniczne uczenia ciągłego probabilistyczne 1

2 Sumaryczny błąd popełniany przez sieć Dobór typu sieci neuronowej oraz sposobu jej strukturalizacji oraz uczenia w przykładowym zadaniu (diagnostyka wibroakustyczna przekładni) Strukturę sieci można wybrać samemu albo można do jej wyboru użyć algorytm genetyczny Te sieci już sobie znakomicie radzą z zadaniem! Numer populacji Algorytm genetyczny nie zawsze daje dobre wyniki, więc trzeba także umieć samemu zaprojektować odpowiednią sieć Pierwsze pytanie do rozstrzygnięcia: Sieć liniowa czy nieliniowa? 2

3 Sieć liniowa jako najprostszy (ale użyteczny!) model regresyjny Przesłanki przemawiające za stosowaniem liniowej sieci neuronowej: Liniowa sieć neuronowa Iteracyjne uczenie sieci liniowej nie jest konieczne, gdyż może być zastąpione procedurą pseudo-inwersji macierzy Popatrzmy bowiem, jak działa liniowa sieć neuronowa: jest doskonałym narzędziem do opisu zależności liniowych, stanowi punkt odniesienia przy ocenie modeli nieliniowych, struktura i uczenie nie stwarza żadnych problemów. x 1 x 2 x n w 11 w 21 y 1 y 1 = w 11 x 1 + w 21 x w n1 x.. n w n1 y k = w 1k x 1 + w 2k x w nk x n y k W zapisie macierzowym: Y = W X Liniowa sieć neuronowa Prawdziwa sieć liniowa ma z reguły wiele wyjść, dlatego jest często przedstawiana w sposób przytoczony na tym obrazku P X W 1 W 2 Y X W Y Sieć liniowa z zasady nie posiada warstw ukrytych, bo nawet jeśli się je wprowadzi, to nie wzbogacą one zachowania sieci P = W 1 X Y = W 2 P Y = W 2 W 1 X Y = W X ; W = W 1 W 2 Sieć nieliniowa - Perceptron wielowarstwowy P X W 1 W 2 P = [W 1 X] Y = [ W 2 P ] Y = [ W 2 [ W 1 X ] ] Y W perceptronie na skutek istnienia nieliniowości w neuronach ukrytych nie jest możliwe zwinięcie jego wielowarstwowej struktury Dlatego najpowszechniej używana architektura sieci to klasyczny perceptron wielowarstwowy oznaczany jako MLP 3

4 Skala możliwości sieci zależy od liczby warstw Struktura sieci nieliniowej Typ obszaru decyzyjnego Przykładowy kształt obszaru na płaszczyźnie sygnałów wejściowych Zdolność do rozwiązania zadania klasyfikacji Ale ile warstw zastosować? X 1 X 2 X 1 X 2 X 1 Jedno-warstwowa X 2 Dwu-warstwowa Trój-warstwowa półprzestrzeń ograniczona przez hiperpłaszczyznę wypukłe oraz jednospójne ograniczone hiperpłaszczyznami simpleksy dowolny obszar o złożoności ograniczonej wyłącznie liczbą neuronów X 2 X 2 X 2 X 1 X 1 X 1 Trójwarstwowa sieć neuronowa Ważne pytanie: Liczba wejść? Optymalny wybór danych wejściowych jest problemem NP-trudnym, ponieważ przestrzeń wyborów jest określona przez liczbę kombinacji k-elementowych podzbiorów w n-elementowym zbiorze danych Ta liczba kombinacji wyraża się wzorem: n k n! n k! k! Dla całkiem niewielkich wartości n i k można uzyskać ogromne liczby kombinacji! 4

5 Kontrahent Kontrahent Przy ustalaniu, ile wejść ma mieć sieć neuronowa trzeba wziąć pod uwagę fakt, że nieliczne (z reguły) dane uczące będą w przestrzeni o większym wymiarze bardzo mocno rozproszone Produkt Czas 300 Przykładowo przy założeniu że różnorodność produktów wynosi 100 elementów, parametr kontrahent ma 500 elementów a wymiar czas 365 dni - przestrzeń wejściowa będzie zawierała 500*100*365 = komórek. Czas Czas sepal - listek kielicha / płatek kielicha kwiatowego petal - płatek Przykład tego, że do prawidłowego działania sieci wystarczy użycie tylko części dostępnych danych wejściowych Przykładowe zagadnienie: rozpoznawanie irysów Dane In the 1920's, botanists collected measurements on the sepal length (X 1 ), sepal width(x 2 ), petal length (X 3 ), and petal width (X 4 ) of 150 iris specimens, 50 from each of three species (Setosa, Versicolour and Virginica). In 1936, R.A. Fisher created this data set and did some research work on it. The measurements became known as Fisher's iris data. It was updated by C. Blake. Setosa Rozkład danych irysów 5

6 Sieć potrafi w procesie uczenia odrzucić nieprzydatne dane wejściowe. Poniżej podana struktura sieci rozpoznającej irysy po procesie uczenia Kategorie lingwistyczne s, m, l oznaczają odpowiednio wartości małe, średnie i duże. Liczba wejść do sieci powinna być też limitowana ze względu na fakt, że od każdego wejścia do każdego elementu warstwy ukrytej będzie musiało w sieci być połączenie, oraz współczynnik wagowy, którego wartość trzeba będzie wyznaczyć w wyniku procesu uczenia. Dlatego zwłaszcza przy sieciach wykorzystywanych do analizy obrazów musimy wybierać dane wprowadzane na wejście sieci w sposób bardzo przemyślany Tymczasem wzrost liczby współczynników wymagających uczenia nie jest okolicznością korzystną! Liczba współczynników wagowych, jakie trzeba wyznaczyć w toku uczenia wyznacza bowiem minimalną niezbędną liczbę danych uczących, które są konieczne do tego, żeby sieć nie weszła w pułapkę uczenia się na pamięć Podstawową wielkością określającą ryzyko uczenia na pamięć jest tzw. miara Vapnika- Chervonenkisa, zwana w skrócie VCdim. Miara VCdim systemu została zdefiniowana jako liczebność n największego zbioru S danych wzorców, dla których system klasyfikujący może zrealizować wszystkie możliwe 2 n dychotomii liniowych zbioru S Dychotomia liniowa to podział zbioru na 2 części za pomocą formuł liniowych, czyli w N-wymiarowej przestrzeni za pomocą hiperpłaszczyzn (N-1)-wymiarowych. 6

7 Podstawową wielkością określającą ryzyko uczenia na pamięć jest tzw. miara Vapnika- Chervonenkisa, zwana w skrócie VCdim. Miara VCdim systemu została zdefiniowana jako liczebność n największego zbioru S danych wzorców, dla których system klasyfikujący może zrealizować wszystkie możliwe 2 n dychotomii liniowych zbioru S Dychotomia liniowa to podział zbioru na 2 części za pomocą formuł liniowych, czyli w N-wymiarowej przestrzeni za pomocą hiperpłaszczyzn (N-1)-wymiarowych. Podstawową wielkością określającą ryzyko uczenia na pamięć jest tzw. miara Vapnika- Chervonenkisa, zwana w skrócie VCdim. Miara VCdim systemu została zdefiniowana jako liczebność n największego zbioru S danych wzorców, dla których system klasyfikujący może zrealizować wszystkie możliwe 2 n dychotomii liniowych zbioru S Dychotomia liniowa to podział zbioru na 2 części za pomocą formuł liniowych, czyli w N-wymiarowej przestrzeni za pomocą hiperpłaszczyzn (N-1)-wymiarowych. Dla pojedynczego neuronu o N wejściach miara VCdim wynosi N+1 Dla przykładu VCdim dla neuronu o dwóch wejściach wynosi n=3. Łatwo można wykazać, że zbiór złożony z trzech danych uczących jest największym zbiorem, w którym można przeprowadzić podział na dwie liniowo separowalne grupy na 2 3 = 8 sposobów: Jednak o ile łatwo jest wyznaczyć wartość VCdim dla pojedynczego neuronu, o tyle w przypadku sieci neuronowej nie jest to już takie proste Niestety nie istnieje prosty związek między architekturą sieci wielowarstwowej, a miarą VCdim. Można podać jedynie oszacowanie górnego i dolnego zakresu tej miary: gdzie: K 2 N VC dim 2N w 1 log N n 2 [ ] oznacza część całkowitą liczby, N wymiar wektora wejściowego, K liczba neuronów w warstwie ukrytej, N w całkowita liczba wag w sieci, N n całkowita liczba neuronów w sieci K 2 N VC dim 2N w 1 log N n 2 Jak widać z powyższej zależności, dolna granica przedziału jest w przybliżeniu równa liczbie wag łączących warstwę wejściową z warstwą ukrytą, górna granica natomiast jest większa niż dwukrotna liczba wszystkich wag sieci. Oszacowanie miary VCdim umożliwia ocenę minimalnego wymiaru zbioru uczącego. W wyniku przeprowadzenia wielu testów numerycznych stwierdzono dobre zdolności uogólniania sieci, jeśli liczba próbek uczących jest 10 razy większa od miary VCdim 7

8 Przykład z badań autora: w zadaniu prognozowania zapotrzebowania na energie elektryczną kolejno usuwano najmniej znaczące wejścia Z drugiej strony nie zawsze ograniczenie wymiaru sieci jest korzystne, bo w oczywisty sposób pomniejsza jej zdolność do rozwiązywania powierzonego jej zadania. Często redukcja wymiaru znacznie polepsza wyniki sieci. Najlepszy okazał się model o 7 zmiennych wejściowych Kolejny problem: Ile danych wejściowych zastosować? Kolejny istotny problem wiąże się z ustaleniem, ile elementów powinna mieć warstwa ukryta?... duża z pewnością sprawi więcej kłopotów podczas uczenia? Mała może się okazać zbyt prymitywna, żeby sobie poradzić z trudnością rozwiązywanego zadania... Jako dobre przybliżenie można przyjąć liczbę neuronów w warstwie ukrytej jako średnią geometryczną wymiarów wejść i wyjść sieci: K NM 8

9 skuteczność klasyfikacji [%] Jakość działania sieci Q Stosowane są też inne formuły: n ukr Sieci o większej liczbie neuronów ukrytych osiągają lepsze wyniki uczenia nwej liczba neuronów ukrytych nwyj 2 Jest wiele dowodów na to, że sieci o większej liczbie neuronów w warstwie ukrytej lepiej sobie radzą z rozwiązywaniem różnych zadań Liczba neuronów ukrytych n decyduje o jakości działania sieci Q. Wskaźnik Q jest tak dobrany, że im większa wartość tym lepsza sieć Przykład: zadanie rozpoznawania 75 znaków n. (liter) 96 na podstawie różnej liczby cech (50, 100 i 150) przez 50 n. sieci 94mające 100, 2575, n. 50 i 25 neuronów ukrytych n. 75 n. 50 n. 100 n. 75 n. 50 n. 100 n. 25 n. 50 cech 100 cech 150 cech sieć jest zbyt mało inteligentna Jakość działania sieci nie zależy od wielkości warstwy ukrytej sieci, czyli od jej inteligencji n szybkość klasyfikacji [zn/s] Liczba neuronów ukrytych n informatyka + 52 IQ Q W zasadzie można by było na tym poprzestać, popatrzmy jednak, co się stanie, kiedy zamienimy n na m oraz Q na IQ. Wykres ten przedstawia teraz znaną z psychologii zależność miary inteligencji człowieka (IQ to tzw. iloraz inteligencji) w zależności od masy jego mózgu m! m n informatyka + 53 Przykładowa zależność błędu popełnianego przez sieć od liczby neuronów ukrytych 100 Błąd Liczba neuronów ukrytych 9

10 Jakość działania sieci Q Strukturę sieci można uzupełniać w trakcie uczenia Również w wyborze liczby elementów drugiej warstwy ukrytej (jeśli występuje) trzeba zachować umiar. Na rysunku liczba neuronów w pierwszej warstwie ukrytej odkładany jest na poziomej osi, a liczba neuronów w drugiej warstwie pokazana jest kolorem. Obraz skuteczności uczenia sieci z dwiema warstwami ukrytymi w zależności od liczby neuronów w obu warstwach Inny przykład podobnych (niemonotonicznych) zależności Duży obszar równomiernie dobrych rozwiązań Druga warstwa ukryta Jednak jest równie wiele przykładów, że niekorzystne jest zarówno użycie zbyt prostej, jak i zbyt skomplikowanej sieci Mało skomplikowane sieci szybko się uczą i wykazują powtarzalne zachowanie, chociaż jest to często zachowanie błędne Wyniki kolejnych prób uczenia za małej sieci Sieć zbyt prosta (jeden neuron) Sieć zbyt skomplikowana 10

11 Mamy proste zadanie: sieć ma odwzorować zależność typu y = f(x) y e 0.2x sin x Proporcje liczby neuronów w poszczególnych warstwach Bierzemy sieć o typowej strukturze: uczymy ją a potem egzaminujemy: x y X elementy uczące O elementy egzaminujące --- odpowiedź sieci Widać, że sieć marnie sobie radzi Wniosek: sieć o tej strukturze: jest za słaba żeby nauczyć się odwzorowania y e 0.2x sin x Zaznaczona jako odpowiedź sieci odwzorowuje tylko nieliczne elementy uczące X Co gorsza zupełnie źle odwzorowuje ta elementy egzaminujące O, które nie były pokazywane w zbiorze uczącym, co oznacza brak zdolności do generalizacji wiedzy. Trzeba sieci dołożyć trochę inteligencji, to znaczy dodać kilka neuronów. Tylko jak to najskuteczniej zrobić? Najlepiej jest (zawsze!) dodać neurony wejściowe niosące dodatkową informację: e 0. 2x x sin x Takie doładowanie sieci dodatkową wiedzą radykalnie polepsza jej działanie zarówno w zakresie interpolacji jak i w zakresie ekstrapolacji y Dołożenie dwóch neuronów na wejściu przyniosło znakomity efekt, ale to dzięki temu, że na tych dwóch wejściach podane zostały dodatkowe informacje wejściowe dobrze skojarzone z natura rozwiązywanego zadania. Nieco mniej efektowny, ale łatwiejszy do powtórzenia sukces można odnieść dokładając dodatkowe dwa neurony do warstwy ukrytej. Taka sieć o większej wrodzonej inteligencji poradzi sobie wyraźnie lepiej z zadaniem, niż sieć o mniejszych zasobach elementów ukrytych Dla porównania przypomnijmy 11

12 Czasem może pojawić się pokusa, żeby dodatkowe neurony dołożyć w postaci elementów dodatkowej warstwy ukrytej Rozwiązanie takie jest zawsze wyraźnie gorsze! Warto zauważyć, że wyraźnie gorszy efekt uzyskuje się, gdy pierwsza warstwa ukryta jest mniej liczna, niż druga. Reprezentacja danych w sieciach neuronowych Wynika to z faktu, że ciasna pierwsza warstwa ukryta stanowi wąskie gardło dla informacji przesyłanych z wejścia na wyjście Całkiem poważnym problemem jest sposób reprezentacji danych w sieci neuronowej Jeśli dane mają od początku charakter numeryczny to problemu nie ma najwyżej trzeba je przeskalować Uwaga: przy skalowaniu należy unikać wchodzenia w obszar nasycenia charakterystyki neuronu cel skalowania: dopasowanie zakresu wartości zmiennej do charakterystyki neuronu y :=1/(1+exp(-0.5*x)) Typowo stosowane formuły skalowania xi min( xi ) x i max( x ) min( x ) i xi min( xi ) x i 2 1 max( x ) min( x ) x i i xi min( xi ) ( b a) a max( x ) min( x ) i i i i 12

13 Czasem korzysta się też z formuły angażującej wartość średnią i odchylenie standardowe xˆ x x ( x) Gorzej, jeśli dane mają charakter jakościowy. Konieczne jest wtedy przekształcenie jeden-z-n Jeden-z-N to sposób na przekształcenie wartości nominalnych do postaci numerycznej. Przykład: Pochodzenie ={Azja, Ameryka, Europa} Azja: {1, 0, 0} Ameryka: {0, 1, 0} Europa: {0, 0, 1} jedna zmienna trzy neurony! Obszar najczęstszego stosowania kodowania 1 z N: Klasyfikacja wzorcowa Sposób prezentacji danych jakościowych zgodnie z metodą 1 z N Celem klasyfikacji wzorcowej jest przypisanie badanych obiektów do jednej ze znanych klas. Zaklasyfikowanie obiektu dokonywane jest na podstawie wartości opisujących go zmiennych. wartości zmiennych charakteryzujących klasyfikowane obiekty Sieć neuronowa identyfikator klasy Przykład reprezentacji 1-z-N (rozpoznawanie znaków alfanumeryczych) q w e r t Mało wyraźne C : C Właściwej interpretacji wymagają też dane wyjściowe, otrzymywane z sieci jako rozwiązanie postawionego zadania Jeśli wymagane są wyniki numeryczne, to sprawa jest prosta, bo wystarczy je odczytać na wyjściach neuronów i tylko odpowiednio przeskalować. Trudności zaczynają się wtedy, gdy sieć pracuje jako klasyfikator, więc jej odpowiedzi trzeba interpretować jako decyzje. 13

14 y :=1/(1+exp(-0.5*x)) y :=1/(1+exp(-0.5*x)) Sieć z kodowaniem wyjść 1-z-n x 1 x 2... y 1 =0 y 2 =0 y 3 =1 y 4 =0 Idealna sytuacja związana użyciem zmiennej nominalnej na wyjściu sieci neuronowej x n Rzeczywisty rozkład wartości sygnałów w sieci neuronowej ze zmienną nominalną na wyjściu Przykład rozkładu sygnałów wyjściowych, przy którym lepiej jest nie wyznaczać wcale wartości zmiennej nominalnej, niż narazić się na błąd, który jest w tej sytuacji bardzo prawdopodobny Klasyfikacja w przypadku dwóch klas Warstwa wyjściowa - neuron z sigmoidalną funkcją aktywacji Reprezentacja klas: klasa 1 - wartość 1 klasa 2 - wartość 0 KLASA 1 próg akceptacji BRAK DECYZJI próg odrzucenia KLASA 2 Wartość wyjściowa neuronu może być interpretowana jako prawdopodobieństwo przynależności do klasy Klasyfikacja w przypadku większej liczby klas Każdej klasie odpowiada jeden neuron w warstwie wyjściowej. Aby obiekt został w sposób pewny zaliczony do i-tej klasy: wartość wyjściowa i-tego neuronu - wyższa od poziomu akceptacji, wartości wyjściowe pozostałych neuronów - niższe od poziomu odrzucenia. 1 0 KLASA głos 1za klasą i próg akceptacji BRAK DECYZJI próg odrzucenia KLASA wycofanie 2 klasy i Interpretacja wartości wyjściowych jako prawdopodobieństw przynależności do klas - konieczne jest ich sumowanie do jedności - zapewnia to funkcja aktywacji SoftMax 14

15 Sieć z wyjściami zblokowanymi (przy zmiennej wyjściowej typu nominalnego z wieloma możliwymi klasami wyjściowymi) MLP 15: :1 Przykład klasyfikacji binarnej i wieloklasowej Problem praktyczny: Czy wszystkie dostępne zmienne objaśniające należy wprowadzać na wejścia sieci? Wzrastająca liczba danych wejściowych uwzględnianych przy budowie modelu neuronowego prowadzi do wzrostu liczby połączeń, dla których trzeba w sieci ustalić wartości wag w toku uczenia Nie, w miarę możliwości należy ograniczać liczbę zmiennych wejściowych, Dlaczego? Bo stosując mniejszą liczbę zmiennych wejściowych uzyskujemy prostszą sieć, która: posiada mniejszą liczbę parametrów nastawianych podczas uczenia, a to powoduje łatwiejsze uczenie i daje lepsze zdolności do generalizacji, ma krótszy czas uczenia, gdyż mniej jest danych A tymczasem pamiętamy: ilość informacji, jakie zdobywa (i utrwala) sieć w czasie uczenia jest nie większa, niż ilość informacji zawarta w zbiorze uczącym! MLP czy RBF? 15

16 Każdy model budowany z pomocą sieci neuronowych klasy MLP cechuje zwykle obecność urwisk sigmoidalnych Inny przykład funkcji rozważanego typu Przykład działania sieci MLP Przykład zadania klasyfikacyjnego i jego rozwiązanie uzyskane z użyciem sieci MLP i techniki urwisk sigmoidalnych Często w różnych warstwach sieci MLP neurony mają różne charakterystyki, zarówno nieliniowe jak i liniowe Inne zadanie klasyfikacyjne i jego dwa rozwiązania 16

17 Typowa sieć RBF Technika ta jest szczególnie przydatna przy wyodrębnianiu obszarów o kształcie wydzielonych wysp Jednak złożenie takich elementarnych wiadomości pochodzących od różnych danych uczących pozwala wypowiadać się na temat całych rejonów przestrzeni sygnałów wejściowych Sieci MLP w zadaniu klasyfikacji Y X Y Sieci RBF w zadaniu klasyfikacji Zastosowanie RBF (zamiast MLP) spowoduje, że sieć neuronowa znajdzie aproksymację lepiej dopasowaną do lokalnych właściwości zbioru danych, ale gorzej ekstrapolującą. MLP RBF X Funkcja bazowe Wynik dopasowania 17

18 Ekstrapolacja i interpolacja Sieci RBF bywają nadmiernie wrażliwe na nawet nieliczne błędy w danych uczących Przykład dobrego i złego dopasowania wartości wyjściowych uzyskiwanych z sieci radialnej Dla tego samego zadania (rozpoznawania raka jajnika) sieć MLP i RBF Typ : MLP 11:29-7-1:1 Jakość ucz. = 0,943333, Jakość test. = 1, Typ : RBF 13: :1 Jakość ucz. = 0,908333, Jakość test. = 0, Złe dostosowanie spowodowane tym, że funkcja charakterystyczna jest zbyt wąska Złe dostosowanie spowodowane tym, że funkcja charakterystyczna zbyt jest szeroka Sieć z radialnymi funkcjami bazowymi używanymi pomocniczo A tak wygląda struktura innej praktycznie użytecznej sieci klasy GRNN warstwa wejściowa służy do wprowadzania danych do sieci warstwa radialna każdy z neuronów reprezentuje grupę (skupienie) występujące w danych wejściowych warstwa regresyjna wyznacza elementy niezbędne do obliczenia wartości wyjściowej warstwa wyjściowa wyznacza odpowiedź sieci 18

19 Połączenie w sieci GRNN właściwości neuronów RBF (z charakterystyką w formie funkcji Gaussa) oraz neuronów MLP (z charakterystyką sigmoidalną) pozwala modelować wyjątkowo wyrafinowane zależności nieliniowe) Idea działania sieci realizujących regresję uogólnioną (GRNN -Generalized Regression Neural Network) Wejściowe wektory uczące dzielone są na skupienia - w szczególnym przypadku każdy wektor tworzy oddzielne skupienie, Dla każdego skupienia znana jest wartość zmiennej objaśnianej (wyjście sieci), wartość zmiennej objaśnianej dla dowolnego wektora wejściowego szacowana jest jako średnia ważona liczona z wartości tej zmiennej dla skupień - wagi uzależnione są od odległości wejścia od centrów skupień. Następnym zagadnieniem, które warto rozważyć, jest problem ilości wyjść Częsty dylemat twórcy sieci: czy zastosować jedną sieć o wielu wyjściach, czy kilka oddzielnych sieci mających te same sygnały wejściowe, ale każdorazowo tylko jedno wyjście? Na pozór sprawa jest oczywista i z góry przesądzona: Sieć, która powinna dostarczyć k rozwiązań powinna mieć k neuronów wyjściowych W związku z tym sieć, która na podstawie trzech danych wejściowych ma wyznaczyć dwa sygnały wyjściowe powinna wyglądać tak: Nie zawsze jednak to rozumowanie jest poprawne! Załóżmy, że uczymy jedną sieć neuronową o dwóch wyjściach A oraz B. A B Lepiej jest wtedy zbudować dwie osobne sieci: A Pewnym rozwiązaniem pośrednim jest sieć z wieloma wyjściami ale z rozdzieloną warstwą ukrytą W neuronach obu warstw ukrytych będą musiały być zgromadzone informacje potrzebne do wyznaczania wartości A oraz B. Czasem może to być korzystne, wtedy gdy między wyjściami zachodzi synergia i doskonaląc pracę sieci zmierzającą do wyznaczania poprawnych wartości A przy okazji gromadzi się wiedzę przydatna przy wyznaczaniu wartości B. Częściej jednak bywa tak, że między wyjściami jest konflikt i wyznaczając wartości przydatne do obliczenia A psujemy wartości potrzebne dla B i vice versa. Każdą z nich można wtedy będzie w całości optymalnie dostroić do obliczania wymaganego wyjścia A albo B. B 19

20 Zasada połączeń każdy z każdym skutkuje tym, że w sieci neuronowej jest wiele niepotrzebnych połączeń. Można je eliminować technikami usuwania niepotrzebnych połączeń już po nauczeniu sieci. Inny przykład redukowania struktury sieci po jej nauczeniu Struktury sieci odzwierciedlają czasem pomysł autora chcącego na przykład wspomagać rozpoznawanie przy użyciu opinii udzielanych przez ekspertów Przykład usuwania niepotrzebnych połączeń z sieci o nietypowej strukturze Dla ilustracji rozważanych problemów przyjrzyjmy się, jak rozwiązują problem uczenia sieci o różnej architekturze Wyobraźmy sobie przestrzeń percepcyjną pewnego zwierzaka. Postrzega on otoczenie za pomocą wzroku i słuchu, więc każde środowisko stanowi dla niego punkt na płaszczyźnie dźwięku i światła. Dźwięk Tu jest głośno i ciemno (dyskoteka) Tu jest cicho i ciemno (sypialnia) Przedmiotem uczenia będzie to, w jakim środowisku zwierzak się dobrze czuje Światło Tu jest jasno i gwarno A tu są dane dla konkretnego środowiska w którym umieszczamy naszego zwierzaka. Tu jest cicho i jasno (plaża) Samopoczucie zwierzaka będzie sygnalizowane przez kolor odpowiednich punktów w przestrzeni sygnałów wejściowych Dźwięk Tu zwierzak jest zadowolony Światło Tu zwierzak jest nieszczęśliwy 20

21 Dźwięk Dźwięk Przykładowa mapa samopoczucia zwierzaka Mapę taką będziemy dalej rysowali zwykle w postaci wygładzonej: Informację o tym, jak się powinien zachowywać, zwierzak dostawać będzie w postaci zbioru uczącego, składającego się z przypadkowo wylosowanych punktów ( środowisk ) do których przypisane będą wymagane przez nauczyciela stany samopoczucia (sygnalizowane kolorem) Światło Oto przykładowy zbiór uczący......wygenerowany dla tej mapy Zakładamy, że pomiędzy stanami: pełnego szczęścia: i całkowitej depresji: Możliwe są jeszcze stany pośrednie, które będziemy oznaczać kolorami podobnymi, jak na mapach geograficznych pośrednie wysokości pomiędzy szczytami (entuzjazmu) a dnem (melancholii). Przykładowa mapa: Wyposażmy naszego zwierzaka w mózg w postaci bardzo prostej jednowarstwowej sieci neuronowej i spróbujmy przeprowadzić jego uczenie Zaczniemy od próby wyuczenia zwierzaka, żeby lubił gwarne śródmieście w samo południe: Światło Zwierzak początkowo wcale nie ma na to ochoty, bo jego zachowanie Jasno i wynikające z początkowych bardzo (przypadkowych!) wartości wag głośno! neuronów obrazuje mapa: Jest to jak widać zwolennik dyskoteki i sypialni (?) Ale zwierzak nam się trafił! No to zaaplikujemy zwierzakowi uczenie Po kolejnych kilku epokach uczenia zwierzak już wie, o co chodzi: Wzorzec Stan Początek Dalszy etap początkowy uczenia uczenia Już się dostosował! Widać, że na początku ma opory, ale powoli zaczyna się uczyć... 21

22 Poprzednie zadanie udało się rozwiązać, bo było bardzo proste, więc bardzo głupiutki zwierzak (sieć neuronowa bez warstw ukrytych) zdołał się go nauczyć. Zobaczmy jednak, jak ta sama sieć będzie się uczyć trudniejszego zadania. Niech zadanie polega na stworzeniu preferencji dla złotego środka Nasz zwierzak miota się i zmienia swoje upodobania, ale mimo dowolnie długiego uczenia nie zdoła wykryć, o co tym razem chodzi! Wyposażmy go więc w bardziej skomplikowany mózg zawierający pewną liczbę neuronów ukrytych. Teraz proces uczenia przebiega zupełnie inaczej. Sieć startuje od stanu totalnego optymizmu (prawie wszystko się zwierzakowi podoba!). Zauważmy: Ten cyber-kretyn nigdy się nie nauczy robić tego, czego się od niego wymaga, ale jego poglądy są zawsze bardzo kategoryczne (wszystko jest albo bardzo dobre, albo bardzo złe) chociaż za każdym razem niestety błędne... Wystarczy jednak kilka niepowodzeń w trakcie procesu uczenia, by zwierzak popadł w stan totalnego pesymizmu Potem jednak proces uczenia przebiega coraz skuteczniej i kończy się całkowitym sukcesem Dostał kilka razy karę od nauczyciela i się załamał! 22

23 Ta sama sieć wystartowana powtórnie (z innymi początkowymi wartościami wag) także dochodzi do właściwego rozwiązania, chociaż inną drogą. Dzięki prostemu programowi symulacyjnemu można zebrać bardzo wiele podobnych historii uczenia. Porażka sieci z jedną warstwą ukrytą Inny przykład Sieć z dwoma warstwami ukrytymi (powyżej) radzi sobie z problemem, który przerasta możliwości sieci z jedną warstwą ukrytą Oto jeszcze jedna przykładowa historia uczenia sieci o większej złożoności Koniec wykładu o wyborze struktury sieci Takie zabawy można kontynuować bez końca! 23

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów

Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Przykładowe funkcje przejścia używane przy budowie sztucznych neuronów Funkcja Wzór funkcji Wzór pochodnej Sigmoida f(s)=1/(1+e -(β*s) ) f (s)=β*(1- f(s))* f(s) Funkcje przejścia neuronu powinno się rozpatrywać

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych. Wstęp do teorii sztucznej inteligencji Wykład III Modele sieci neuronowych. 1 Perceptron model najprostzszy przypomnienie Schemat neuronu opracowany przez McCullocha i Pittsa w 1943 roku. Przykład funkcji

Bardziej szczegółowo

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ Celem ćwiczenia jest zapoznanie się ze sposobem działania sieci neuronowych typu MLP (multi-layer perceptron) uczonych nadzorowaną (z nauczycielem,

Bardziej szczegółowo

SIECI RBF (RADIAL BASIS FUNCTIONS)

SIECI RBF (RADIAL BASIS FUNCTIONS) SIECI RBF (RADIAL BASIS FUNCTIONS) Wybrane slajdy z prezentacji prof. Tadeusiewicza Wykład Andrzeja Burdy S. Osowski, Sieci Neuronowe w ujęciu algorytmicznym, Rozdz. 5, PWNT, Warszawa 1996. opr. P.Lula,

Bardziej szczegółowo

Metody Sztucznej Inteligencji II

Metody Sztucznej Inteligencji II 17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału

Bardziej szczegółowo

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe. zajecia.jakubw.pl/nai Literatura: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym. WNT, Warszawa 997. PODSTAWOWE ZAGADNIENIA TECHNICZNE AI

Bardziej szczegółowo

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia

Bardziej szczegółowo

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda Sieci neuropodobne 1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN Agenda Trochę neurobiologii System nerwowy w organizmach żywych tworzą trzy

Bardziej szczegółowo

Sztuczne sieci neuronowe (SNN)

Sztuczne sieci neuronowe (SNN) Sztuczne sieci neuronowe (SNN) Pozyskanie informacji (danych) Wstępne przetwarzanie danych przygotowanie ich do dalszej analizy Selekcja informacji Ostateczny model decyzyjny SSN - podstawy Sieci neuronowe

Bardziej szczegółowo

ALGORYTMY SZTUCZNEJ INTELIGENCJI

ALGORYTMY SZTUCZNEJ INTELIGENCJI ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.

Bardziej szczegółowo

Podstawy sztucznej inteligencji

Podstawy sztucznej inteligencji wykład 5 Sztuczne sieci neuronowe (SSN) 8 grudnia 2011 Plan wykładu 1 Biologiczne wzorce sztucznej sieci neuronowej 2 3 4 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką,

Bardziej szczegółowo

8. Neuron z ciągłą funkcją aktywacji.

8. Neuron z ciągłą funkcją aktywacji. 8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką

Bardziej szczegółowo

Sieci neuronowe w Statistica

Sieci neuronowe w Statistica http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej

Bardziej szczegółowo

Zastosowania sieci neuronowych

Zastosowania sieci neuronowych Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład

Bardziej szczegółowo

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Temat: Sztuczne Sieci Neuronowe Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sztuczne sieci neuronowe

Bardziej szczegółowo

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW

Sztuczne Sieci Neuronowe. Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW Sztuczne Sieci Neuronowe Wiktor Tracz Katedra Urządzania Lasu, Geomatyki i Ekonomiki Leśnictwa, Wydział Leśny SGGW SN są częścią dziedziny Sztucznej Inteligencji Sztuczna Inteligencja (SI) zajmuje się

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe. Naśladując w komputerze ludzki mózg staramy się połączyć zalety komputera (dostępność i szybkość działania) z zaletami mózgu (zdolność do uczenia się) informatyka + 2 Badacze zbudowali wiele systemów technicznych,

Bardziej szczegółowo

Inteligentne systemy przeciw atakom sieciowym

Inteligentne systemy przeciw atakom sieciowym Inteligentne systemy przeciw atakom sieciowym wykład Sztuczne sieci neuronowe (SSN) Joanna Kołodziejczyk 2016 Joanna Kołodziejczyk Inteligentne systemy przeciw atakom sieciowym 2016 1 / 36 Biologiczne

Bardziej szczegółowo

Sieć przesyłająca żetony CP (counter propagation)

Sieć przesyłająca żetony CP (counter propagation) Sieci neuropodobne IX, specyficzne architektury 1 Sieć przesyłająca żetony CP (counter propagation) warstwa Kohonena: wektory wejściowe są unormowane jednostki mają unormowane wektory wag jednostki są

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 8. SZTUCZNE SIECI NEURONOWE INNE ARCHITEKTURY Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SIEĆ O RADIALNYCH FUNKCJACH BAZOWYCH

Bardziej szczegółowo

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe Wydział Zarządzania AGH Katedra Informatyki Stosowanej Sztuczne sieci neuronowe Sztuczne sieci neuronowe Wprowadzenie Trochę historii Podstawy działania Funkcja aktywacji Typy sieci 2 Wprowadzenie Zainteresowanie

Bardziej szczegółowo

Projekt Sieci neuronowe

Projekt Sieci neuronowe Projekt Sieci neuronowe Chmielecka Katarzyna Gr. 9 IiE 1. Problem i dane Sieć neuronowa miała za zadanie nauczyć się klasyfikować wnioski kredytowe. W projekcie wykorzystano dane pochodzące z 110 wniosków

Bardziej szczegółowo

Podstawy Sztucznej Inteligencji (PSZT)

Podstawy Sztucznej Inteligencji (PSZT) Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12

Bardziej szczegółowo

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, 2013 Spis treści Przedmowa 7 1. Wstęp 9 1.1. Podstawy biologiczne działania neuronu 9 1.2. Pierwsze modele sieci neuronowej

Bardziej szczegółowo

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0 Uczenie się pojedynczego neuronu W0 X0=1 W1 x1 W2 s f y x2 Wp xp p x i w i=x w+wo i=0 Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z=0 Wówczas: W 1 x 1 + w 2 x 2 + = 0 Algorytm

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

6. Perceptron Rosenblatta

6. Perceptron Rosenblatta 6. Perceptron Rosenblatta 6-1 Krótka historia perceptronu Rosenblatta 6-2 Binarne klasyfikatory liniowe 6-3 Struktura perceptronu Rosenblatta 6-4 Perceptron Rosenblatta a klasyfikacja 6-5 Perceptron jednowarstwowy:

Bardziej szczegółowo

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów. Wstęp do teorii sztucznej inteligencji Wykład II Uczenie sztucznych neuronów. 1 - powtórzyć o klasyfikacji: Sieci liniowe I nieliniowe Sieci rekurencyjne Uczenie z nauczycielem lub bez Jednowarstwowe I

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Uczenie sieci typu MLP

Uczenie sieci typu MLP Uczenie sieci typu MLP Przypomnienie budowa sieci typu MLP Przypomnienie budowy neuronu Neuron ze skokową funkcją aktywacji jest zły!!! Powszechnie stosuje -> modele z sigmoidalną funkcją aktywacji - współczynnik

Bardziej szczegółowo

Budowa i własności. sztucznych neuronów i sieci

Budowa i własności. sztucznych neuronów i sieci Budowa i własności sztucznych neuronów i sieci Uwaga: Slajdy w tej prezentacji są intensywnie animowane, więc na statycznych kopiach mogą być mało czytelne (elementy pokazywane podczas animacji sekwencyjnie

Bardziej szczegółowo

Uczenie sieci radialnych (RBF)

Uczenie sieci radialnych (RBF) Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien

Bardziej szczegółowo

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, 2012 Spis treści Przedmowa do wydania drugiego Przedmowa IX X 1. Wstęp 1 2. Wybrane zagadnienia sztucznej inteligencji

Bardziej szczegółowo

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę

Ontogeniczne sieci neuronowe. O sieciach zmieniających swoją strukturę Norbert Jankowski Ontogeniczne sieci neuronowe O sieciach zmieniających swoją strukturę Warszawa 2003 Opracowanie książki było wspierane stypendium Uniwersytetu Mikołaja Kopernika Spis treści Wprowadzenie

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Sieci Hopfielda Najprostsze modele sieci z rekurencją sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga; Modele bardziej złoŝone: RTRN (Real Time Recurrent Network), przetwarzająca sygnały w czasie

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

SZTUCZNA INTELIGENCJA

SZTUCZNA INTELIGENCJA SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania

Bardziej szczegółowo

Klasyfikator liniowy Wstęp Klasyfikator liniowy jest najprostszym możliwym klasyfikatorem. Zakłada on liniową separację liniowy podział dwóch klas między sobą. Przedstawia to poniższy rysunek: 5 4 3 2

Bardziej szczegółowo

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE SIECI NEURONOWE Przedmiotem laboratorium jest stworzenie algorytmu rozpoznawania zwierząt z zastosowaniem sieci neuronowych w oparciu o 5 kryteriów: ile zwierzę ma nóg, czy żyje w wodzie, czy umie latać,

Bardziej szczegółowo

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna. Sieci neuronowe model konekcjonistyczny Plan wykładu Mózg ludzki a komputer Modele konekcjonistycze Perceptron Sieć neuronowa Uczenie sieci Sieci Hopfielda Mózg ludzki a komputer Twój mózg to 00 000 000

Bardziej szczegółowo

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74

4.1. Wprowadzenie...70 4.2. Podstawowe definicje...71 4.3. Algorytm określania wartości parametrów w regresji logistycznej...74 3 Wykaz najważniejszych skrótów...8 Przedmowa... 10 1. Podstawowe pojęcia data mining...11 1.1. Wprowadzenie...12 1.2. Podstawowe zadania eksploracji danych...13 1.3. Główne etapy eksploracji danych...15

Bardziej szczegółowo

Analiza składowych głównych. Wprowadzenie

Analiza składowych głównych. Wprowadzenie Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących

Bardziej szczegółowo

Widzenie komputerowe

Widzenie komputerowe Widzenie komputerowe Uczenie maszynowe na przykładzie sieci neuronowych (3) źródła informacji: S. Osowski, Sieci neuronowe w ujęciu algorytmicznym, WNT 1996 Zdolność uogólniania sieci neuronowej R oznaczenie

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia

Bardziej szczegółowo

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

ALGORYTM RANDOM FOREST

ALGORYTM RANDOM FOREST SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

Adrian Horzyk

Adrian Horzyk Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-10-15 Projekt

Bardziej szczegółowo

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek

Sztuczne sieci neuronowe Ćwiczenia. Piotr Fulmański, Marta Grzanek Sztuczne sieci neuronowe Ćwiczenia Piotr Fulmański, Marta Grzanek Piotr Fulmański 1 Wydział Matematyki i Informatyki, Marta Grzanek 2 Uniwersytet Łódzki Banacha 22, 90-232, Łódź Polska e-mail 1: fulmanp@math.uni.lodz.pl,

Bardziej szczegółowo

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

komputery? Andrzej Skowron, Hung Son Nguyen  Instytut Matematyki, Wydział MIM, UW Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,

Bardziej szczegółowo

Programowanie w Baltie klasa VII

Programowanie w Baltie klasa VII Programowanie w Baltie klasa VII Zadania z podręcznika strona 127 i 128 Zadanie 1/127 Zadanie 2/127 Zadanie 3/127 Zadanie 4/127 Zadanie 5/127 Zadanie 6/127 Ten sposób pisania programu nie ma sensu!!!.

Bardziej szczegółowo

I EKSPLORACJA DANYCH

I EKSPLORACJA DANYCH I EKSPLORACJA DANYCH Zadania eksploracji danych: przewidywanie Przewidywanie jest podobne do klasyfikacji i szacowania, z wyjątkiem faktu, że w przewidywaniu wynik dotyczy przyszłości. Typowe zadania przewidywania

Bardziej szczegółowo

Uczenie sieci neuronowych i bayesowskich

Uczenie sieci neuronowych i bayesowskich Wstęp do metod sztucznej inteligencji www.mat.uni.torun.pl/~piersaj 2009-01-22 Co to jest neuron? Komputer, a mózg komputer mózg Jednostki obliczeniowe 1-4 CPU 10 11 neuronów Pojemność 10 9 b RAM, 10 10

Bardziej szczegółowo

MODELOWANIE RZECZYWISTOŚCI

MODELOWANIE RZECZYWISTOŚCI MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN Szkoła Wyższa Psychologii Społecznej d.wojcik@nencki.gov.pl dwojcik@swps.edu.pl tel. 022 5892 424 http://www.neuroinf.pl/members/danek/swps/

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Mechatronika Rodzaj przedmiotu: obowiązkowy Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Zapoznanie studentów z inteligentnymi

Bardziej szczegółowo

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe wykład 1. Właściwości sieci neuronowych Model matematyczny sztucznego neuronu Rodzaje sieci neuronowych Przegląd d głównych g

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Lekcja 5: Sieć Kohonena i sieć ART

Lekcja 5: Sieć Kohonena i sieć ART Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

Sztuczne sieci neuronowe

Sztuczne sieci neuronowe www.math.uni.lodz.pl/ radmat Cel wykładu Celem wykładu jest prezentacja różnych rodzajów sztucznych sieci neuronowych. Biologiczny model neuronu Mózg człowieka składa się z około 10 11 komórek nerwowych,

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

Temat: Sieci neuronowe oraz technologia CUDA

Temat: Sieci neuronowe oraz technologia CUDA Elbląg, 27.03.2010 Temat: Sieci neuronowe oraz technologia CUDA Przygotował: Mateusz Górny VIII semestr ASiSK Wstęp Sieci neuronowe są to specyficzne struktury danych odzwierciedlające sieć neuronów w

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. dla sieci skierowanych Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-25 1 Motywacja

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH Wykład 3 Liniowe metody klasyfikacji. Wprowadzenie do klasyfikacji pod nadzorem. Fisherowska dyskryminacja liniowa. Wprowadzenie do klasyfikacji pod nadzorem. Klasyfikacja pod nadzorem Klasyfikacja jest

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2011-10-11 1 Modelowanie funkcji logicznych

Bardziej szczegółowo

Algorytmy sztucznej inteligencji

Algorytmy sztucznej inteligencji Algorytmy sztucznej inteligencji Dynamiczne sieci neuronowe 1 Zapis macierzowy sieci neuronowych Poniżej omówione zostaną części składowe sieci neuronowych i metoda ich zapisu za pomocą macierzy. Obliczenia

Bardziej szczegółowo

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu Literatura Wykład : Wprowadzenie do sztucznych sieci neuronowych Małgorzata Krętowska Wydział Informatyki Politechnika Białostocka Tadeusiewicz R: Sieci neuronowe, Akademicka Oficyna Wydawnicza RM, Warszawa

Bardziej szczegółowo

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty

Bardziej szczegółowo

Klasyfikacja LDA + walidacja

Klasyfikacja LDA + walidacja Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 16 2 Data Science: Uczenie maszynowe Uczenie maszynowe: co to znaczy? Metody Regresja Klasyfikacja Klastering

Bardziej szczegółowo

KARTA MODUŁU KSZTAŁCENIA

KARTA MODUŁU KSZTAŁCENIA KARTA MODUŁU KSZTAŁCENIA I. Informacje ogólne 1 Nazwa modułu kształcenia Sztuczna inteligencja 2 Nazwa jednostki prowadzącej moduł Instytut Informatyki, Zakład Informatyki Stosowanej 3 Kod modułu (wypełnia

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Informatyka Rodzaj przedmiotu: obowiązkowy w ramach treści kierunkowych, moduł kierunkowy oólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt

Bardziej szczegółowo

Jakość uczenia i generalizacja

Jakość uczenia i generalizacja Jakość uczenia i generalizacja Dokładność uczenia Jest koncepcją miary w jakim stopniu nasza sieć nauczyła się rozwiązywać określone zadanie Dokładność mówi na ile nauczyliśmy się rozwiązywać zadania które

Bardziej szczegółowo

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE INSTYTUT TECHNOLOGII MECHANICZNEJ Metody Sztucznej Inteligencji Sztuczne Sieci Neuronowe Wstęp Sieci neuronowe są sztucznymi strukturami, których

Bardziej szczegółowo

Inteligentna analiza danych

Inteligentna analiza danych Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki

Bardziej szczegółowo

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych. Sieci rekurencyjne Ewa Adamus ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych 7 maja 2012 Jednowarstwowa sieć Hopfielda, z n neuronami Bipolarna funkcja przejścia W wariancie

Bardziej szczegółowo

Wstęp do sztucznych sieci neuronowych

Wstęp do sztucznych sieci neuronowych Wstęp do sztucznych sieci neuronowych Michał Garbowski Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Wydział Informatyki 15 grudnia 2011 Plan wykładu I 1 Wprowadzenie Inspiracja biologiczna

Bardziej szczegółowo

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena

Bardziej szczegółowo

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM ZASTOSOWANIE SIECI NEURONOWYCH W SYSTEMACH AKTYWNEJ REDUKCJI HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM WPROWADZENIE Zwalczanie hałasu przy pomocy metod aktywnych redukcji hałasu polega

Bardziej szczegółowo

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne

Metody numeryczne. materiały do wykładu dla studentów. 7. Całkowanie numeryczne Metody numeryczne materiały do wykładu dla studentów 7. Całkowanie numeryczne 7.1. Całkowanie numeryczne 7.2. Metoda trapezów 7.3. Metoda Simpsona 7.4. Metoda 3/8 Newtona 7.5. Ogólna postać wzorów kwadratur

Bardziej szczegółowo

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący

Bardziej szczegółowo

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak 2 Rozdział 1 Sztuczne sieci neuronowe. 3 Sztuczna sieć neuronowa jest zbiorem prostych elementów pracujących równolegle, których zasada działania inspirowana jest biologicznym systemem nerwowym. Sztuczną

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2012-10-10 Projekt pn. Wzmocnienie

Bardziej szczegółowo

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU)

SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) SIEĆ NEURONOWA DO OCENY KOŃCOWEJ PRZEDSIĘWZIĘCIA (PROJEKTU) 1. Opis problemu - ocena końcowa projektu Projekt jako nowe, nietypowe przedsięwzięcie wymaga właściwego zarządzania. Podjęcie się realizacji

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Weryfikacja hipotez statystycznych

Weryfikacja hipotez statystycznych Weryfikacja hipotez statystycznych Hipoteza Test statystyczny Poziom istotności Testy jednostronne i dwustronne Testowanie równości wariancji test F-Fishera Testowanie równości wartości średnich test t-studenta

Bardziej szczegółowo

Przekształcanie wykresów.

Przekształcanie wykresów. Sławomir Jemielity Przekształcanie wykresów. Pokażemy tu, jak zmiana we wzorze funkcji wpływa na wygląd jej wykresu. A. Mamy wykres funkcji f(). Jak będzie wyglądał wykres f ( ) + a, a stała? ( ) f ( )

Bardziej szczegółowo