METODY HEURYSTYCZNE wykład 5

Podobne dokumenty
METODY HEURYSTYCZNE wykład 5

METODY INTELIGENCJI OBLICZENIOWEJ wykład 5

METODY HEURYSTYCZNE 5

ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE

Najprostsze modele sieci z rekurencją. sieci Hopfielda; sieci uczone regułą Hebba; sieć Hamminga;

METODY INTELIGENCJI OBLICZENIOWEJ wykład 4

SZTUCZNE SIECI NEURONOWE

Elementy Sztucznej Inteligencji. Sztuczne sieci neuronowe cz. 2

SZTUCZNE SIECI NEURONOWE

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Metody Sztucznej Inteligencji II

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Lekcja 5: Sieć Kohonena i sieć ART

Sztuczne sieci neuronowe (SNN)

SZTUCZNA INTELIGENCJA

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Sztuczna inteligencja

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

Elementy kognitywistyki III: Modele i architektury poznawcze

synaptycznych wszystko to waży 1.5 kg i zajmuje objętość około 1.5 litra. A zużywa mniej energii niż lampka nocna.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

METODY INTELIGENCJI OBLICZENIOWEJ wykład 6

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Wstęp do teorii sztucznej inteligencji Wykład II. Uczenie sztucznych neuronów.

Sieć Hopfielda. Sieci rekurencyjne. Ewa Adamus. ZUT Wydział Informatyki Instytut Sztucznej Inteligencji i Metod Matematycznych.

8. Neuron z ciągłą funkcją aktywacji.

Metody i techniki sztucznej inteligencji / Leszek Rutkowski. wyd. 2, 3 dodr. Warszawa, Spis treści

Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010

Podstawy Sztucznej Inteligencji (PSZT)

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD XI: Sztuczne sieci neuronowe

SIECI KOHONENA UCZENIE BEZ NAUCZYCIELA JOANNA GRABSKA-CHRZĄSTOWSKA

SIECI REKURENCYJNE SIECI HOPFIELDA

SZTUCZNA INTELIGENCJA

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

wiedzy Sieci neuronowe

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Sztuczne sieci neuronowe

Sieci neuronowe jako sposób na optymalizacje podejmowanych decyzji. Tomasz Karczyoski Wydział W-08 IZ

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Sztuczne sieci neuronowe

Temat: Sieci neuronowe oraz technologia CUDA

Metody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.

SZTUCZNE SIECI NEURONOWE METODY HEURYSTYCZNE 4 KRYTERIA ZATRZYMANIA AE KRYTERIUM ZADOWALAJĄCEGO POZIO- MU FUNKCJI PRZYSTOSOWANIA

Uczenie sieci typu MLP

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

Sieci neuronowe w Statistica

Wstęp do teorii sztucznej inteligencji

SIECI RBF (RADIAL BASIS FUNCTIONS)

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Zastosowania sieci neuronowych

Uczenie się pojedynczego neuronu. Jeśli zastosowana zostanie funkcja bipolarna s y: y=-1 gdy z<0 y=1 gdy z>=0. Wówczas: W 1 x 1 + w 2 x 2 + = 0

Inteligentne systemy decyzyjne: Uczenie maszynowe sztuczne sieci neuronowe

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

Sieci Kohonena Grupowanie

Zastosowania sieci neuronowych

Sieć przesyłająca żetony CP (counter propagation)

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Wstęp do sieci neuronowych, wykład 9 Sieci rekurencyjne. Autoasocjator Hopfielda

Inteligentne systemy przeciw atakom sieciowym

Co to jest grupowanie

ZACHODNIOPOMORSKI UNIWERSYTET TECHNOLOGICZNY W SZCZECINIE

Widzenie komputerowe

Sieci Neuronowe - Rok III - kierunek IS w IFAiIS UJ 2008/2009. Sieci Neuronowe. Wykład 11 Algorytmy genetyczne; Systemy rozmyte

Uczenie sieci neuronowych i bayesowskich

Podstawy sztucznej inteligencji

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Podstawy Sztucznej Inteligencji Sztuczne Sieci Neuronowe. Krzysztof Regulski, WIMiIP, KISiM, B5, pok. 408

Optymalizacja ciągła

I EKSPLORACJA DANYCH

Obliczenia inteligentne Zadanie 4

Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

Rys. 1 Otwarty układ regulacji

Technologie i systemy oparte na logice rozmytej

Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.

Podstawy sztucznej inteligencji

Sieci neuronowe i ich ciekawe zastosowania. Autor: Wojciech Jamrozy III rok SMP / Informatyka

Seminarium magisterskie. Dyskusja nad tematem pracy magisterskiej pisanej pod kierunkiem pani Dr hab. Małgorzaty Doman

Wprowadzenie. SOM jest skrótem od Self Organizing Maps, czyli Samoorganizujące się mapy.

Aproksymacja funkcji a regresja symboliczna

Jeśli X jest przestrzenią o nieskończonej liczbie elementów:

Rozdział 1 Sztuczne sieci neuronowe. Materiały do zajęć dydaktycznych - na podstawie dokumentacji programu Matlab opracował Dariusz Grzesiak

6. Perceptron Rosenblatta

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

ELEMENTY SZTUCZNEJ INTELIGENCJI. Sztuczne sieci neuronowe

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

SID Wykład 7 Zbiory rozmyte

Wstęp do sieci neuronowych, wykład 10 Sieci rekurencyjne. Autoasocjator Hopfielda

ĆWICZENIE 5: Sztuczne sieci neuronowe

METODY INŻYNIERII WIEDZY

Projekt Sieci neuronowe

Sieci M. I. Jordana. Sieci rekurencyjne z parametrycznym biasem. Leszek Rybicki. 30 listopada Leszek Rybicki Sieci M. I.

Transkrypt:

METODY HEURYSTYCZNE wykład 5 1

KLASY ZASTOSOWAŃ: PREDYKCJA ze znajomości: przewidzieć : { f ( x ), f ( x ),..., f ( x )} f ( x ) n+ 1 n k n k + 1 n bez jawnego definiowania związku między danymi wejściowymi a wyjściowymi 2

KLASYFIKACJA I ROZPOZNAWANIE WZORCÓW Zaszeregowanie danych wejściowych do jednej z klas: np. sieć pozwala na podstawie danych bilansowych stwierdzić, czy dane przedsiębiorstwo należy do zwyżkujących gospodarczo, czy przeżywa stagnację czy też grozi mu regres. 3

APROKSYMACJA (interpolacja, ekstrapolacja) ze znajomości: odtworzyć: { x, f ( x )} i f ( x) i ASOCJACJA Podanie danego wzorca na wejście powinno powodować pojawienie się odpowiadającego mu wzorca na wyjściu. 4

STEROWANIE KOJARZENIE DANYCH automatyzacja procesów wnioskowania i wykrywanie istotnych powiązań między danymi. 5

FILTRACJA SYGNAŁÓW OPTYMALIZACJA statyczna i dynamiczna, optymalizacja kombinatoryczna i zagadnienia bardzo trudne obliczeniowo. 6

PRZYKŁADY: 7

Odległość Hamminga D(X, Y) między ciągami binarnymi X i Y: liczbapozycji, na których wyrazy X, Ymają różne wartości. Znormalizowana odległość Hamminga: D=13 HD=0.52 D=9 HD=0.36 D=20 HD=0.8 D=3 HD=0.12 8

Dobór optymalnej struktury SSN: 3 główne grupy algorytmów pomocnych w utworzeniu sieci optymalnej : metody wzrostu; metody redukcji, metody optymalizacji dyskretnej. Metody wzrostu: - na początku procesu optymalizacji struktura sieci powinna być możliwie mała; - w kolejnych iteracjach są dodawane kolejne neurony ukryte (co powinno powodować zwiększenie sprawności działania sieci); - neurony są dodawane aż do osiągnięcia punktu optymalnego. 9

Metody redukcji na początku procesu optymalizacji struktura sieci powinna być możliwie złożona; w kolejnych iteracjach są usuwane kolejne neurony lub połączenia między nimi (co powinno powodować zwiększenie sprawności działania sieci); postępowanie jest powtarzane aż do osiągnięcia punktu optymalnego. 10

Metody optymalizacji dyskretnej opierają się na założeniu, że proces nauki sieci i wyboru architektury zachodzą równocześnie; czynnikiem ocenianym jest określona funkcja, reprezentująca jakość danej sieci; w kolejnych krokach sieci dobierane są tak, by dążyć do maksymalizacji funkcji jakości; możliwe jest wykorzystanie AE jako metody optymalizacji. Żadna z tych metod nie jest idealna. Często wybór którejś z nich zależy od rodzaju rozwiązywanego problemu. 11

Zwykle: uczenie z początkowo małą liczbą neuronów i stopniowe zwiększanie ich liczby. Zbyt mało neuronów w warstwie ukrytej sieć nie potrafi poprawnie odwzorować funkcji. Zbyt wiele elementów warstwy ukrytej: wydłużenie procesu uczenia; uczenie się na pamięć (szczególnie, gdy liczba próbek w ciągu uczącym jest niewielka) - sieć poprawnie rozpoznaje tylko sygnały zgodne z tymi w ciągu uczącym ( brak generalizacji przy dobrej interpolacji). 12

Np.(L. Rutkowski, Metody i techniki sztucznej inteligencji, PWN, W-wa 2006): Ciąg uczący: Wejście x 0 Oczekiwane wyjście d=f(x) [ ] y = sin( x), x 0, 2π 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 π π π 7π 4π 5π 5π 2π 3π 5π 11π 7π π 2π 6 3 4 6 3 4 6 3 4 3 6 4 3 2 2 2 0 0.5 0 0-0.5 3 2 2 2 1 2 3 2 2 2 3 2 1 2 2 2 1 2 1 1 3 1 1 15 1 13

Dobór próbek (ciąg uczący) wpływa na jakość nauczania: odpowiedź na ciąg uczący odpowiedź na ciąg testowy Ghaboussi, CISM 2007 14

JAK DŁUGO UCZYĆ SIEĆ? Liczba prezentacji ciągu uczącego konieczna do nauczenia sieci: prognozowanie finansowe: 10 9 synteza mowy: 10 10 rozpoznawanie mowy lub pisma odręcznego: 10 12 rozpoznawanie znaków Kenji: 10 13 15

Uważa się, iż czas uczenia sieci rośnie wykładniczo wraz ze wzrostem liczby elementów sieci. Korzystne jest pokazywanie elementów ciągu uczącego w różnej kolejności. Malenie błędu jest różne dla różnie wylosowanych wag początkowych (dla tej samej sieci): 16

Zbyt długie uczenie również może skutkować utratą zdolności uogólniania: Ghaboussi, CISM 2007 17

UCZENIE WARSTW UKRYTYCH Bezpośrednie wyznaczenie błędów nie jest możliwe (sygnałów WY z warstwy ukrytej nie ma z czym porównać). Metodawstecznej propagacji błędów (backpropagation): Zmiana wagi jak przy sieci jednowarstwowej; Obliczanie δ sumowanie błędów z następnej warstwy Błędy w warstwach ukrytych są wyznaczane w sposób przybliżony. 18

δ n ( j ) = w ( k )( j ) δ ( j ) m m k k = 1 m numer neuronu w warstwie ukrytej n liczba neuronów w warstwie następnej k; j numer kroku uczenia; ( j ) δ m ( j) δ k błąd popełniany przez neuron m; błąd popełniany przez neuron w warstwie k ( j ) k 1 k 2 k 3 k n k m δ ( j ) m δ n ( kn )( j ) w m znane nieznane obliczanie błędów w warstwie WY; obliczanie błędów w warstwie poprzedniej; itd. aż do warstwy pierwszej. 19

UCZENIE SIECI NEURONOWYCH Zamiast programowania! Wymuszanie określonego reagowania sieci na zadane sygnały wejściowe (poprzez odpowiedni dobór wag). Ta sama sieć może służyć do rozwiązywania skrajnie różnych zadań. Warianty uczenia: uczenie bez nauczyciela (nienadzorowane); uczenie z nauczycielem (nadzorowane); uczenie z krytykiem. 20

Uczenie bez nauczyciela (unsupervised learning) Donald Hebb (fizjolog i psycholog) w umyśle zachodzą procesy wzmacniania połączeń między neuronami, jeśli zostały one pobudzone jednocześnie. Pożądana odpowiedź nie jest znana. Sieć uczy się poprzez analizę reakcji na pobudzenia; samoorganizacja struktury wszelkie regularności, linie podziału i inne charakterystyki danych wejściowych sieć musi wykryć sama. Zdolności do wykrywania skupisk obrazów wejściowych są wykorzystywane do ich klasyfikacji, gdy klasy nie są z góry ustalone. 21

Uczenie bez nauczyciela (unsupervised learning) Sieci pokazuje się kolejne przykłady bez określenia, co trzeba z nimi zrobić. Różne pobudzenie różnych neuronów - połączenia między źródłami silnych sygnałów a neuronami, które na nie reagują są wzmacniane. W sieci stopniowo powstają wzorce poszczególnych typów sygnałów rozpoznawane przez pewną część neuronów. Uczenie spontaniczne, odkrywanie ciekawych struktur w przestrzeni danych, korelacja zachowań systemu ze zmianą tych struktur dominuje w okresie niemowlęcym. 22

Uczenie bez nauczyciela-wady Zwykle powolniejsze. Nie wiadomo, który neuron będzie rozpoznawał jaki sygnał. Część sygnałów może być rozpoznawana przez więcej niż jeden neuron. Część sygnałów może nie być rozpoznawana przez żaden neuron (sieć musi być większa niż przy nauczycielu zwykle przynajmniej 3 razy). 23

Uczenie z nauczycielem (supervised learning) Podawanie sieci zestawów sygnałów WE wraz z prawidłowym sygnałem WY. Naśladowanie nauczyciela, jakim jest ciąg uczący (podejście szkolne ). Zestawy sygnałów (zwykle) powtarza się wielokrotnie, zaś sieć modyfikuje wagi na wejściach tak, by zminimalizować błąd. Zmiana wagi na i-tym wejściu neuronu po pokazaniu j-ego obiektu uczącego jest proporcjonalna do popełnianego na tym etapie błędu δ ( j ). 24

Uczenie z krytykiem (reinforcement learning): Odmiana uczenia nadzorowanego. Nauczyciel nie dysponuje pełną wiedzą na temat wszystkich prawidłowych odpowiedzi. Zamiast informacji o pożądanym WY, sieć dysponuje jedynie oceną efektu swego działania w ramach dwóch prostych kategorii. Ocena wzmocnienie (pozytywne lub negatywne) odpowiednie zmiany wag. 25

Uczenie z krytykiem (reinforcement learning): Optymalizacja zysków na dłuższą metę. Np.: gry z przeciwnikiem, krytyką jest przegrana lub wygrana na końcu partii. Uczenie z krytykiem lub z wzmocnieniem pożądanych zachowań po dłuższym okresie. Uczenie dojrzałe (nabieranie mądrości ). Bardziej uniwersalne w zastosowaniu podejście do problemu. Praktyczna realizacja jest bardziej skomplikowana. 26

SAMOUCZENIE SIECI Cała wiedza, jaką sieć może zdobyć jest zawarta w obiektach pokazywanych (muszą zawierać klasy podobieństwa). Nie mogą to być obiekty całkiem przypadkowe, ale tworzyć skupiska wokół pewnych ośrodków. Po zaprzestaniu pokazywania któregoś z sygnałów zapominanie... Proces samouczenia utrwala i pogłębia wrodzone zdolności neuronów. 27

SAMOUCZENIE SIECI: Ciąg uczący: U = { X (1), X (2),... X ( N )} X (j) n-wymiarowy wektor danych wejściowych w j-ym kroku uczenia N liczba posiadanych pokazów. Reguła uczenia dla m-tego neuronu w j-ym kroku: ( m)( j+ 1) = ( m)( j) + ( m) ( j) i i i m w w ηx y gdzie: n ( j) = ( m)( j) ( j) m i i i= 1 y w x 28

( m)( j+ 1) = ( m)( j) + ( m) ( j) i i i m w w ηx y n ( j) = ( m)( j) ( j) m i i i= 1 y w x Wielkość zmiany wagi liczona na podstawie iloczynu sygnału na odpowiednim wejściu przez sygnał wyjściowy neuronu. Uczenie to zwie się też korelacyjnym zmierza do takiego dopasowania wag, by uzyskać najlepszą korelację między sygnałami WE a zapamiętanym (w formie wag) wzorcem sygnału, na który dany neuron ma reagować. 29

KONKURENCJA W SIECIACH SAMOUCZĄCYCH WTA (Winner Takes All) - zwycięzca bierze wszystko: Najlepszy neuron niezerowa wartość sygnału WY (zwykle 1); Pozostałe wyjścia są zerowane; Tylko najlepszy neuron jest uczony. Zasada WTA daje jednoznaczną odpowiedź sieci (co niekoniecznie musi być zaletą). Wszystkie sygnały mniejsze niż ustalony próg brak rozpoznania. 30

Efekty: Neuron, który raz wygrał przy pokazaniu danego wzorca dalej będzie wygrywał. Samouczenie jest skuteczniejsze i efektywniejsze (każdy neuron rozpoznaje jeden obiekt, pozostałe neurony pozostają niezagospodarowane). Wysoce prawdopodobne jest, iż: - nie będzie grup neuronów rozpoznających ten sam wzorzec; - nie będzie klas nierozpoznanych przez żaden neuron. Niezagospodarowane neurony są gotowe rozpoznawać nowe wzorce. Po wykorzystaniu wszystkich neuronów i pojawieniu się nowego wzorca przeciąganie któregoś z neuronów w jego stronę: 31

SIECI SAMOORGANIZUJĄCE SIĘ (Teuvo Kohonen) Tworzą odwzorowania sygnałów WE w sygnały WY, spełniające pewne ogólne kryteria (nie zdeterminowane przez twórcę ani użytkownika sieci) samoorganizacja sieci. Inny (wyższy) sposób samouczenia, wprowadzający efekty koherencji i kolektywności. Koherencja (słown. spójność, spoistość, łączność) - sieć grupuje dane wejściowe wg wzajemnego podobieństwa wykrywa automatycznie obiekty podobne do siebie nawzajem i inne od innych grup obiektów. 32

Analiza skupień w analizy ekonomicznej (np. podobieństwo przedsiębiorstw rentowność). Kolektywność to co rozpoznaje neuron zależy w dużej mierze od tego, co rozpoznają inne neurony. Sąsiedztwo znaczenie ma wzajemne położenie neuronów w warstwach. Zwykle sąsiedztwo 2-wymiarowe neurony w węzłach regularnej siatki (każdy neuron ma min. 4 sąsiadów). 33

Przykładowe sąsiedztwa: Rozbudowane sąsiedztwo: 34

Rozszerzone sąsiedztwo: Jednowymiarowe sąsiedztwo: 35

Gdy w procesie uczenia któryś neuron zwycięża: uczy się też (w mniejszym stopniu) jego sąsiadów (niezależnie od ich wag początkowych!). 36

Neurony sąsiadujące rozpoznają sygnały z sąsiadujących podobszarów: Skutek: Sygnały równomiernie rozmieszczone w pewnym obszarze neurony zostają tak nauczone, by każdy podobszar sygnałów był rozpoznawany przez inny neuron. 37

Po wytrenowaniu każdej praktycznej sytuacji odpowiada neuron, który ją reprezentuje. Sąsiedztwo powoduje wykrywanie sytuacji podobnych do prezentowanych. W sieci powstaje wewnętrzny obraz świata zewnętrznego. Sygnały blisko siebie będą wykrywane przez leżące blisko siebie neurony. Przykładowe zastosowania: robot dostosowujący zachowanie do zmiennego środowiska; systemy bankowe stworzenie modelu wiarygodnego kredytobiorcy. 38

SIECI REKURENCYJNE Zawierają sprzężenia zwrotne: Po jednorazowym podaniu sygnału WE długotrwały proces zmiany sygnału WY, w efekcie stan równowagi. 39

Waga sprzężenia dodatnia sygnał zmienia się jednokierunkowo (aperiodycznie); Waga sprzężenia ujemna sygnał zmienia się oscylacyjnie; Przy neuronach nieliniowych możliwe chaotyczne błądzenie sygnałów; Zachowania: stabilne (zbieganie się sygnałów do określonej wartości); niestabilne (wartości sygnału coraz większe). Zastosowania: zadania optymalizacji (stany równowagi odpowiadają rozwiązaniom zadań); pamięci skojarzeniowe (drobny fragment informacji pozwala odtworzyć całą informację). 40

SIECI HOPFIELDA Każdy neuron jest związany z każdym innym na zasadzie obustronnego sprzężenia zwrotnego. Zabroniono sprzężeń zwrotnych obejmujących pojedynczy neuron. Symetria współczynników wagowych: w xy =w yx X w xy Y w yx Skutek: zachodzące procesy są zawsze stabilne. 41

ZBIORY ROZMYTE I WNIOSKOWANIE PRZYBLIŻONE 42

1965 Lotfi A. Zadeh: Fuzzy sets In almost every case you can build the same product without fuzzy logic, but fuzzy is faster and cheaper. Prof. Lotfi Zadeh, UC Berkeley, Inventor of Fuzzy Logic 43

Metoda reprezentacji wiedzy wyrażonej w języku naturalnym: Temperatura wynosi 29 o C informacja liczbowa - naturalna dla systemów komputerowych. Jest dość ciepło informacja opisowa - naturalna dla człowieka. Klasyczna teoria zbiorów: dowolny element należy lub nie należy do danego zbioru. Teoria zbiorów rozmytych: element może częściowo należeć do pewnego zbioru. 44

Zamiast dwóch wartości logicznych (prawda i fałsz) nieskończenie wiele wartości [0,1]. Np.: młody człowiek : 1 A= młody µ 1 0.8 A= młody 0 30 klasycznie x [lata] 0 30 sposób rozmyty x [lata] Umożliwiają formalne określenie pojęć nieprecyzyjnych i wieloznacznych: - niski hałas, - wysokie zarobki, - średnie zużycie paliwa. 45

Obszar rozważań X (the universe of discourse) - zbiór nierozmyty (np. płaca w UK i w Polsce). Zbiór rozmyty w pewnej przestrzeni (niepustej) X - zbiór par: {(, ( )); } A = x µ x x X A µ A (x) funkcja przynależności zbioru rozmytego A. x Funkcja przynależności przypisuje każdemu elementowi x X stopień jego przynależności do zbioru rozmytego A 46

µ A (x) = 1 pełna przynależność elementu x do ZR A; µ A (x) = 0 brak przynależności x do ZR A; 0 < µ A (x) < 1 częściowa przynależność x do ZR A. Stopień przynależności to niejest prawdopodobieństwo: młody w 80% to nie 4 młodych na 5 Symboliczny zapis ZR o skończonej liczbie elementów: A ( x ) ( x ) ( x ) ( x ) µ µ µ n µ A 1 A 2 A n A i = + +... + = x1 x2 xn i= 1 xi suma mnogościowa przyporządkowanie 47

Np. Ciepła woda na basenie : Obszar rozważań: X = [15, 21,..., 35] Zbiór rozmyty A (według osoby nr 1): 0.1 0.3 0.4 0.6 0.8 1 0.9 0.8 0.75 0.7 A = + + + + + + + + + 20 21 22 23 24 25 26 27 28 29 Według osoby nr 2: 0.2 0.4 0.6 0.8 1 0.8 0.6 0.4 0.2 A = + + + + + + + + 18 19 20 21 22 23 24 25 26 Jeśli X - przestrzeń o nieskończonej liczbie elementów, to zapis symboliczny: A = x µ A ( x ) x 48

Np. Zbiór liczb bliskich liczbie 7 : 1 µ ( x A ) = 1 + ( x 7) 2 µ (x ) 1 A x 1 + ( x - 7) x = 0 2-1 -1 7 15 x lub x-7 1 jeżeli 4 x 10 µ A( x)= 3 0 w przeciwnym razie µ (x ) 1 0 0 7 x 14 49