SZTUCZNA INTELIGENCJA

Podobne dokumenty
WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Uczenie się maszyn. Dariusz Banasiak. Katedra Informatyki Technicznej Wydział Elektroniki

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Systemy uczące się wykład 2

Wprowadzenie do uczenia maszynowego

Przykład eksploracji danych o naturze statystycznej Próba 1 wartości zmiennej losowej odległość

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Stan dotychczasowy. OCENA KLASYFIKACJI w diagnostyce. Metody 6/10/2013. Weryfikacja. Testowanie skuteczności metody uczenia Weryfikacja prosta

Regresja nieparametryczna series estimator

Podstawy Sztucznej Inteligencji (PSZT)

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Wstęp do sieci neuronowych, wykład 13-14, Walidacja jakości uczenia. Metody statystyczne.

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Aproksymacja funkcji a regresja symboliczna

Analiza statystyczna trudności tekstu

Eksploracja danych OCENA KLASYFIKATORÓW. Wojciech Waloszek. Teresa Zawadzka.

Rozpoznawanie obrazów

Klasyfikacja LDA + walidacja

Agnieszka Nowak Brzezińska

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Wstęp do sieci neuronowych, wykład 09, Walidacja jakości uczenia. Metody statystyczne.

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

Metody probabilistyczne klasyfikatory bayesowskie

Optymalizacja ciągła

METODY INŻYNIERII WIEDZY

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Układy stochastyczne

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

SZTUCZNA INTELIGENCJA

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Sztuczna inteligencja

Jakość uczenia i generalizacja

SZTUCZNA INTELIGENCJA

WYKŁAD 12. Analiza obrazu Wyznaczanie parametrów ruchu obiektów

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Projekt Sieci neuronowe

I EKSPLORACJA DANYCH

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

Metody Sztucznej Inteligencji II

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Lista zadań - Relacje

Klasa 1 technikum. Poniżej przedstawiony został podział wymagań na poszczególne oceny szkolne:

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 8

Wykład 3 Hipotezy statystyczne

Metody klasyfikacji danych - część 1 p.1/24

Elementy modelowania matematycznego

RILL - przyrostowy klasyfikator regułowy uczący się ze zmiennych środowisk

Metody systemowe i decyzyjne w informatyce

Sieci neuronowe w Statistica

MATeMAtyka 1. Przedmiotowy system oceniania wraz z określeniem wymagań edukacyjnych. Zakres podstawowy i rozszerzony Klasa pierwsza

Metodologia badań psychologicznych

STATYSTYKA MATEMATYCZNA WYKŁAD stycznia 2010

Podstawy Sztucznej Inteligencji

PRZEDMIOTOWY SYSTEM OCENIANIA PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Podstawy sztucznej inteligencji

Relacje. opracował Maciej Grzesiak. 17 października 2011

Algorytmy klasyfikacji

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Prawdopodobieństwo i statystyka

Technikum Nr 2 im. gen. Mieczysława Smorawińskiego w Zespole Szkół Ekonomicznych w Kaliszu

WYKŁAD 9 METODY ZMIENNEJ METRYKI

wiedzy Sieci neuronowe

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Metody eksploracji danych 3. Ocena modeli. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

ROZKŁAD MATERIAŁU DLA KLASY I LICEUM I TECHNIKUM (ZAKRES PODSTAWOWY I ROZSZERZONY) A WYMAGANIA PODSTAWY PROGRAMOWEJ

SZTUCZNA INTELIGENCJA

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

PRZEDMIOTOWY SYSTEM OCENIANIA PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY I ROZSZERZONY

- Dla danego zbioru S zbiór wszystkich jego podzbiorów oznaczany symbolem 2 S.

STATYSTYKA MATEMATYCZNA

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Wymagania edukacyjne matematyka klasa 1 zakres podstawowy 1. LICZBY RZECZYWISTE

Wymagania edukacyjne z matematyki

Sztuczna Inteligencja Projekt

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Rozkład materiału a wymagania podstawy programowej dla I klasy czteroletniego liceum i pięcioletniego technikum. Zakres rozszerzony

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

III. Funkcje rzeczywiste

WYMAGANIA EDUKACYJNE KLASA I Pogrubieniem oznaczono wymagania, które wykraczają poza podstawę programową dla zakresu podstawowego.

PLAN WYNIKOWY PROSTO DO MATURY KLASA 1 ZAKRES PODSTAWOWY

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Indukowane Reguły Decyzyjne I. Wykład 3

8. Neuron z ciągłą funkcją aktywacji.

Wprowadzenie do uczenia maszynowego

0.1 Pierścienie wielomianów

Uczenie sieci radialnych (RBF)

Statystyka matematyczna dla leśników

Wstęp do probabilistyki i statystyki. Wykład 4. Statystyki i estymacja parametrów

WSTĘP. Tematy: Regresja liniowa: model regresji liniowej, estymacja nieznanych parametrów. Wykład:30godz., ćwiczenia:15godz., laboratorium:30godz.

SZTUCZNA INTELIGENCJA

Wprowadzenie. Data Science Uczenie się pod nadzorem

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

PRZEDMIOTOWY SYSTEM OCENIANIA Z MATEMATYKI DLA KLASY 1LO i 1TI ROK SZKOLNY 2018/2019

Transkrypt:

SZTUCZNA INTELIGENCJA WYKŁAD 4. UCZENIE SIĘ INDUKCYJNE Częstochowa 24 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

WSTĘP Wiedza pozyskana przez ucznia ma charakter odwzorowania informacji wejściowej za zbiór wartości wyjściowych. Informacja wejściowa opisy obiektów pewnej dziedziny Dziedzina zbiór obiektów X, których dotyczy wiedza zdobywana przez ucznia (przedmioty, osoby, wydarzenia, sytuacje, procesy, ) Przykład obiekt, element dziedziny x X Atrybut (cecha, zmienna) przykłady opisywane są za pomocą atrybutów x i : x = [x, x 2,, x n ] Wartości wyjściowe klasa lub wartość funkcji Przykłady trenujące Uczeń Klasa lub wartość funkcji 2

WSTĘP Typy atrybutów: nominalne o skończonym zbiorze nieuporządkowanych wartości dyskretnych, np. kolor, kształt, marka; relacje >, < są nieokreślone porządkowe o skończonym zbiorze uporządkowanych wartości dyskretnych, np. rozmiar (S, M, L, XL), wzrost (niski, średni, wysoki); relacje >, < są określone ciągłe o wartościach ze zbioru liczb rzeczywistych, np. temperatura, prędkość, masa Przykład: punkty na płaszczyźnie. Dziedzina X = R 2 Atrybuty dwie współrzędne kartezjańskie: x, x 2 R Przykład punkt na płaszczyźnie: x = [.23, 2.56] Klasa punkty z pierwszej ćwiartki, punkty z drugiej ćwiartki, 3

WSTĘP Przykład: n-elementowe łańcuchy binarne Dziedzina X = {, } n Atrybuty wartości binarne: x, x 2,, x n {, } Przykład łańcuch binarny: x = [ ] Klasa łańcuchy z jedną jedynką, łańcuchy z dwiema jedynkami, Przykład: figury geometryczne Dziedzina kolorowe figury geometryczne Atrybuty rozmiar, kolor, kształt Przykład x = (duży, niebieski, trójkąt) Klasa czworoboki, pięcioboki, trójkąty, Przykład: pogoda Dziedzina stany pogody Atrybuty aura (słoneczna, pochmurna, deszczowa), temperatura (zimna, umiark., ciepła), wilgotność (normalna, duża), wiatr (słaby, silny) Przykład x = (słoneczna, zimna, duża, słaby) Klasa pogoda ładna, pogoda brzydka 4

UCZENIE SIĘ POJĘĆ Przykłady trenujące do uczenia się pojęć (przykłady etykietowane): opis obiektu + etykieta klasy x, d np. [.23, 2.56], ; [], 2 ; (duży, niebieski, trójkąt), trójkąty ; (słoneczna, zimna, duża, silny), pogoda brzydka Zadanie ucznia (uczenie z nadzorem) znalezienie hipotezy (wiedzy), która jest spójna (zgodna) z pojęciem docelowym (klasą) dla przykładów trenujących i która klasyfikuje również inne przykłady z jak najmniejszym błędem. Hipoteza jest funkcją przypisującą przykładom ich klasy h : X C, gdzie X jest dziedziną (zbiorem obiektów), a C jest zbiorem ich klas. Dla zadania "punkty na płaszczyźnie" hipoteza może mieć postać: Jeśli znak(x ) = "+" i znak(x 2 ) = "+" to = (punkty z pierwszej ćwiartki) Jeśli znak(x ) = " " i znak(x 2 ) = "+" to = 2 (punkty z drugiej ćwiartki) Jeśli znak(x ) = " " i znak(x 2 ) = " " to = 3 (punkty z trzeciej ćwiartki) Jeśli znak(x ) = "+" i znak(x 2 ) = " " to = 4 (punkty z pierwszej ćwiartki) 5

UCZENIE SIĘ POJĘĆ Dla zadania "n-elementowe łańcuchy binarne" hipoteza może mieć postać: = x + x 2 + + x n Hipoteza uzyskana w wyniku uczenia się pojęć może być stosowana do klasyfikacji innych przykładów z dziedziny. Uczeń na wejściu otrzymuje przykład x, a na wyjściu podaje jego klasę. Prezentacja przykładu na wejściu nazywa się zapytaniem, a jego klasyfikacja przez ucznia odpowiedzią na zapytanie. Zbiór trenujący zbiór przykładów etykietowanych T = { x, d, x 2, d 2,, x N, d N } x Klasa L.p. x x 2 d 2.65.26 2 34.89 3.56 2 N 5.87 7.94 4 L.p. x x x 2 x 3 x 4 Klasa d słoneczna zimna duża silny brzydka 2 słoneczna umiark. normalna słaby ładna N deszczowa zimna duża silny brzydka 6

BŁĄD W UCZENIU SIĘ POJĘĆ Błąd klasyfikacji stosunek liczby niepoprawnie sklasyfikowanych przykładów do liczby wszystkich przykładów: { x P h( x) d)} E( h) = P gdzie:. moc zbioru, P X zbiór przykładów, h(x) klasa przypisana przez ucznia..8 Błąd na przykładach trenujących: /32 Błąd na nowych przykładach: 6/2 = 8%.8.6 c(x).6 x2.4 x2.4.2 h(x).2.2.4.6.8 x.2.4.6.8 x 7

TWORZENIE POJĘĆ Uczenie bez nadzoru klasy przykładów są nieznane (przykłady nieetykietowane). Uczeń grupuje samodzielnie zaobserwowane przykłady w grupy zgodnie z pewnymi kryteriami podobieństwa. Hipoteza funkcja odwzorowująca przykłady na zbiór grup h : X C h, gdzie C h jest zbiorem grup utworzonym przez ucznia. Hipoteza określa: jak są tworzone grupy jak do grup przypisane są przykłady Odpowiedzią na zapytanie jest wskazanie przez ucznia grupy przykładu prezentowanego na wejściu Zbiór trenujący zbiór przykładów nieetykietowanych T = {x, x 2,, x N } 8

UCZENIE SIĘ APROKSYMACJI FUNKCJI Uczenie się funkcji odwzorowującej przykłady na zbiór liczb rzeczywistych. Przykłady trenujące argument funkcji + wartość funkcji: x, y, gdzie y = f(x) + ε, ε błąd Zadanie ucznia (uczenie z nadzorem) znalezienie hipotezy dobrze przybliżającej nieznaną funkcję docelową f : X R dla przykładów trenujących i innych z dziedziny. Hipoteza funkcja przekształcająca przykłady w zbiór liczb rzeczywistych h : X R. Zbiór trenujący zbiór przykładów etykietowanych T = { x, y, x 2, y 2,, x N, y N } x L.p. y x x 2 5.5 6. 275.375 2 4.5 7. 26.625 N.5 8. 257.25 9

UCZENIE SIĘ APROKSYMACJI FUNKCJI Błędy aproksymacji Średni błąd względny: f ( x) h( x) e( x) E( h) = = mean P x P f ( x) f ( x) 2 2 Błąd średniokwadratowy (MSE): E( h) = ( f ( x) h( x)) = mean( e ( x) ) P x P gdzie:. moc zbioru, P X zbiór przykładów, y wartość pożądanej odpowiedzi, h(x) odpowiedź ucznia..5 h(x) Ponieważ zwykle nie znamy prawdziwej wartości funkcji docelowej f(x), w jej miejsce w powyższych wzorach podstawiamy y (y = f(x) + ε) y.5 f(x) e(x).5.5 2 2.5 x

PROBLEM NADMIERNEGO DOPASOWANIA Generalizacja (uogólnianie) zdolność SUS do poprawnych odpowiedzi na przykłady spoza zbioru trenującego. Aby osiągnąć najlepszą generalizację złożoność hipotezy powinna odpowiadać złożoności pojęcia/funkcji docelowej. Hipoteza jest nadmiernie dopasowana do zbioru trenującego (przeuczona), gdy istnieje inna hipoteza o większym błędzie na zbiorze trenującym, ale o mniejszym błędzie generalizacji (na nowych przykładach). h 3 (x) h 2 (x).8 c(x) h 3 (x) h (x).6 y.5 x2.4 f(x) h (x).2 h 2 (x).5.5 2 2.5 x.2.4.6.8 x

PROBLEM NADMIERNEGO DOPASOWANIA Zagrożenie przeuczenia SUS dopasowuje hipotezę do przykładów uczących, często zaszumionych. Charakterystyczne cechy pojęcia/funkcji docelowej pozostają niewykryte. Przeuczeniu sprzyja: nadmiernie złożony (elastyczny) model (bogate przestrzenie hipotez) deficyt danych Zapobieganie nadmiernemu dopasowaniu: kontrola dopasowania hipotezy na przykładach walidacyjnych uwzględnienie złożoności hipotez w kryterium wyboru najlepszej hipotezy (regularyzacja) adaptacyjny dobór złożoności hipotezy (struktury modelu) komitety modeli dodanie składnika losowego do danych uczących wzbogacenie zbioru trenującego o nowe przykłady 2

PROBLEM NIEDOUCZENIA Złożoność hipotezy jest mniejsza niż złożoność funkcji docelowej..5 f(x).8 c(x) h(x) y.5 -.5 h(x) x2.6.4 -.2 -.5.5.5 2 2.5 x.2.4.6.8 x Zapobieganie niedouczeniu: rozbudowanie modelu (wzbogacenie przestrzeni hipotez) adaptacyjny dobór złożoności hipotezy (struktury modelu) 3

SELEKCJA NAJLEPSZEJ HIPOTEZY Zbiór przykładów dzielimy na trzy rozłączne podzbiory: zbiór trenujący, zbiór walidacyjny i zbiór testowy. Przykłady do tych zbiorów wybieramy losowo, np. 5% przykładów do zbioru trenującego, 25% do zbioru walidacyjnego, 25% do zbioru testowego. Użycie zbiorów: SUS uczy się na zbiorze trenującym. Błąd generalizacji hipotezy w trakcie uczenia szacujemy na zbiorze walidacyjnym, różnym od zbioru trenującego. Ostateczny błąd generalizacji SUS mierzymy na zbiorze testowym. Hipoteza o najmniejszym błędzie testowym jest najlepsza. 4

ESTYMACJA BŁĘDU GENERALIZACJI Kroswalidacja procedura uczenia i oceny SUS, w której zbiór przykładów dzieli się losowo na m równolicznych, rozłącznych podzbiorów. Następnie kolejno każdy z tych podzbiorów bierze się jako zbiór walidacyjny, a pozostałe razem jako zbiór trenujący, którym uczy się SUS. Błąd generalizacji szacuje się uśredniając błędy walidacyjne obliczane po każdej z m sesji uczących. Podział zbioru danych uczenie ocena 2 3 4 2+3+4 SUS SUS uczenie ocena 2 3 4 +3+4 SUS 2 SUS Uśrednienie błędów uczenie ocena walidacyjnych 2 3 4 +2+4 SUS 3 SUS uczenie ocena 2 3 4 +2+3 SUS 4 SUS - zbiór trenujący - zbiór walidacyjny 5

MODEL SUS Postać modelu: gdzie: x wejścia, θ parametry. g(x θ) g(.) reprezentuje klasę hipotez H. Konkretne wartości parametrów θ reprezentują konkretną hipotezę h H. Przykład: model liniowy Klasa hipotez: g(x θ) = ax + b θ = [a, b] 5 5-5 - -5 -.5.5 x Konkretna hipoteza: g(x [.472, 2.892]) =.472 x 2.892 y y -2.8-2.85-2.9-2.95 - -.5.5 x Postać modelu ustala projektant na podstawie przewidywanej postaci funkcji docelowej i własnych doświadczeń (obciążenie indukcyjne). 6

MODEL SUS Kryterium oceny modelu: błąd generalizacji złożoność (liczba parametrów) Procedura optymalizacji (uczenia) modelu: Znaleźć wartości parametrów minimalizujące kryterium oceny Metody optymalizacji: θ* = arg min E( θ X ) θ Analityczne (w zadaniach regresji).8.6 Gradientowe E.4.2 Stochastyczne (algorytmy ewolucyjne i rojowe) 2.5.5 w2 -.5 - -.5 - w 2-2 -2 7