Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. test 1 dopełnienie testu 1

Wielkość: px
Rozpocząć pokaz od strony:

Download "Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. http://zajecia.jakubw.pl/ test 1 dopełnienie testu 1"

Transkrypt

1 Analiza danych Drzewa decyzyjne. Enropia. Jakub Wróblewski hp://zajecia.jakubw.pl/ DRZEWA DECYZYJNE Meoda reprezenacji wiedzy (modelowania ablic decyzyjnych). Pozwala na przejrzysy opis regularności zawarych w danych, a akże na prose przedsawienie algorymu klasyfikacji. ablica danych Przykład: drzewo binarne. Węzły odpowiadają zbiorom danych, krawędzie warunkom (esom). es dopełnienie esu podablica spełniająca es podablica niespełniająca esu

2 ZSTĘPUJĄCY ALGORYTM BUDOWY DRZEWA Korzeń: cały zbiór danych. Pojedynczy krok budowy drzewa: - wybieramy węzeł do podziału - wybieramy es i dokonujemy podziału - sprawdzamy kryerium sopu Kryerium sopu: Najprossze gdy nie ma już więcej liści wymagających podziału, zn. akich, kóre zawierają więcej niż jedną klasę decyzyjną. Wybór esu: najczęściej meodą zachłanną, zn. wybieramy aki es, kóry najlepiej podzieli rozparywany węzeł. RODZAJE TESTÓW W zależności od rodzaju danych, najczęssze rodzaje esów o: - większościowy: a i v a i < v sosowany głównie w przypadku danych ciągłych, - równościowy: a i = v a i = v 2 a i = v 3... a i = v k sosowany w przypadku danych dyskrenych (np. symbolicznych). Wówczas drzewo nie jes binarne. 2

3 PRZYKŁAD DYSKRETNY Oulook Temp. Humid. Wind Spor? Sunny Ho High Weak No 2 Sunny Ho High Srong No 3 Overcas Ho High Weak Yes 4 Rain Mild High Weak Yes 5 Rain Cold Normal Weak Yes 6 Rain Cold Normal Srong No 7 Overcas Cold Normal Srong Yes 8 Sunny Mild High Weak No 9 Sunny Cold Normal Weak Yes 0 Rain Mild Normal Weak Yes Sunny Mild Normal Srong Yes 2 Overcas Mild High Srong Yes 3 Overcas Ho Normal Weak Yes 4 Rain Mild High Srong No Oulook Sunny Rain Overcas Humidiy Wind High Normal Srong Weak Spor=No Spor=Yes PRZYKŁAD CIĄGŁY (całe dane) a 2 2 a 2 < 2 a < 7 a 7 a < 6 a 6 2 a < 8 a 8 Jeśli przyjmiemy poziom dokładności 90%, osani krok będzie nieporzebny. a 2 a

4 KLASYFIKACJA ( 7, 5 ) a 2 2 a 2 < 2 a < 7 a 7 a < 6 a 6 2 a < 8 a 8 odpowiedź: czerwony * a 2 a CEL OPTYMALIZACJI Dążymy do zbudowania drzewa jak najlepiej sprawdzającego się na nowych danych. Opymalizacja może być ylko pośrednia, gdyż nie znamy jeszcze nowych danych. Dobre drzewo powinno być: - poprawne przynajmniej w sosunku do danych reningowych; - ogólne, czyli akie, kóre wychwyuje pewne prawa ukrye w danych, co pozwala na prawidłową klasyfikacje przypadków niewidzianych wcześniej. Ogólność możemy oszacować zgodnie z zasadą minimalnego opisu: dobry model danych o aki, kóry jes jak najmniejszy. Typowa sraegia: minimalizujemy wielkość drzewa przy sałym progu poprawności (00% lub mniej). 4

5 ENTROPIA Kryerium wyboru esu: Dory es powinien zmniejszać głębokość drzewa, zn. zbliżać nas do liści jednoliych pod względem decyzji. Jednoliość ę można mierzyć za pomocą enropii (ozn. H): H ( P) = k p i log p i gdzie P=(p,... p k ) o pewien rozkład prawdopodobieńswa. W naszym przypadku P będzie rozkładem decyzji w węźle drzewa. Im enropia mniejsza, ym rozkład decyzji jes bardziej nierównomierny. WŁASNOŚCI ENTROPII Enropia jes równa zero ww. gdy rozkład jes skupiony na jednej warości. Enropia jes największa dla rozkładu równomiernego. H(P) = 2 Jeśli logarym ma podsawę 2, o wynik podany jes w biach. 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0, 0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0, 0 dec = dec = 2 dec = 3 dec = 4 dec = dec = 2 dec = 3 dec = 4 5

6 KRYTERIUM WYBORU TESTU Mając dany pewien przykładowy es dzielący ablicę danych na podablic, jego jakość liczymy nasępująco: Q( ) = P H ( P i i ) gdzie P o wielkość podablicy spełniającej warunek, H(P ) o enropia rozkładu decyzji w odpowiedniej podablicy. Wyrażenie Q powinniśmy sarać się zminimalizować. WSPÓŁCZYNNIK PRZYROSTU INFORMACJI W przypadku porównywania warunków generujących różną liczbę węzłów poomnych, porzebujemy miary, kóra jes mało (w porównaniu z innymi meodami) wrażliwa na liczbę klas: ϑ( ) = P i H H ( P ) ( P) i gdzie P o wielkość podablicy spełniającej warunek, H(P) o enropia podziału ablicy na podablice, czyli: H ( P) = P P i i log n n 6

7 ALGORYTM WYBORU TESTU Dla każdego arybuu a i Dla każdej warości esu ij policz jego jakość Q( ij ). Zapamięaj najlepszy es. Wybierz arybu i es najlepszy dla danego węzła. INNE RODZAJE TESTÓW Tesy na gałęziach drzewa nie muszą mieć posaci a i < v. Mogą o być np.: - warunki opisane kombinacjami liniowymi arybuów (prose, hiperpłaszczyzny) - warunki określające odległość obieku od pewnego punku - warunki ypu a i {v, v 2, v 3,...} Poszerzony język opisu danych może znacznie zmniejszyć wielkość drzewa, jednak znalezienie opymalnego warunku jes bardzo koszowne. 7

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.

Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania

Bardziej szczegółowo

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 1. Wojciech Waloszek. Teresa Zawadzka.

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 1. Wojciech Waloszek. Teresa Zawadzka. Eksploracja danych KLASYFIKACJA I REGRESJA cz. 1 Wojciech Waloszek wowal@ei.pg.gda.pl Teresa Zawadzka egra@ei.pg.gda.pl Kaedra Inżyrii Oprogramowania Wydział Elekroniki, Telekomunikacji i Informayki Poliechnika

Bardziej szczegółowo

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne

WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne WYKŁAD 11 Uczenie maszynowe drzewa decyzyjne Reprezentacja wiedzy w postaci drzew decyzyjnych entropia, przyrost informacji algorytmy ID3, C4.5 problem przeuczenia wyznaczanie reguł rzykładowe drzewo decyzyjne

Bardziej szczegółowo

Co to są drzewa decyzji

Co to są drzewa decyzji Drzewa decyzji Co to są drzewa decyzji Drzewa decyzji to skierowane grafy acykliczne Pozwalają na zapis reguł w postaci strukturalnej Przyspieszają działanie systemów regułowych poprzez zawężanie przestrzeni

Bardziej szczegółowo

Baza danych dla potrzeb zgłębiania DMX

Baza danych dla potrzeb zgłębiania DMX Baza danych dla potrzeb zgłębiania DMX ID Outlook Temperature Humidity Windy PLAY 1 sunny hot high false N 2 sunny hot high true N 3 overcast hot high false T 4rain mild high false T 5rain cool normal

Bardziej szczegółowo

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34

Drzewa decyzyjne. Nguyen Hung Son. Nguyen Hung Son () DT 1 / 34 Drzewa decyzyjne Nguyen Hung Son Nguyen Hung Son () DT 1 / 34 Outline 1 Wprowadzenie Definicje Funkcje testu Optymalne drzewo 2 Konstrukcja drzew decyzyjnych Ogólny schemat Kryterium wyboru testu Przycinanie

Bardziej szczegółowo

Indukowane Reguły Decyzyjne I. Wykład 3

Indukowane Reguły Decyzyjne I. Wykład 3 Indukowane Reguły Decyzyjne I Wykład 3 IRD Wykład 3 Plan Powtórka Grafy Drzewa klasyfikacyjne Testy wstęp Klasyfikacja obiektów z wykorzystaniem drzewa Reguły decyzyjne generowane przez drzewo 2 Powtórzenie

Bardziej szczegółowo

Ó Ż ź Ó Ą Ż Ó ń ń ć ć ĘŚ Ś ŚĆ Ę ć ć ć ć Ś Ź ń ź ŚĆ ń Ś ź ć ć Ó ć ć ź ć ć ć ń ń Ł ć ź ć ń Ś ć ć ć Ł Ę Ś Ł Ę Ł ć ń ć Ś ź Ć Ś Ś ć ź Ó ź ć ć Ś ń ź Ś ź Ó Ś Ó Ś Ś ń Ś Ś ć ć ń ć ć Ż Ś ć ń ń Ł Ł ń ć ź ć ć Ó ć

Bardziej szczegółowo

Analiza rynku projekt

Analiza rynku projekt Analiza rynku projek A. Układ projeku 1. Srona yułowa Tema Auor 2. Spis reści 3. Treść projeku 1 B. Treść projeku 1. Wsęp Po co? Na co? Dlaczego? Dlaczego robię badania? Jakimi meodami? Dla Kogo o jes

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska. SYSTEMY UCZĄCE SIĘ WYKŁAD 3. DRZEWA DECYZYJNE Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska BUDOWA DRZEW DECYZYJNYCH Drzewa decyzyjne są metodą indukcyjnego

Bardziej szczegółowo

ĆWICZENIE NR 43 U R I (1)

ĆWICZENIE NR 43 U R I (1) ĆWCZENE N 43 POMY OPO METODĄ TECHNCZNĄ Cel ćwiczenia: wyznaczenie warości oporu oporników poprzez pomiary naężania prądu płynącego przez opornik oraz napięcia na oporniku Wsęp W celu wyznaczenia warości

Bardziej szczegółowo

Elementy modelowania matematycznego

Elementy modelowania matematycznego Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski

Bardziej szczegółowo

Równania różniczkowe. Lista nr 2. Literatura: N.M. Matwiejew, Metody całkowania równań różniczkowych zwyczajnych.

Równania różniczkowe. Lista nr 2. Literatura: N.M. Matwiejew, Metody całkowania równań różniczkowych zwyczajnych. Równania różniczkowe. Lisa nr 2. Lieraura: N.M. Mawiejew, Meody całkowania równań różniczkowych zwyczajnych. W. Krysicki, L. Włodarski, Analiza Maemayczna w Zadaniach, część II 1. Znaleźć ogólną posać

Bardziej szczegółowo

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006 SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu

Bardziej szczegółowo

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne

Systemy decyzyjne Wyk lad 4: Drzewa decyzyjne Systemy decyzyjne Wyk lad 4: Outline Wprowadzenie 1 Wprowadzenie 2 Problem brakujacych wartości 3 Co to jest drzewo decyzyjne Jest to struktura drzewiasta, w której wez ly wewnetrzne zawieraja testy na

Bardziej szczegółowo

Zarządzanie Projektami. Wykład 3 Techniki sieciowe (część 1)

Zarządzanie Projektami. Wykład 3 Techniki sieciowe (część 1) Zarządzanie Projekami Wykład 3 Techniki sieciowe (część ) Przedsięwzięcie wieloczynnościowe Przedsięwzięcie wieloczynnościowe skończona liczba wzajemnie ze sobą powiązanych czynności (eapów). Powiązania

Bardziej szczegółowo

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew.

PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH. Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew. PODSTAWY STATYSTYCZNEGO MODELOWANIA DANYCH Wykład 6 Drzewa klasyfikacyjne - wprowadzenie. Reguły podziału i reguły przycinania drzew. Wprowadzenie Drzewo klasyfikacyjne Wprowadzenie Formalnie : drzewo

Bardziej szczegółowo

EKSPLORACJA DANYCH Dzięki uprzejmości Dr. Jakuba Wróblewskiego

EKSPLORACJA DANYCH Dzięki uprzejmości Dr. Jakuba Wróblewskiego EKSPLORACJA DANYCH Dzięki uprzejmości Dr. Jakuba Wróblewskiego http://www.jakubw.pl/zajecia/hur/bi.pdf http://www.jakubw.pl/zajecia/hur/dw.pdf http://www.jakubw.pl/zajecia/hur/dw2.pdf http://www.jakubw.pl/zajecia/hur/dm.pdf

Bardziej szczegółowo

Dendrochronologia Tworzenie chronologii

Dendrochronologia Tworzenie chronologii Dendrochronologia Dendrochronologia jes nauką wykorzysującą słoje przyrosu rocznego drzew do określania wieku (daowania) obieków drewnianych (budynki, przedmioy). Analizy różnych paramerów słojów przyrosu

Bardziej szczegółowo

Całka nieoznaczona Andrzej Musielak Str 1. Całka nieoznaczona

Całka nieoznaczona Andrzej Musielak Str 1. Całka nieoznaczona Całka nieoznaczona Andrzej Musielak Sr Całka nieoznaczona Całkowanie o operacja odwrona do liczenia pochodnych, zn.: f()d = F () F () = f() Z definicji oraz z abeli pochodnych funkcji elemenarnych od razu

Bardziej szczegółowo

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz

Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2. dr Piotr Wąsiewicz Wybrane zadania przygotowujące do egzaminu z ISO- cz. 2 dr Piotr Wąsiewicz. Ze zbioru treningowego podanego w tabeli poniżej wykreować metodą zstępującej konstrukcji drzewo decyzyjne(jak najmniej rozbudowane-

Bardziej szczegółowo

Agnieszka Nowak Brzezińska

Agnieszka Nowak Brzezińska Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia

Bardziej szczegółowo

Stanisław Cichocki Natalia Nehrebecka. Wykład 4

Stanisław Cichocki Natalia Nehrebecka. Wykład 4 Sanisław Cichocki Naalia Nehrebecka Wykład 4 1 1. Badanie sacjonarności: o o o Tes Dickey-Fullera (DF) Rozszerzony es Dickey-Fullera (ADF) Tes KPSS 2. Modele o rozłożonych opóźnieniach (DL) 3. Modele auoregresyjne

Bardziej szczegółowo

46 Olimpiada Biologiczna

46 Olimpiada Biologiczna 46 Olimpiada Biologiczna Pracownia statystyczno-filogenetyczna Łukasz Banasiak i Jakub Baczyński 22 kwietnia 2017 r. Zasady oceniania rozwiązań zadań Zadanie 1 1.1 Kodowanie cech (5 pkt) 0,5 pkt za poprawne

Bardziej szczegółowo

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2

Klasyfikacja. Indeks Gini Zysk informacyjny. Eksploracja danych. Klasyfikacja wykład 2 Klasyfikacja Indeks Gini Zysk informacyjny Klasyfikacja wykład 2 Kontynuujemy prezentacje metod klasyfikacji. Na wykładzie zostaną przedstawione dwa podstawowe algorytmy klasyfikacji oparte o indukcję

Bardziej szczegółowo

Zastosowania sieci neuronowych oraz modeli alternatywnych. PLAN WYKŁADU

Zastosowania sieci neuronowych oraz modeli alternatywnych.  PLAN WYKŁADU Zastosowania sieci neuronowych oraz modeli alternatywnych http://zajecia.jakubw.pl/nai PLAN WYKŁADU Przykładowe zastosowania sieci Sieci neuronowe a drzewa decyzyjne Sieci neuronowe + zbiory rozmyte KOMPRESJA

Bardziej szczegółowo

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania

Bardziej szczegółowo

E k o n o m e t r i a S t r o n a 1. Nieliniowy model ekonometryczny

E k o n o m e t r i a S t r o n a 1. Nieliniowy model ekonometryczny E k o n o m e r i a S r o n a Nieliniowy model ekonomeryczny Jednorównaniowy model ekonomeryczny ma posać = f( X, X,, X k, ε ) gdzie: zmienna objaśniana, X, X,, X k zmienne objaśniające, ε - składnik losowy,

Bardziej szczegółowo

Kombinowanie prognoz. - dlaczego należy kombinować prognozy? - obejmowanie prognoz. - podstawowe metody kombinowania prognoz

Kombinowanie prognoz. - dlaczego należy kombinować prognozy? - obejmowanie prognoz. - podstawowe metody kombinowania prognoz Noaki do wykładu 005 Kombinowanie prognoz - dlaczego należy kombinować prognozy? - obejmowanie prognoz - podsawowe meody kombinowania prognoz - przykłady kombinowania prognoz gospodarki polskiej - zalecenia

Bardziej szczegółowo

WNIOSKOWANIE STATYSTYCZNE

WNIOSKOWANIE STATYSTYCZNE Wnioskowanie saysyczne w ekonomerycznej analizie procesu produkcyjnego / WNIOSKOWANIE STATYSTYCZNE W EKONOMETRYCZNEJ ANAIZIE PROCESU PRODUKCYJNEGO Maeriał pomocniczy: proszę przejrzeć srony www.cyf-kr.edu.pl/~eomazur/zadl4.hml

Bardziej szczegółowo

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy

Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Wykład 3 Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Dynamiczne struktury danych Lista jest to liniowo uporządkowany zbiór elementów, z których dowolny element

Bardziej szczegółowo

Układy sekwencyjne asynchroniczne Zadania projektowe

Układy sekwencyjne asynchroniczne Zadania projektowe Układy sekwencyjne asynchroniczne Zadania projekowe Zadanie Zaprojekować układ dwusopniowej sygnalizacji opycznej informującej operaora procesu o przekroczeniu przez konrolowany paramer warości granicznej.

Bardziej szczegółowo

KURS EKONOMETRIA. Lekcja 1 Wprowadzenie do modelowania ekonometrycznego ZADANIE DOMOWE. Strona 1

KURS EKONOMETRIA. Lekcja 1 Wprowadzenie do modelowania ekonometrycznego ZADANIE DOMOWE.   Strona 1 KURS EKONOMETRIA Lekcja 1 Wprowadzenie do modelowania ekonomerycznego ZADANIE DOMOWE www.erapez.pl Srona 1 Część 1: TEST Zaznacz poprawną odpowiedź (ylko jedna jes prawdziwa). Pyanie 1 Kóre z poniższych

Bardziej szczegółowo

Rys.1. Podstawowa klasyfikacja sygnałów

Rys.1. Podstawowa klasyfikacja sygnałów Kaedra Podsaw Sysemów echnicznych - Podsawy merologii - Ćwiczenie 1. Podsawowe rodzaje i ocena sygnałów Srona: 1 1. CEL ĆWICZENIA Celem ćwiczenia jes zapoznanie się z podsawowymi rodzajami sygnałów, ich

Bardziej szczegółowo

Algorytmy klasyfikacji

Algorytmy klasyfikacji Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe

Bardziej szczegółowo

Metody klasyfikacji danych - część 1 p.1/24

Metody klasyfikacji danych - część 1 p.1/24 Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji

Bardziej szczegółowo

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB X - ELECTRE TRI

WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB X - ELECTRE TRI WSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB X - ELECTRE TRI 1. Meoda ELECTRE TRI ELECTRE TRI (skró od ang. riage) meoda wspomagająca rozwiązywanie problemów wielokryerialnego sorowania - bardzo podobna

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Sformułowanie Schrödingera mechaniki kwantowej. Fizyka II, lato

Sformułowanie Schrödingera mechaniki kwantowej. Fizyka II, lato Sformułowanie Schrödingera mechaniki kwanowej Fizyka II, lao 018 1 Wprowadzenie Posać funkcji falowej dla fali de Broglie a, sin sin k 1 Jes o przypadek jednowymiarowy Posać a zosała określona meodą zgadywania.

Bardziej szczegółowo

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład Data Mining Wykład 5 Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny Indeks Gini Popularnym kryterium podziału, stosowanym w wielu produktach komercyjnych, jest indeks Gini Algorytm SPRINT

Bardziej szczegółowo

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne

Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son () W5: Drzewa decyzyjne 1 / 38 Systemy decyzyjne Wykªad 5: Drzewa decyzyjne Nguyen Hung Son Przykªad: klasyfikacja robotów Nguyen Hung Son () W5: Drzewa decyzyjne 2 / 38 Przykªad: drzewo

Bardziej szczegółowo

Agnieszka Nowak Brzezińska Wykład III

Agnieszka Nowak Brzezińska Wykład III Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe

Bardziej szczegółowo

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Kompresja danych Streszczenie Studia Dzienne Wykład 10, 1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny

Bardziej szczegółowo

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18 Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)

Bardziej szczegółowo

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną

Bardziej szczegółowo

ALGORYTMY I STRUKTURY DANYCH

ALGORYTMY I STRUKTURY DANYCH ALGORYTMY I STRUKTURY DANYCH Temat : Drzewa zrównoważone, sortowanie drzewiaste Wykładowca: dr inż. Zbigniew TARAPATA e-mail: Zbigniew.Tarapata@isi.wat.edu.pl http://www.tarapata.strefa.pl/p_algorytmy_i_struktury_danych/

Bardziej szczegółowo

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Algorytmy metaheurystyczne Wykład 11. Piotr Syga Algorytmy metaheurystyczne Wykład 11 Piotr Syga 22.05.2017 Drzewa decyzyjne Idea Cel Na podstawie przesłanek (typowo zbiory rozmyte) oraz zbioru wartości w danych testowych, w oparciu o wybrane miary,

Bardziej szczegółowo

SID Wykład 10 Systemy uczace się

SID Wykład 10 Systemy uczace się SID Wykład 10 Systemy uczace się Wydział Matematyki, Informatyki i Mechaniki UW slezak@mimuw.edu.pl Uczenie indukcyjne Obiekty: Decyzja: dane reprezentujace rzeczywisty stan lub obiekt, tworza przestrzeń

Bardziej szczegółowo

Drzewa decyzyjne i lasy losowe

Drzewa decyzyjne i lasy losowe Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM

Bardziej szczegółowo

Wprowadzenie. Data Science Uczenie się pod nadzorem

Wprowadzenie. Data Science Uczenie się pod nadzorem Wprowadzenie Wprowadzenie Wprowadzenie Wprowadzenie Machine Learning Mind Map Historia Wstęp lub uczenie się z przykładów jest procesem budowy, na bazie dostępnych danych wejściowych X i oraz wyjściowych

Bardziej szczegółowo

Niech x 1,..., x n będzie ciągiem zdarzeń. ---

Niech x 1,..., x n będzie ciągiem zdarzeń. --- Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,

Bardziej szczegółowo

RACHUNEK EFEKTYWNOŚCI INWESTYCJI METODY ZŁOŻONE DYNAMICZNE

RACHUNEK EFEKTYWNOŚCI INWESTYCJI METODY ZŁOŻONE DYNAMICZNE RACHUNEK EFEKTYWNOŚCI INWESTYCJI METODY ZŁOŻONE DYNAMICZNE PYTANIA KONTROLNE Czym charakeryzują się wskaźniki saycznej meody oceny projeku inwesycyjnego Dla kórego wskaźnika wyliczamy średnią księgową

Bardziej szczegółowo

WYKORZYSTANIE STATISTICA DATA MINER DO PROGNOZOWANIA W KRAJOWYM DEPOZYCIE PAPIERÓW WARTOŚCIOWYCH

WYKORZYSTANIE STATISTICA DATA MINER DO PROGNOZOWANIA W KRAJOWYM DEPOZYCIE PAPIERÓW WARTOŚCIOWYCH SaSof Polska, el. 12 428 43 00, 601 41 41 51, info@sasof.pl, www.sasof.pl WYKORZYSTANIE STATISTICA DATA MINER DO PROGNOZOWANIA W KRAJOWYM DEPOZYCIE PAPIERÓW WARTOŚCIOWYCH Joanna Maych, Krajowy Depozy Papierów

Bardziej szczegółowo

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F

KODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:

Bardziej szczegółowo

Metody indukcji reguł

Metody indukcji reguł Metody indukcji reguł Indukcja reguł Grupa metod charakteryzująca się wydobywaniem reguł ostrych na podstawie analizy przypadków. Dane doświadczalne składają się z dwóch części: 1) wejściowych X, gdzie

Bardziej szczegółowo

Zarządzanie ryzykiem. Lista 3

Zarządzanie ryzykiem. Lista 3 Zaządzanie yzykiem Lisa 3 1. Oszacowano nasępujący ozkład pawdopodobieńswa dla sóp zwou z akcji A i B (Tabela 1). W chwili obecnej Akcja A ma waość ynkową 70, a akcja B 50 zł. Ile wynosi pięciopocenowa

Bardziej szczegółowo

DYNAMIKA KONSTRUKCJI

DYNAMIKA KONSTRUKCJI 10. DYNAMIKA KONSTRUKCJI 1 10. 10. DYNAMIKA KONSTRUKCJI 10.1. Wprowadzenie Ogólne równanie dynamiki zapisujemy w posaci: M d C d Kd =P (10.1) Zapis powyższy oznacza, że równanie musi być spełnione w każdej

Bardziej szczegółowo

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.

Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka. Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki

Bardziej szczegółowo

Optymalizacja ciągła

Optymalizacja ciągła Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej

Bardziej szczegółowo

DYNAMICZNE MODELE EKONOMETRYCZNE

DYNAMICZNE MODELE EKONOMETRYCZNE DYNAMICZNE MODELE EKONOMETRYCZNE X Ogólnopolskie Seminarium Naukowe, 4 6 września 2007 w Toruniu Kaedra Ekonomerii i Saysyki, Uniwersye Mikołaja Kopernika w Toruniu Uniwersye Gdański Zasosowanie modelu

Bardziej szczegółowo

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu.

Złożoność i zagadnienia implementacyjne. Wybierz najlepszy atrybut i ustaw jako test w korzeniu. Stwórz gałąź dla każdej wartości atrybutu. Konwersatorium Matematyczne Metody Ekonomii Narzędzia matematyczne w eksploracji danych Indukcja drzew decyzyjnych Wykład 3 - część 2 Marcin Szczuka http://www.mimuw.edu.pl/ szczuka/mme/ Plan wykładu Generowanie

Bardziej szczegółowo

Egzamin, AISDI, I termin, 18 czerwca 2015 r.

Egzamin, AISDI, I termin, 18 czerwca 2015 r. Egzamin, AISDI, I termin, 18 czerwca 2015 r. 1 W czasie niezależnym do danych wejściowych działają algorytmy A. sortowanie bąbelkowego i Shella B. sortowanie szybkiego i przez prosty wybór C. przez podział

Bardziej szczegółowo

Witold Orzeszko Uniwersytet Mikołaja Kopernika w Toruniu

Witold Orzeszko Uniwersytet Mikołaja Kopernika w Toruniu DYNAMICZNE MODELE EKONOMETRYCZNE X Ogólnopolskie Seminarium Naukowe, 4 6 września 2007 w Toruniu Kaedra Ekonomerii i Saysyki, Uniwersye Mikołaja Kopernika w Toruniu Uniwersye Mikołaja Kopernika w Toruniu

Bardziej szczegółowo

ψ przedstawia zależność

ψ przedstawia zależność Ruch falowy 4-4 Ruch falowy Ruch falowy polega na rozchodzeniu się zaburzenia (odkszałcenia) w ośrodku sprężysym Wielkość zaburzenia jes, podobnie jak w przypadku drgań, funkcją czasu () Zaburzenie rozchodzi

Bardziej szczegółowo

Modelowanie motywów łańcuchami Markowa wyższego rzędu

Modelowanie motywów łańcuchami Markowa wyższego rzędu Modelowanie motywów łańcuchami Markowa wyższego rzędu Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki 23 października 2008 roku Plan prezentacji 1 Źródła 2 Motywy i ich znaczenie Łańcuchy

Bardziej szczegółowo

A C T A U N I V E R S I T A T I S N I C O L A I C O P E R N I C I EKONOMIA XLIII nr 2 (2012)

A C T A U N I V E R S I T A T I S N I C O L A I C O P E R N I C I EKONOMIA XLIII nr 2 (2012) A C T A U N I V E R S I T A T I S N I C O L A I C O P E R N I C I EKONOMIA XLIII nr 2 (2012) 211 220 Pierwsza wersja złożona 25 października 2011 ISSN Końcowa wersja zaakcepowana 3 grudnia 2012 2080-0339

Bardziej szczegółowo

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Podstawy Automatyki

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Podstawy Automatyki Poliechnika Gdańska Wydział Elekroechniki i Auomayki Kaedra Inżynierii Sysemów Serowania Podsawy Auomayki Repeyorium z Podsaw auomayki Zadania do ćwiczeń ermin T15 Opracowanie: Kazimierz Duzinkiewicz,

Bardziej szczegółowo

DYNAMICZNE MODELE EKONOMETRYCZNE

DYNAMICZNE MODELE EKONOMETRYCZNE DYNAMICZNE MODELE EKONOMETRYCZNE IX Ogólnopolskie Seminarium Naukowe, 6 8 września 005 w Toruniu Kaedra Ekonomerii i Saysyki, Uniwersye Mikołaja Kopernika w Toruniu Pior Fiszeder Uniwersye Mikołaja Kopernika

Bardziej szczegółowo

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania

Bardziej szczegółowo

Zastosowania sieci neuronowych oraz modeli alternatywnych. www.qed.pl/ai/nai2003 PLAN WYKŁADU

Zastosowania sieci neuronowych oraz modeli alternatywnych. www.qed.pl/ai/nai2003 PLAN WYKŁADU Zastosowania sieci neuronowych oraz modeli alternatywnych www.qed.pl/ai/nai23 PLAN WYKŁADU Przykładowe zastosowania sieci Sieci neuronowe a drzewa decyzyjne Sieci neuronowe + zbiory rozmyte KOMPRESJA OBRAZU

Bardziej szczegółowo

ESTYMACJA KRZYWEJ DOCHODOWOŚCI STÓP PROCENTOWYCH DLA POLSKI

ESTYMACJA KRZYWEJ DOCHODOWOŚCI STÓP PROCENTOWYCH DLA POLSKI METODY ILOŚCIOWE W BADANIACH EKONOMICZNYCH Tom XIII/3, 202, sr. 253 26 ESTYMACJA KRZYWEJ DOCHODOWOŚCI STÓP PROCENTOWYCH DLA POLSKI Adam Waszkowski Kaedra Ekonomiki Rolnicwa i Międzynarodowych Sosunków

Bardziej szczegółowo

Ekonometryczne modele nieliniowe

Ekonometryczne modele nieliniowe Ekonoeryczne odele nieliniowe Wykład 4 NMNK, MNW, eody radienowe Lieraura W. Greene Econoeric Analysis, rozdz. 7. sr. -4 J. Hailon 994 ie Series Analysis, sr. 33 5 Chun-Min Kuan 7 Inroducion o Econoeric

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

2.1 Zagadnienie Cauchy ego dla równania jednorodnego. = f(x, t) dla x R, t > 0, (2.1)

2.1 Zagadnienie Cauchy ego dla równania jednorodnego. = f(x, t) dla x R, t > 0, (2.1) Wykład 2 Sruna nieograniczona 2.1 Zagadnienie Cauchy ego dla równania jednorodnego Równanie gań sruny jednowymiarowej zapisać można w posaci 1 2 u c 2 2 u = f(x, ) dla x R, >, (2.1) 2 x2 gdzie u(x, ) oznacza

Bardziej szczegółowo

ED Laboratorium 3. Drzewa decyzyjne

ED Laboratorium 3. Drzewa decyzyjne ED Laboratorium Drzewa decyzyjne 1 Drzewa decyzyjne Algorytmy indukcji drzew decyzyjnych to jeden z klasycznych algorytmów uczenia maszynowego służący do rozwiązywania problemu klasyfikacji. Drzewa decyzyjne

Bardziej szczegółowo

Aproksymacja funkcji a regresja symboliczna

Aproksymacja funkcji a regresja symboliczna Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą

Bardziej szczegółowo

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2

Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.

Bardziej szczegółowo

Testowanie modeli predykcyjnych

Testowanie modeli predykcyjnych Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności

Bardziej szczegółowo

EFEKT DŹWIGNI NA GPW W WARSZAWIE WPROWADZENIE

EFEKT DŹWIGNI NA GPW W WARSZAWIE WPROWADZENIE Paweł Kobus, Rober Pierzykowski Kaedra Ekonomerii i Informayki SGGW e-mail: pawel.kobus@saysyka.info EFEKT DŹWIGNI NA GPW W WARSZAWIE Sreszczenie: Do modelowania asymerycznego wpływu dobrych i złych informacji

Bardziej szczegółowo

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny

Bardziej szczegółowo

Przykładowe B+ drzewo

Przykładowe B+ drzewo Przykładowe B+ drzewo 3 8 1 3 7 8 12 Jak obliczyć rząd indeksu p Dane: rozmiar klucza V, rozmiar wskaźnika do bloku P, rozmiar bloku B, liczba rekordów w indeksowanym pliku danych r i liczba bloków pliku

Bardziej szczegółowo

WYKŁAD FIZYKAIIIB 2000 Drgania tłumione

WYKŁAD FIZYKAIIIB 2000 Drgania tłumione YKŁD FIZYKIIIB Drgania łumione (gasnące, zanikające). F siła łumienia; r F r b& b współczynnik łumienia [ Nm s] m & F m & && & k m b m F r k b& opis różnych zjawisk izycznych Niech Ce p p p p 4 ± Trzy

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II Wykład 6. Drzewa cz. II 1 / 65 drzewa spinające Drzewa spinające Zliczanie drzew spinających Drzewo T nazywamy drzewem rozpinającym (spinającym) (lub dendrytem) spójnego grafu G, jeżeli jest podgrafem

Bardziej szczegółowo

dyfuzja w płynie nieruchomym (lub w ruchu laminarnym) prowadzi do wzrostu chmury zanieczyszczenia

dyfuzja w płynie nieruchomym (lub w ruchu laminarnym) prowadzi do wzrostu chmury zanieczyszczenia 6. Dyspersja i adwekcja w przepływie urbulennym podsumowanie własności laminarnej (molekularnej) dyfuzji: ciągły ruch molekuł (molekularne wymuszenie) prowadzi do losowego błądzenia cząsek zanieczyszczeń

Bardziej szczegółowo

Ą Ą ć Ó Ó Ó Ś Ź Ź Ó ż Ź Ź Ś Ś ż Ę ĘŚ ń ń ć Ś Ą Ę ż ć Ś ć ć Ć Ó Ó ć ć Ó ć Ó ć ć ń ć Ą Ó Ó Ó Ą Ć ń ń Ź Ó ń ć Ó ć ć ć ń ż ć ć Ć Ć ć ż ć Ź Ó ć ć ć ć Ó ć ĘŚ ń ń ż ć Ś ć Ą Ó ń ć ć Ś ć Ę Ć Ę Ó Ó ń ż ź Ó Ó Ś ń

Bardziej szczegółowo

Ó ź ę ę ś Ą Ą Ę Ę Ł ę ę ź Ę ę ę ś ś Ł ę ś ś ę Ą ź ę ś ś ś ś ę ś ę ę ź ę ę ś ę ś ę ę ś Ś ś ę ę ś ś ę ę ę ś ę ę ę ę ś ę ź Ł Ą Ę Ł ę ś ź ść ś ę ę ę ę ę ę ś ś ś ę ę ś ę ę ś ę ź Ć ŚĆ ć ś ś ć ę ś ś ę ś ś ź ś

Bardziej szczegółowo

Ł Ą Ę Ń ć Ź ź ĘŚ ÓŁ Ę Ę ń ń ź Ę ń Ż ć ć ń ń ń Ę ń Ę ń ń Ę ń Ę ń ń ć ć ń Ę Ą Ś ń Ę Ą Ł ź ć Ś ć ć ć Ź Ł Ś ć ć ć ć ć Ł ć ć ź ń ń ń ń ń ń ń ź ź ć ń ć ć ć ź Ł ń Ę ÓŁ ń ź ź ź ń ć ć ć ń ń ń Ą ń ń ń ń ń Ś Ę

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego

Wprowadzenie do uczenia maszynowego Wprowadzenie do uczenia maszynowego Agnieszka Ławrynowicz 12 stycznia 2017 Co to jest uczenie maszynowe? dziedzina nauki, która zajmuje się sprawianiem aby komputery mogły uczyć się bez ich zaprogramowania

Bardziej szczegółowo

Politechnika Częstochowska Wydział Inżynierii Mechanicznej i Informatyki. Sprawozdanie #2 z przedmiotu: Prognozowanie w systemach multimedialnych

Politechnika Częstochowska Wydział Inżynierii Mechanicznej i Informatyki. Sprawozdanie #2 z przedmiotu: Prognozowanie w systemach multimedialnych Poliechnika Częsochowska Wydział Inżynierii Mechanicznej i Informayki Sprawozdanie #2 z przedmiou: Prognozowanie w sysemach mulimedialnych Andrzej Siwczyński Andrzej Rezler Informayka Rok V, Grupa IO II

Bardziej szczegółowo

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych. Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą

Bardziej szczegółowo

Klasyfikacja LDA + walidacja

Klasyfikacja LDA + walidacja Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja

Bardziej szczegółowo

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je. Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie

Bardziej szczegółowo