Inżynieria Wiedzy i Systemy Ekspertowe. Reguły asocjacyjne
|
|
- Janusz Zawadzki
- 8 lat temu
- Przeglądów:
Transkrypt
1 Inżynieria Wiedzy i Systemy Ekspertowe Reguły asocjacyjne Dr inż. Michał Bereta p. 144 / 10, Instytut Modelowania Komputerowego mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl
2 Reguły asocjacyjne związane są z analizą podobieostw (ang. affinity analysis) i ich tworzenie (odkrywanie) jest badaniem atrybutów lub cech, które są powiązane ze sobą. Inna nazwa: analiza koszyka sklepowego (ang. market basket analysis). Odkryte reguły powinny przedstawiad nowe, nieznane wcześniej ilościowe relacje między dwoma lub więcej atrybutami.
3 Reguła asocjacyjna ma postad: JEŚLI POPRZEDNIK, TO NASTĘPNIK + Miara wsparcia + Miara dokładności
4 Przykład: W danym sklepie odkryto, że wśród 1000 klientów poprzedniego wieczoru, 200 kupiło pieluchy, a z tych 200, którzy kupili pieluch, 50 kupiło piwo. Reguła asocjacyjna wynikająca z tej obserwacji: Jeśli kupuje pieluchy, to kupuje piwo Wsparcie tej reguły: 200/1000 = 20% Ufność : 50 / 200 = 25%
5 Przykłady sytuacji, w których reguły asocjacyjne (RA) mogą byd przydatne: Badanie skuteczności akcji promocyjnych Badanie stosunku liczby dzieci, którym rodzice czytają, do liczby tych, które same później chętnie czytają Znajdowanie rzeczy w sklepie, które są często kupowane razem i tych, które rzadko są kupowane razem Określenie relacji między przyjmowanymi lekami, ich dawkami i efektami ubocznymi
6 Są to reguły innego typu niż reguły generowane przez algorytmy AQ oraz CN2. W tym przypadku nie mamy etykiety klas dla każdego przypadku Dysponujemy często ogromną bazą danych o bardzo dużej liczbie atrybutów (np. ile produktów sprzedawanych jest w typowym hipermarkecie? Ile transakcji dziennie) Przekleostwo wymiarowości: liczba możliwych reguł asocjacyjnych rośnie wykładniczo wraz ze wzrostem liczby atrybutów. Przykładowo: dla k atrybutów binarnych, uwzględniając jedynie pozytywne przypadki (np. kupił piwo = tak), liczba możliwych reguł wynosi k * 2 k-1 Dla k=100 : około 6.4 * możliwych reguł
7 Algorytm A priori W celu redukcji stopnia trudności problemu stosuje się algorytm A priori
8 Przykład stragan z warzywami I zbiór kupowanych produktów I = {szparagi, fasola, brokuły, kukurydza, papryka, kabaczki, pomidory} Zakładamy, że interesuje nas tylko, które produkty są kupowane razem, a nie w jakiej ilości
9 Transakcja Kupione artykuły Przykładowe transakcje 1 Brokuły, papryka, kukurydza 2 Szparagi, kabaczki, kukurydza 3 Kukurydza, pomidory, fasola, kabaczki 4 Papryka, kukurydza, pomidory, fasola 5 Fasola, szparagi, brokuły 6 Kabaczki, szparagi, fasola, pomidory 7 Pomidory, kukurydza 8 Brokuły, pomidory, papryka 9 Kabaczki, szparagi, fasola 10 Fasola, kukurydza 11 Papryka, brokuły, fasola, kabaczki 12 Szparagi, fasola, kabaczki 13 Kabaczki, kukurydza, szparagi, fasola 14 Kukurydza, papryka, pomidory, fasola, brokuły
10 Dwie formy prezentowania tego typu danych Transakcyjny format danych posiada dwa pola Pole identyfikujące transakcję (ID) Pole zawartości każdy rekord zawiera jedynie pojedynczy artykuł Macierzowy format danych Każdy rekord reprezentuje osobną transakcję, z tyloma binarnymi polami, ile jest artykułów
11 Transakcyjny format danych Transakcja Kupione artykuły 1 Brokuły 1 Papryka 1 Kukurydza 2 Szparagi 2 Kabaczki 2 Kukurydza 3 Kukurydza 3 Pomidory
12 Macierzowy format danych Transakcja Szparagi Fasola Brokuły Kukurydza Papryka Kabaczki Pomidory
13 Załóżmy, że mamy zbiór artykułów A oraz zbiór artykułów B. RA to reguła typu: Jeśli A, to B, gdzie A i B to podzbiory właściwe zbioru I są wzajemnie rozłączne (by nie dostad reguł trywialnych typu: Jeśli papryka i fasola, to papryka)
14 Wsparcie (ang. support) s dla danej RA: A B to procent transakcji w D (D zbiór wszystkich transakcji), które zawierają A i B. wsparcie P( A B) liczba _ transakcji _ zawierajacych _ A_ i liczba _ wszystkich _ transakcji _ B
15 Ufnośd(ang. confidence) c dla danej RA: A B to miara pewności reguły określona jako procent transakcji zawierających A, które również zawierają B. P( A B) ufnosc P( B A) P( A) liczba _ transakcji _ zawierajacych _ A_ i _ liczba _ transakcji _ zawierajacych _ A B
16 Preferowane są reguły o dużych wartościach zarówno wsparcia jak i ufności Ale: Analityk wykrywający oszustwa lub zagrożenie antyterrorystyczne może byd zainteresowany regułami o wsparciu 1% (ponieważ jest stosunkowo mało transakcji oszukaoczych)
17 Zbiór zdarzeo to zbiór zawarty w zbiorze I. Przykład: {fasola, kabaczki} 2-elementowy zbiór zdarzeo,brokuły, papryka, kabaczki- 3-elementowy zbiór zdarzeo
18 Zbiór zdarzeo to zbiór zawarty w zbiorze I. Przykład: {fasola, kabaczki} dwu-elementowy zbiór zdarzeo,brokuły, papryka, kabaczki- 3-elementowy zbiór zdarzeo Częstośd zbioru zdarzeo liczba transakcji zawierająca dany zbiór zdarzeo
19 Zbiór zdarzeo to zbiór zawarty w zbiorze I. Przykład: {fasola, kabaczki} dwu-elementowy zbiór zdarzeo,brokuły, papryka, kabaczki- 3-elementowy zbiór zdarzeo Częstośd zbioru zdarzeo liczba transakcji zawierająca dany zbiór zdarzeo Zbiór częsty zbiór zdarzeo występujący przynajmniej pewną minimalną liczbę razy, czyli z częstością φ Przykładowo, przyjmijmy w naszym przykładzie φ 4
20 Zbiór zdarzeo to zbiór zawarty w zbiorze I. Przykład: {fasola, kabaczki} dwu-elementowy zbiór zdarzeo,brokuły, papryka, kabaczki- 3-elementowy zbiór zdarzeo Częstośd zbioru zdarzeo liczba transakcji zawierająca dany zbiór zdarzeo Zbiór częsty zbiór zdarzeo występujący przynajmniej pewną minimalną liczbę razy, czyli z częstością φ Przykładowo, przyjmijmy w naszym przykładzie φ 4 F k - zbiór częstych zbiorów zdarzeo o k elementach
21 Odkrywanie RA składa się z dwóch kroków: Znajdź wszystkie częste zbiory zdarzeo tzn. zbiory zdarzeo o częstości φ Na podstawie częstych zdarzeo utwórz reguły asocjacyjne, które spełniają warunek minimalnego wsparcia i poziomu ufności.
22 Algorytm A priori Korzysta z właściwości a priori w celu zmniejszenia przestrzeni poszukiwao. Właściwośd a priori Jeżeli dany zbiór zdarzeo Z nie jest częsty to dodanie dowolnego artykułu A do zbioru Z nie spowoduje, że zbiór ten będzie zbiorem częstym. Ogólnie, żaden nadzbiór Z, (tzn. zbiór zawierający Z) nie będzie zbiorem częstym.
23 Algorytm A priori Tworzenie częstych zbiorów zdarzeo Najpierw znajdujemy F 1, czyli jednoelementowe zbiory częste, które są w naszym przykładzie poszczególnymi warzywami W naszym przykładzie wszystkie warzywa są częste, zatem F 1 =,szparagi, fasola, brokuły, kukurydza, papryka, kabaczki, pomidory}
24 Algorytm A priori Tworzenie częstych zbiorów zdarzeo Następnie tworzymy częste zbiory dwuelementowe Ogólnie, aby stworzyd F k, algorytm najpierw tworzy zbiór kandydatów C k, poprzez połączenie zbiorów z F k-1. przycina C k za pomocą właściwości a priori
25 Algorytm A priori Tworzenie częstych zbiorów zdarzeo Przy założeniu φ 4 otrzymujemy F 2 = { {szparagi, fasola}, {szparagi, kabaczki}, {fasola, kukurydza}, {fasola, kabaczki}, {fasola, pomidory},,brokuły, papryka-, {kukurydza, pomidory} }
26 Algorytm A priori Tworzenie częstych zbiorów zdarzeo Aby utworzyd C 3, używamy zbioru F 2. Łączymy ze sobą zbiory z F 2, pod warunkiem, że mają one wspólnych pierwszych k-1 przodków Np.,szparagi, fasola- łączymy z,szparagi, kabaczki- C 3 ={ {szparagi, fasola, kabaczki}, {fasola, kukurydza, kabaczki}, {fasola, kukurydza, pomidory}, {fasola, kabaczki, pomidory} } C 3 jest przycinany za pomocą własności a priori. Dla każdego zbioru s z C 3 są tworzone i sprawdzane podzbiory o rozmiarze k-1 Jeżeli dowolny z tych podzbiorów nie jest częsty, wtedy s nie może byd częste i jest usuwane Nadal musimy sprawdzid licznośd pozostałych kandydatów, aby utworzyd F 3
27 Algorytm A priori Tworzenie częstych zbiorów zdarzeo Ostatecznie F 3 = { {szparagi, fasola, kabaczki} } Nie ma więcej zbiorów częstych.
28 Algorytm A priori Tworzenie reguł asocjacyjnych Dla każdego częstego zbioru s: Dla każdego ss, czyli niepustego podzbioru s: Rozważ regułę R: JEŚLI ss TO (s ss) Zwród regułę R, jeśli spełnia ona minimalne wymagania ufności.
29 Algorytm A priori Tworzenie reguł asocjacyjnych Np. dla s={szparagi, fasola, kabaczki} z F 3 mamy właściwe podzbiory: {szparagi} {fasola} {kabaczki} {szparagi, fasola} {szparagi, kabaczki} {fasola, kabaczki}
30 Algorytm A priori Tworzenie reguł asocjacyjnych JEŚLI kupuje szparagi i fasolę, TO kupuje kabaczki Wsparcie = 4 / 14 = 28.6% Ufnośd = 4 / 5 = 80% Mnożenie wsparcia i ufności pozwala ustawid reguły pod względem występowania i dokładności.
31 Ostatecznie, przyjmując minimalną ufnośd 80% JEŚLI poprzednik, TO następnik Wsparcie Ufnośd Wsparcie x Ufnośd JEŚLI kabaczki, TO fasola 6 / 14 = 42.9% 6 / 7 = 85.7% JEŚLI szparagi, TO fasola 5 / 14 = 35.7% 5 / 6 = 83.3% JEŚLI szparagi, TO kabaczki 5 / 14 = 35.7% 5 / 6 = 83.3% JEŚLI brokuły, TO papryka 4 / 14 = 28.6% 4 / 5 = 80% JEŚLI papryka, TO brokuły 4 / 14 = 28.6% 4 / 5 = 80% JEŚLI szparagi i fasola, TO kabaczki 4 / 14 = 28.6% 4 / 5 = 80% JEŚLI szparagi i kabaczki, TO fasola 4 / 14 = 28.6% 4 / 5 = 80%
32 Jak wykorzystad tę wiedzę? Czy zmienid rozmieszczenie produktów? Czy obsługa powinna podpowiadad klientom, by nie zapomnieli o A jeśli kupili B?
33 Reguły asocjacyjne nie są ograniczone jedynie do danych typu binarnego Dla danych jakościowych algorytm zlicza występowanie danej wartości danego atrybutu (np. kolor włosów = czarny)
34 Dla zmiennych ilościowych Zmienne ilościowe można poddad dyskretyzacji Np. przedział *0, 100+ podzielid na jakościowe wartości mały, średni, duży Może to prowadzid do utraty informacji (różne wartości są traktowane np. jako małe, mimo, że różnią się od siebie) Można zastosowad uogólnioną indukcję reguł
35 Uogólniona indukcja reguł (ang. generalized rule induction, GRI) Może przyjmowad na wejściu zarówno zmienne ilościowe jak i jakościowe Nadal wymaga zmiennych jakościowych na wyjściu Zamiast używad częstych zbiorów zdarzeo stosowane jest podejście teorii informacji (ang. information-theoretic approach)
36 GRI stosuje J-miarę p(x) prawdopodobieostwo lub ufnośd obserwowanej wartości x. Jest to miara zakresu poprzednika, jak rozpowszechniona jest ta wartośd atrybutu poprzednika. Można obliczyd p(x) za pomocą rozkładu częstości dla zmiennych z poprzednika.
37 GRI stosuje J-miarę p(y) prawdopodobieostwo lub ufnośd wartości y, miara występowania następnika. Wartośd p(y) można obliczyd za pomocą rozkładu częstości następnika.
38 GRI stosuje J-miarę p(y x) prawdopodobieostwo warunkowe lub późniejsza ufnośd zmiennej y dla danego x, które następuje. Jest to miara prawdopodobieostwa zaobserwowania wartości y pod warunkiem, że występuje x. W terminologii reguł asocjacyjnych, p(y x) jest mierzone bezpośrednio jako ufnośd reguły.
39 GRI stosuje J-miarę Dla reguł z więcej niż jednym poprzednikiem, p(x) jest obliczane jako prawdopodobieostwo koniunkcji wartości zmiennych w poprzedniku.
40 GRI Użytkownik określa pożądany poziom ufności i wsparcia Określa również ile reguł chce wygenerowad Algorytm GRI generuje najpierw reguły z pojedynczymi poprzednikami i oblicza wartośd J Jeżeli nowa reguła ma większą wartośd niż minimum w tabeli reguł i mamy już maksymalną liczbę reguł, wtedy reguła z minimalną wartością J jest zastępowana przez nową regułę Następnie rozważane są reguły z większą liczba poprzedników
41 Miara J ma ciekawe własności: Dla dużych wartości p(x) rośnie wartośd J, zatem GRI faworyzuje reguły o częstych poprzednikach (lepsze pokrycie w zbiorze danych) Miara J osiąga większe wartości dla bardzo skrajnych (bliskich 0 lub 1) wartości p(y) oraz p(x y). Zatem GRI ma tendencję do faworyzowania reguł, dla których prawdopodobieostwo następnika, p(y), jest bardzo skrajne lub ufnośd reguły jest bardziej skrajna. Zatem miara J faworyzuje reguły z bardzo dużą lub bardzo małą ufnością
42 Miara J faworyzuje reguły z bardzo dużą lub bardzo małą ufnością Dlaczego możemy byd zainteresowani regułami o bardzo małej ufności? Przykładowo, mamy regułę: Jeśli kupuje piwo, to kupuje lakier do paznokci Ufnośd: 0.01% Analityk może wtedy rozważad przeciwną formę: Jeśli kupuje piwo, to NIE kupuje lakieru do paznokci Ufnośd: 99.99% Takie negatywne reguły są często interesujące (Może warto przenieśd lakier do paznokci ze stoiska z piwem gdzie indziej? )
43 Kiedy nie stosowad reguł asocjacyjnych? RA mogą byd czasami zwodnicze Przykład: Analityk chce wspierad kampanię wymierzoną w mężczyzn. Na podstawie bazy danych otrzymuje regułę: Jeśli rodzaj_pracy = praca_w_budżetówce, to płed = mężczyzna Ufnośd: 0.63 Może się wydawad, że wysyłając ofertę na adresy tylko placówek budżetówki, zwiększa szansę, że trafi ona do mężczyzn.
44 Jednak jeśli procent mężczyzn w bazie jest większy, np. 0.69, to stosowanie reguły w porównaniu do stosowania całkiem losowego wyboru, w gruncie rzeczy obniża prawdopodobieostwo trafienia z ofertą do mężczyzny. Do oceny reguł można zatem posłużyd się nie bezpośrednio wartością ufności, lecz raczej miarą wzrostu ufności (np. różnicą ufności, ang.confidence difference) i faworyzowad reguły zapewniające największy wzrost ufności.
45 Alternatywnie, można używad ilorazu ufności (ang. confidence ratio) iloraz _ ufnosci 1 min p( y x) p( y), p( y) p( y x)
46 Czy tworzenie RA to uczenie nadzorowane (jak np. algorytm AQ, CN2) czy nienadzorowane (jak metody grupowania, np. k-średnich)?
47 Tworzenie RA może byd użyte jako Uczenie nienadzorowane gdy nie wskazujemy z góry zmiennej celu, która ma wystąpid w następniku generowanych reguł (np. kogoś interesuje jakie produkty są kupowane razem ) Uczenie nadzorowane np. gdy ktoś jest zainteresowany odkryciem reguł, w których następnik jest ustalony, np. na kogo kto głosował, biorąc pod uwagę dowolne dostępne dane o tej osobie, jak wiek, majątek, wykształcenie, itd.)
48 Model vs Wzorzec Model to globalny opis lub wytłumaczenie całych danych, pozwalający uogólnid dostępne dane na całą populację. Model obejmuje i tłumaczy całośd danych. Wzorzec ma charakter lokalny, tzn. odnosi się jedynie do części dostępnych danych.
49 Model vs Wzorzec Reguły asocjacyjne dobrze nadają się do odkrywania lokalnych wzorców w danych.
50 KONIEC
Eksploracja danych - wykład VIII
I Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 2 grudnia 2016 1/31 1 2 2/31 (ang. affinity analysis) polega na badaniu atrybutów lub cech, które są ze sobą powiązane. Metody
Bardziej szczegółowoMetody eksploracji danych. Reguły asocjacyjne
Metody eksploracji danych Reguły asocjacyjne Analiza podobieństw i koszyka sklepowego Analiza podobieństw jest badaniem atrybutów lub cech, które są powiązane ze sobą. Metody analizy podobieństw, znane
Bardziej szczegółowoReguły asocjacyjne. Żródło: LaroseD.T., Discovering Knowledge in Data. An Introduction to Data Minig, John Wiley& Sons, Hoboken, New Jersey, 2005.
Reguły asocjacyjne Żródło: LaroseD.T., Discovering Knowledge in Data. An Introduction to Data Minig, John Wiley& Sons, Hoboken, New Jersey, 2005. Stragan warzywny -transakcje zakupów Transakcja Produkty
Bardziej szczegółowoINDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH 1. Czym jest eksploracja danych Eksploracja danych definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych
Bardziej szczegółowoWprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2
Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł
Bardziej szczegółowoReguły asocjacyjne w programie RapidMiner Michał Bereta
Reguły asocjacyjne w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Reguły asocjacyjne mają na celu odkrycie związków współwystępowania pomiędzy atrybutami. Stosuje się je często do danych
Bardziej szczegółowoĆwiczenie 5. Metody eksploracji danych
Ćwiczenie 5. Metody eksploracji danych Reguły asocjacyjne (association rules) Badaniem atrybutów lub cech, które są powiązane ze sobą, zajmuje się analiza podobieństw (ang. affinity analysis). Metody analizy
Bardziej szczegółowoOdkrywanie asocjacji
Odkrywanie asocjacji Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Odkrywanie asocjacji wykład 1 Wykład jest poświęcony wprowadzeniu i zaznajomieniu się z problemem odkrywania reguł asocjacyjnych.
Bardziej szczegółowoEwelina Dziura Krzysztof Maryański
Ewelina Dziura Krzysztof Maryański 1. Wstęp - eksploracja danych 2. Proces Eksploracji danych 3. Reguły asocjacyjne budowa, zastosowanie, pozyskiwanie 4. Algorytm Apriori i jego modyfikacje 5. Przykład
Bardziej szczegółowoOdkrywanie asocjacji
Odkrywanie asocjacji Cel odkrywania asocjacji Znalezienie interesujących zależności lub korelacji, tzw. asocjacji Analiza dużych zbiorów danych Wynik procesu: zbiór reguł asocjacyjnych Witold Andrzejewski,
Bardziej szczegółowoData Mining Wykład 3. Algorytmy odkrywania binarnych reguł asocjacyjnych. Plan wykładu
Data Mining Wykład 3 Algorytmy odkrywania binarnych reguł asocjacyjnych Plan wykładu Algorytm Apriori Funkcja apriori_gen(ck) Generacja zbiorów kandydujących Generacja reguł Efektywności działania Własności
Bardziej szczegółowoSystemy Wspomagania Decyzji
Reguły Asocjacyjne Szkoła Główna Służby Pożarniczej Zakład Informatyki i Łączności March 18, 2014 1 Wprowadzenie 2 Definicja 3 Szukanie reguł asocjacyjnych 4 Przykłady użycia 5 Podsumowanie Problem Lista
Bardziej szczegółowoZastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Analiza asocjacji i sekwencji Analiza asocjacji Analiza asocjacji polega na identyfikacji
Bardziej szczegółowoWielopoziomowe i wielowymiarowe reguły asocjacyjne
Wielopoziomowe i wielowymiarowe reguły asocjacyjne Wielopoziomowe reguły asocjacyjne Wielowymiarowe reguły asocjacyjne Asocjacje vs korelacja Odkrywanie asocjacji wykład 3 Kontynuując zagadnienia związane
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING. EKSPLORACJA DANYCH Ćwiczenia. Adrian Horzyk. Akademia Górniczo-Hutnicza
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING EKSPLORACJA DANYCH Ćwiczenia Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Bardziej szczegółowoReguły asocjacyjne, wykł. 11
Reguły asocjacyjne, wykł. 11 Joanna Jędrzejowicz Instytut Informatyki Przykłady reguł Analiza koszyka sklepowego (ang. market basket analysis) - jakie towary kupowane są razem, Jakie towary sprzedają się
Bardziej szczegółowoAlgorytm DIC. Dynamic Itemset Counting. Magdalena Przygórzewska Karolina Stanisławska Aleksander Wieczorek
Algorytm DIC Dynamic Itemset Counting Magdalena Przygórzewska Karolina Stanisławska Aleksander Wieczorek Spis treści 1 2 3 4 Algorytm DIC jako rozszerzenie apriori DIC Algorytm znajdowania reguł asocjacyjnych
Bardziej szczegółowoInżynieria biomedyczna
Inżynieria biomedyczna Projekt Przygotowanie i realizacja kierunku inżynieria biomedyczna studia międzywydziałowe współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego.
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Bardziej szczegółowoHierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Bardziej szczegółowoAlgorytmy odkrywania binarnych reguł asocjacyjnych
Algorytmy odkrywania binarnych reguł asocjacyjnych A-priori FP-Growth Odkrywanie asocjacji wykład 2 Celem naszego wykładu jest zapoznanie się z dwoma podstawowymi algorytmami odkrywania binarnych reguł
Bardziej szczegółowoOdkrywanie wiedzy w danych
Inżynieria Wiedzy i Systemy Ekspertowe Odkrywanie wiedzy w danych dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Data Mining W pewnym teleturnieju
Bardziej szczegółowo1. Odkrywanie asocjacji
1. 2. Odkrywanie asocjacji...1 Algorytmy...1 1. A priori...1 2. Algorytm FP-Growth...2 3. Wykorzystanie narzędzi Oracle Data Miner i Rapid Miner do odkrywania reguł asocjacyjnych...2 3.1. Odkrywanie reguł
Bardziej szczegółowoReguły asocjacyjne. 1. Uruchom system weka i wybierz aplikację Knowledge Flow.
Reguły asocjacyjne Niniejsze ćwiczenie demonstruje działanie implementacji algorytmu apriori w systemie WEKA. Ćwiczenie ma na celu zaznajomienie studenta z działaniem systemu WEKA oraz znaczeniem podstawowych
Bardziej szczegółowoPlan prezentacji 0 Wprowadzenie 0 Zastosowania 0 Przykładowe metody 0 Zagadnienia poboczne 0 Przyszłość 0 Podsumowanie 7 Jak powstaje wiedza? Dane Informacje Wiedza Zrozumienie 8 Przykład Teleskop Hubble
Bardziej szczegółowoSAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
Bardziej szczegółowoObiektowy PHP. Czym jest obiekt? Definicja klasy. Składowe klasy pola i metody
Obiektowy PHP Czym jest obiekt? W programowaniu obiektem można nazwać każdy abstrakcyjny byt, który programista utworzy w pamięci komputera. Jeszcze bardziej upraszczając to zagadnienie, można powiedzieć,
Bardziej szczegółowoAnaliza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
Bardziej szczegółowoReguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori.
Analiza danych Reguły decyzyjne, algorytm AQ i CN2. Reguły asocjacyjne, algorytm Apriori. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ REGUŁY DECYZYJNE Metoda reprezentacji wiedzy (modelowania
Bardziej szczegółowoMetody Inżynierii Wiedzy
Metody Inżynierii Wiedzy Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie AGH University of Science and Technology Mateusz Burcon Kraków, czerwiec 2017 Wykorzystane technologie Python 3.4
Bardziej szczegółowoSYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Bardziej szczegółowoEksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
Bardziej szczegółowoKrzysztof Kawa. empolis arvato. e mail: krzysztof.kawa@empolis.com
XI Konferencja PLOUG Kościelisko Październik 2005 Zastosowanie reguł asocjacyjnych, pakietu Oracle Data Mining for Java do analizy koszyka zakupów w aplikacjach e-commerce. Integracja ze środowiskiem Oracle
Bardziej szczegółowo2. Empiryczna wersja klasyfikatora bayesowskiego
Algorytmy rozpoznawania obrazów 2. Empiryczna wersja klasyfikatora bayesowskiego dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Brak pełnej informacji probabilistycznej Klasyfikator bayesowski
Bardziej szczegółowomgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Bardziej szczegółowoText mining w programie RapidMiner Michał Bereta www.michalbereta.pl
Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Aby skorzystać z możliwości RapidMinera w zakresie analizy tekstu, należy zainstalować Text Mining Extension. Wybierz: 1 Po
Bardziej szczegółowoTestowanie hipotez statystycznych
Agenda Instytut Matematyki Politechniki Łódzkiej 2 stycznia 2012 Agenda Agenda 1 Wprowadzenie Agenda 2 Hipoteza oraz błędy I i II rodzaju Hipoteza alternatywna Statystyka testowa Zbiór krytyczny Poziom
Bardziej szczegółowoMichał Kukliński, Małgorzata Śniegocka-Łusiewicz
A C T A U N I V E R S I T A T I S N I C O L A I C O P E R N I C I EKONOMIA XXXIX NAUKI HUMANISTYCZNO-SPOŁECZNE ZESZYT 389 TORUŃ 2009 Uniwersytet Mikołaja Kopernika w Toruniu Katedra Ekonometrii i Statystyki
Bardziej szczegółowoKrzysztof Kluza proste ćwiczenia z baz danych
Bazy danych Baza danych to uporządkowany zbiór danych, dający się łatwo przeszukiwać. Każda pozycja bazy danych nazywana jest rekordem, z kolei rekordy składają się z pól. Przyjmując, że dysponujemy bazą
Bardziej szczegółowoInformacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Bardziej szczegółowoB jest globalnym pokryciem zbioru {d} wtedy i tylko wtedy, gdy {d} zależy od B i nie istnieje B T takie, że {d} zależy od B ;
Algorytm LEM1 Oznaczenia i definicje: U - uniwersum, tj. zbiór obiektów; A - zbiór atrybutów warunkowych; d - atrybut decyzyjny; IND(B) = {(x, y) U U : a B a(x) = a(y)} - relacja nierozróżnialności, tj.
Bardziej szczegółowoStatystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału
Bardziej szczegółowoMatematyka dyskretna. Andrzej Łachwa, UJ, /10
Matematyka dyskretna Andrzej Łachwa, UJ, 2018 andrzej.lachwa@uj.edu.pl 10/10 Podziały i liczby Stirlinga Liczba Stirlinga dla cykli (często nazywana liczbą Stirlinga pierwszego rodzaju) to liczba permutacji
Bardziej szczegółowoAnaliza danych i data mining.
Analiza danych i data mining. mgr Katarzyna Racka Wykładowca WNEI PWSZ w Płocku Przedsiębiorczy student 2016 15 XI 2016 r. Cel warsztatu Przekazanie wiedzy na temat: analizy i zarządzania danymi (data
Bardziej szczegółowoKlasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Bardziej szczegółowoKlasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)
Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne) Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski Klasyfikacja i predykcja. Odkrywaniem reguł klasyfikacji nazywamy proces znajdowania
Bardziej szczegółowoLABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych
Bardziej szczegółowoOdkrywanie reguł asocjacyjnych. Rapid Miner
Odkrywanie reguł asocjacyjnych Rapid Miner Zbiory częste TS ID_KLIENTA Koszyk 12:57 1123 {mleko, pieluszki, piwo} 13:12 1412 {mleko, piwo, bułki, masło, pieluszki} 13:55 1425 {piwo, wódka, wino, paracetamol}
Bardziej szczegółowoSpacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Bardziej szczegółowoAnaliza i eksploracja danych
Krzysztof Dembczyński Instytut Informatyki Zakład Inteligentnych Systemów Wspomagania Decyzji Politechnika Poznańska Inteligentne Systemy Wspomagania Decyzji Studia magisterskie, semestr I Semestr letni
Bardziej szczegółowoKlasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
Bardziej szczegółowoLABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI
LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI WERYFIKACJA HIPOTEZ Hipoteza statystyczna jakiekolwiek przypuszczenie dotyczące populacji generalnej- jej poszczególnych
Bardziej szczegółowoCharakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej)
Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej) 1 Podział ze względu na zakres danych użytych do wyznaczenia miary Miary opisujące
Bardziej szczegółowoTestowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
Bardziej szczegółowoSztuczna Inteligencja Projekt
Sztuczna Inteligencja Projekt Temat: Algorytm LEM2 Liczba osób realizujących projekt: 2 1. Zaimplementować algorytm LEM 2. 2. Zaimplementować klasyfikator Classif ier. 3. Za pomocą algorytmu LEM 2 wygenerować
Bardziej szczegółowodata mining machine learning data science
data mining machine learning data science deep learning, AI, statistics, IoT, operations research, applied mathematics KISIM, WIMiIP, AGH 1 Machine Learning / Data mining / Data science Uczenie maszynowe
Bardziej szczegółowo1 Działania na zbiorach
M. Beśka, Wstęp do teorii miary, rozdz. 1 1 1 Działania na zbiorach W rozdziale tym przypomnimy podstawowe działania na zbiorach koncentrując się na własnościach tych działań, które będą przydatne w dalszej
Bardziej szczegółowoElementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Bardziej szczegółowoPlan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty
Plan wykładu Reguły asocjacyjne Marcin S. Szczuka Wykład 6 Terminologia dla reguł asocjacyjnych. Ogólny algorytm znajdowania reguł. Wyszukiwanie czstych zbiorów. Konstruowanie reguł - APRIORI. Reguły asocjacyjne
Bardziej szczegółowoWprowadzenie do programu RapidMiner, część 4 Michał Bereta
Wprowadzenie do programu RapidMiner, część 4 Michał Bereta www.michalbereta.pl 1. Wybór atrybutów (ang. attribute selection, feature selection). Jedną z podstawowych metod analizy współoddziaływania /
Bardziej szczegółowoWykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne
Wykład 4 Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym 2. Rozkłady próbkowe 3. Centralne twierdzenie graniczne Przybliżenie rozkładu dwumianowego rozkładem normalnym Niech Y ma rozkład
Bardziej szczegółowoNiech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX = 4 i EY = 6. Rozważamy zmienną losową Z =.
Prawdopodobieństwo i statystyka 3..00 r. Zadanie Niech X i Y będą niezależnymi zmiennymi losowymi o rozkładach wykładniczych, przy czym Y EX 4 i EY 6. Rozważamy zmienną losową Z. X + Y Wtedy (A) EZ 0,
Bardziej szczegółowoData Mining z wykorzystaniem programu Rapid Miner
Data Mining z wykorzystaniem programu Rapid Miner Michał Bereta www.michalbereta.pl Program Rapid Miner jest dostępny na stronie: http://rapid-i.com/ Korzystamy z bezpłatnej wersji RapidMiner Community
Bardziej szczegółowoWnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Bardziej szczegółowoPróba własności i parametry
Próba własności i parametry Podstawowe pojęcia Zbiorowość statystyczna zbiór jednostek (obserwacji) nie identycznych, ale stanowiących logiczną całość Zbiorowość (populacja) generalna skończony lub nieskończony
Bardziej szczegółowoWYKŁAD 6. Reguły decyzyjne
Wrocław University of Technology WYKŁAD 6 Reguły decyzyjne autor: Maciej Zięba Politechnika Wrocławska Reprezentacje wiedzy Wiedza w postaci reguł decyzyjnych Wiedza reprezentowania jest w postaci reguł
Bardziej szczegółowoNormalizacja baz danych
Normalizacja baz danych Definicja 1 1 Normalizacja to proces organizowania danych w bazie danych. Obejmuje to tworzenie tabel i ustanawianie relacji między tymi tabelami zgodnie z regułami zaprojektowanymi
Bardziej szczegółowoVI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15
VI WYKŁAD STATYSTYKA 9/04/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 6 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI Weryfikacja hipotez ( błędy I i II rodzaju, poziom istotności, zasady
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoBAZY DANYCH model związków encji. Opracował: dr inż. Piotr Suchomski
BAZY DANYCH model związków encji Opracował: dr inż. Piotr Suchomski Świat rzeczywisty a baza danych Świat rzeczywisty Diagram związków encji Model świata rzeczywistego Założenia, Uproszczenia, ograniczenia
Bardziej szczegółowoAlgorytmy klasyfikacji
Algorytmy klasyfikacji Konrad Miziński Instytut Informatyki Politechnika Warszawska 6 maja 2015 1 Wnioskowanie 2 Klasyfikacja Zastosowania 3 Drzewa decyzyjne Budowa Ocena jakości Przycinanie 4 Lasy losowe
Bardziej szczegółowoOdkrywanie asocjacji. Cel. Geneza problemu analiza koszyka zakupów
Odkrywanie asocjacji Cel Celem procesu odkrywania asocjacji jest znalezienie interesujących zależności lub korelacji (nazywanych ogólnie asocjacjami) pomiędzy danymi w dużych zbiorach danych. Wynikiem
Bardziej szczegółowoZajęcia wprowadzające W-1 termin I temat: Sposób zapisu wyników pomiarów
wielkość mierzona wartość wielkości jednostka miary pomiar wzorce miary wynik pomiaru niedokładność pomiaru Zajęcia wprowadzające W-1 termin I temat: Sposób zapisu wyników pomiarów 1. Pojęcia podstawowe
Bardziej szczegółowoPodstawy Sztucznej Inteligencji (PSZT)
Podstawy Sztucznej Inteligencji (PSZT) Paweł Wawrzyński Uczenie maszynowe Sztuczne sieci neuronowe Plan na dziś Uczenie maszynowe Problem aproksymacji funkcji Sieci neuronowe PSZT, zima 2013, wykład 12
Bardziej szczegółowoAgnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Bardziej szczegółowoZadania do wykonania. Rozwiązując poniższe zadania użyj pętlę for.
Zadania do wykonania Rozwiązując poniższe zadania użyj pętlę for. 1. apisz program, który przesuwa w prawo o dwie pozycje zawartość tablicy 10-cio elementowej liczb całkowitych tzn. element t[i] dla i=2,..,9
Bardziej szczegółowoData Mining Kopalnie Wiedzy
Data Mining Kopalnie Wiedzy Janusz z Będzina Instytut Informatyki i Nauki o Materiałach Sosnowiec, 30 listopada 2006 Kopalnie złota XIX Wiek. Odkrycie pokładów złota spowodowało napływ poszukiwaczy. Przeczesywali
Bardziej szczegółowoWstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak
Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy
Bardziej szczegółowoBioinformatyka Laboratorium, 30h. Michał Bereta
Bioinformatyka Laboratorium, 30h Michał Bereta mbereta@pk.edu.pl www.michalbereta.pl 1 Filogenetyka molekularna wykorzystuje informację zawartą w sekwencjach aminokwasów lub nukleotydów do kontrukcji drzew
Bardziej szczegółowoStatystyka matematyczna dla leśników
Statystyka matematyczna dla leśników Wydział Leśny Kierunek leśnictwo Studia Stacjonarne I Stopnia Rok akademicki 03/04 Wykład 5 Testy statystyczne Ogólne zasady testowania hipotez statystycznych, rodzaje
Bardziej szczegółowoWydział Inżynierii Produkcji. I Logistyki. Statystyka opisowa. Wykład 3. Dr inż. Adam Deptuła
12.03.2017 Wydział Inżynierii Produkcji I Logistyki Statystyka opisowa Wykład 3 Dr inż. Adam Deptuła METODY OPISU DANYCH ILOŚCIOWYCH SKALARNYCH Wykresy: diagramy, histogramy, łamane częstości, wykresy
Bardziej szczegółowoRozpoznawanie wzorców. Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki
Rozpoznawanie wzorców Dr inż. Michał Bereta p. 144 / 10, Instytut Informatyki mbereta@pk.edu.pl beretam@torus.uck.pk.edu.pl www.michalbereta.pl Twierzdzenie: Prawdopodobieostwo, że n obserwacji wybranych
Bardziej szczegółowoPrawdopodobieństwo i rozkład normalny cd.
# # Prawdopodobieństwo i rozkład normalny cd. Michał Daszykowski, Ivana Stanimirova Instytut Chemii Uniwersytet Śląski w Katowicach Ul. Szkolna 9 40-006 Katowice E-mail: www: mdaszyk@us.edu.pl istanimi@us.edu.pl
Bardziej szczegółowoWykład 9 Wnioskowanie o średnich
Wykład 9 Wnioskowanie o średnich Rozkład t (Studenta) Wnioskowanie dla jednej populacji: Test i przedziały ufności dla jednej próby Test i przedziały ufności dla par Porównanie dwóch populacji: Test i
Bardziej szczegółowoWykład 2. Relacyjny model danych
Wykład 2 Relacyjny model danych Wymagania stawiane modelowi danych Unikanie nadmiarowości danych (redundancji) jedna informacja powinna być wpisana do bazy danych tylko jeden raz Problem powtarzających
Bardziej szczegółowoCo to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Bardziej szczegółowoWSPOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY PRZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH
WSOMAGANIE DECYZJI - MIŁOSZ KADZIŃSKI LAB IV ZBIORY RZYBLIŻONE I ODKRYWANIE REGUŁ DECYZYJNYCH 1. Definicje Zbiory, które nie są zbiorami definiowalnymi, są nazywane zbiorami przybliżonymi. Zbiory definiowalne
Bardziej szczegółowokomputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Bardziej szczegółowo6. Zagadnienie parkowania ciężarówki.
6. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Bardziej szczegółowoSTATYSTYKA OPISOWA Przykłady problemów statystycznych: - badanie opinii publicznej na temat preferencji wyborczych;
STATYSTYKA OPISOWA Przykłady problemów statystycznych: - badanie opinii publicznej na temat preferencji wyborczych; - badanie skuteczności nowego leku; - badanie stopnia zanieczyszczenia gleb metalami
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoStatystyka w pracy badawczej nauczyciela
Statystyka w pracy badawczej nauczyciela Wykład 1: Terminologia badań statystycznych dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyka (1) Statystyka to nauka zajmująca się zbieraniem, badaniem
Bardziej szczegółowoRozpoznawanie obrazów
Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie
Bardziej szczegółowoSZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice
Bardziej szczegółowoPojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:
Bardziej szczegółowoECDL/ICDL Użytkowanie baz danych Moduł S1 Sylabus - wersja 5.0
ECDL/ICDL Użytkowanie baz danych Moduł S1 Sylabus - wersja 5.0 Przeznaczenie Sylabusa Dokument ten zawiera szczegółowy Sylabus dla modułu ECDL/ICDL Użytkowanie baz danych. Sylabus opisuje zakres wiedzy
Bardziej szczegółowoSTATYSTYKA OPISOWA. Przykłady problemów: - badanie opinii publicznej na temat preferencji wyborczych;
STATYSTYKA OPISOWA Przykłady problemów: - badanie opinii publicznej na temat preferencji wyborczych; - badanie stanu zdrowia w pewnej miejscowości; - badanie stopnia zanieczyszczenia gleb metalami ciężkimi
Bardziej szczegółowoI. Podstawowe pojęcia i oznaczenia logiczne i mnogościowe. Elementy teorii liczb rzeczywistych.
I. Podstawowe pojęcia i oznaczenia logiczne i mnogościowe. Elementy teorii liczb rzeczywistych. 1. Elementy logiki matematycznej. 1.1. Rachunek zdań. Definicja 1.1. Zdaniem logicznym nazywamy zdanie gramatyczne
Bardziej szczegółowoData mininig i wielowymiarowa analiza danych zgromadzonych w systemach medycznych na potrzeby badań naukowych
Temat: Data mininig i wielowymiarowa analiza danych zgromadzonych w systemach medycznych na potrzeby badań naukowych Autorzy: Tomasz Małyszko, Edyta Łukasik 1. Definicja eksploracji danych Eksploracja
Bardziej szczegółowoLEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
Bardziej szczegółowo