ZASTOSOWANIE TECHNIK ANALIZY SKUPIEŃ I DRZEW DECYZYJNYCH DO SEGMENTACJI RYNKU
|
|
- Marian Morawski
- 7 lat temu
- Przeglądów:
Transkrypt
1 ZASTOSOWANIE TECHNIK ANALIZY SKUPIEŃ I DRZEW DECYZYJNYCH DO SEGMENTACJI RYNKU Grzegorz Migut, StatSoft Polska Sp. z o.o. Segmentacja rynku jest jednym z kluczowych zadań realizowanych podczas opracowania strategii marketingowych. Dzięki segmentacji możemy wyróżnić grupy klientów podobnych do siebie i co ważniejsze podobnie reagujących na stosowane wobec nich instrumenty marketingowego oddziaływania [1]. Proces identyfikacji i opisu segmentów rynku możemy podzielić na kilka etapów. W pierwszej kolejności konieczne jest określenie kryteriów segmentacji a następnie przeprowadzenie procedury grupowania w oparciu o wybrane kryteria. Kluczowymi elementami tej procedury jest identyfikacja optymalnej liczby segmentów oraz przydzielenie konsumentów do odpowiednich grup. Po wykonaniu grupowania konieczne jest przeprowadzenie opisu poszczególnych segmentów, ocena ich atrakcyjności oraz określenie najbardziej odpowiedniej formy oddziaływania w wybranych segmentach. Oczywiście wyniki przeprowadzonej segmentacji mogą być również znakomitym punktem wyjścia do wykonania pogłębionych analiz dotyczących jedynie wybranych segmentów rynku. Literatura naukowa i praktyka wyróżniają szereg podziałów i typów segmentacji w zależności od sposobu doboru kryteriów segmentacji i jej celów. My skoncentrujemy się na jednym podstawowym rozróżnieniu na: segmentację opisową oraz segmentację predykcyjną. W przypadku segmentacji opisowej wszystkie zmienne, jakie wykorzystujemy do analizy traktujemy jako zmienne niezależne (wejściowe). Podczas budowy modelu nie mamy żadnego kryterium ukierunkowującego proces poszukiwania jednorodnych grup klientów. Zwykle też na wstępie analizy nie dysponujemy informacją, jakie segmenty występują w danych, ani też ile jest tych segmentów. Wiedzę tę pragniemy dopiero zdobyć w wyniku analizy. Tak sformułowane zadanie analityczne wymaga zastosowania jednej z metod nieukierunkowanego data mining. Najbardziej popularnymi metodami stosowanymi do segmentacji są metody analizy skupień oraz sieci neuronowe Kohonena (SOM). W przypadku segmentacji predykcyjnej wyróżniamy dwa rodzaje zmiennych. Zmienną zależną, która stanowi kryterium segmentacji i jest to najczęściej zmienna opisująca aspekty behawioralne konsumentów [1]. Druga grupa zmiennych to zmienne niezależne, których zadaniem jest wyjaśnienie przejawów zachowania opisanych w kryterium segmentacji. Najczęściej zmiennymi niezależnymi są zmienne demograficzne, geograficzne czy Copyright StatSoft Polska
2 psychograficzne [1]. Metodą najczęściej wykorzystywaną do przeprowadzenia segmentacji predykcyjnej są drzewa decyzyjne. Segmentacja opisowa Ponieważ podczas segmentacji opisowej nie dysponujemy zmienną, która mogłaby ukierunkować proces identyfikacji segmentów, do analizy wykorzystujemy techniki, które możemy zaliczyć to metod uczenia bez nauczyciela (unsupervised learning). Do metod najczęściej wykorzystywanych w segmentacji należą techniki analizy skupień oraz sieci neuronowe Kohonena. Analiza skupień Celem analizy skupień (cluster analysis) jest wyodrębnienie ze zbioru danych obiektów, które byłyby podobne do siebie, i łączenie ich w grupy. W wyniku działania tej analizy z jednego niejednorodnego zbioru danych otrzymujemy grupę kilku jednorodnych podzbiorów. Obiekty znajdujące się w tym samym zbiorze uznawane są za podobne do siebie, obiekty z różnych zbiorów traktowane są jako niepodobne. Techniki analizy skupień obejmują kilka różnych algorytmów, które można najogólniej podzielić na metody hierarchiczne i niehierarchiczne. Hierarchiczną metodą analizy skupień jest metoda aglomeracyjna. Algorytm aglomeracji służy do grupowania obiektów w coraz to większe zbiory (skupienia), z zastosowaniem pewnej miary podobieństwa lub odległości. Typowym wynikiem tego typu grupowania jest hierarchiczne drzewo (zob. rysunek). Na początku tej analizy uznajemy, że każdy element zbioru stanowi oddzielną grupę. Następnie stopniowo osłabiamy kryterium uznawania obiektów za takie same, co powoduje grupowanie się obiektów podobnych. W miarę dalszego osłabiania kryterium wiążemy ze sobą coraz więcej obiektów i agregujemy je w coraz większe skupienia elementów, coraz bardziej różniących się od siebie. W końcu, na ostatnim etapie, wszystkie obiekty zostają ze sobą połączone. Efekty działania tego algorytmu można przedstawić w formie hierarchicznego drzewa, które przedstawia kolejne kroki działania analizy. Tego typu analizę możemy przeprowadzić nie tylko dla przypadków, ale również dla zmiennych, co polega na łączeniu najbardziej podobnych zmiennych (w sensie odległości, a nie korelacji) w grupy, podobnie jak przedstawiono poniżej. Ważnym parametrem wpływającym na jakość procesu grupowania jest wybór metody aglomeracji, czyli sposobu liczenia odległości pomiędzy skupieniami (według wybranej metryki). Odległość między skupieniami może być liczona jako odległość między najbliższymi (pojedyncze wiązanie) lub najdalszymi (pełne wiązanie) reprezentantami poszczególnych skupisk, bądź też na podstawie średnich, median lub środków ciężkości skupień (ważonych lub nieważonych). Metoda Warda (minimum wariancji) wykorzystuje w wyodrębnianiu skupisk zasadę minimalizacji wariancji wewnątrzklasowej Copyright StatSoft Polska 2009
3 70 Diagram drzewa Metoda Warda Odległ. euklidesowa Odległość wiąz W tej ostatniej metodzie wyodrębniania skupisk powinna być stosowana odległość euklidesowa lub kwadratowa odległość euklidesowa [1]. Spośród wymienionych metod najbardziej godna polecenia ze względu na kryterium efektywności odtwarzania rzeczywistej struktury danych jest metoda Warda [2]. Metoda aglomeracyjna jest rzadko stosowana w segmentacji dużej liczby obiektów (powyżej 300), ponieważ wymaga obliczenia macierzy odległości pomiędzy wszystkimi analizowanymi obiektami, co jest bardzo wymagające numerycznie. Jeszcze bardziej ograniczającym kryterium jest kwestia czytelności wykresu aglomeracji, który traci przejrzystość przy większej liczbie obiektów. Metoda ta jest jednak bardzo pomocna podczas ustalania optymalnej liczby skupień, na jaką należy podzielić analizowaną zbiorowość. Określając optymalną liczbę segmentów na podstawie analizy aglomeracyjnej, możemy posłużyć się na przykład kryterium maksymalnego ilorazu odległości aglomeracyjnych wykorzystywanych w dwóch sąsiednich aglomeracjach. Innym kryterium może być pierwszy wyraźny przyrost odległości aglomeracyjnej [2], który możemy zaobserwować, analizując wykres odległości aglomeracyjnej dla kolejnych etapów wiązania (zob. rysunek poniżej). Do najważniejszych metod niechierarchicznych należy zaliczyć metodę k-średnich oraz EM. Stosowanie metody k-średnich wymaga podania liczby grup, na które zostanie podzielony wejściowy zbiór danych. Jedna z wersji tej metody polega na losowym wyborze k-obiektów z analizowanego zbioru i uznania ich za środki k grup. Każdy z pozostałych obiektów jest przypisywany do grupy o najbliższym mu środku. Następnie oblicza się nowe środki każdej podgrupy na podstawie średnich arytmetycznych ze współrzędnych zawartych w nich obiektów. Copyright StatSoft Polska
4 50 Wy kres odległości wiązania względem etapów wiązania Odległ. euklidesowa Odległość wiąz Krok Wiązania Odległ. W kolejnym kroku następuje przegrupowanie elementów grup, każdy obiekt jest przesuwany do tej grupy, do której środka ma najbliżej. Procedurę tę powtarzamy do momentu, gdy w danej iteracji żaden z obiektów nie zmieni swojej podgrupy. Pewną wadą tej metody jest konieczność odgórnego określenia liczby skupień występujących w danych, dlatego też zaleca się powtórzenie procedury dla różnych wartości k i wybranie tej, dla której zbiór danych jest podzielony najlepiej, lub oparcie się na wynikach analizy aglomeracyjnej. Metoda EM jest czasem nazywana analizą skupień bazującą na prawdopodobieństwie lub statystyczną analizą skupień. Program wyznacza skupienia, zakładając różne rozkłady prawdopodobieństwa zmiennych uwzględnianych w analizie. Na początku działania algorytmu, podobnie jak w metodzie k-średnich, musimy podać liczbę skupień, jakie powinny być wyodrębnione ze zbioru wejściowego. Załóżmy, że przeprowadziliśmy badania w pewnej dużej zbiorowości pod kątem jednej cechy ciągłej. Zaobserwowany rozkład tej cechy był zgodny z funkcją gęstości opisaną 78 Copyright StatSoft Polska 2009
5 linią przerywaną (Rozkład 1+2) charakteryzującą się pewną średnią oraz odchyleniem standardowym. Wiemy też, że w zbiorowości tej występują dwa segmenty (na przykład kobiety i mężczyźni) o różnych parametrach funkcji gęstości w swoich segmentach. Algorytm EM ma na celu określenie parametrów rozkładów segmentów na podstawie rozkładu całej grupy oraz przydzielenie poszczególnych obserwacji do najbardziej odpowiadających im segmentów (klasyfikacja następuje na zasadzie prawdopodobieństwa). Na naszym rysunku rozkłady dwóch segmentów zostały przedstawione jako Rozkład 1 oraz Rozkład 2. Po zsumowaniu dają one funkcję rozkładu całej zbiorowości (Rozkład 1+2). Algorytm EM przeprowadza klasyfikację nie tylko przy założeniu normalności rozkładu, jak to zaprezentowano na rysunku. Wykorzystując go, można również określić inną funkcję gęstości dla badanej cechy (badanych cech). Sieci neuronowe - sieć Kohonena (Self Organizing Map) Sieć Kohonena (SOM) została zaprojektowana do uczenia w trybie bez nauczyciela podczas uczenia ustalanie parametrów sieci nie jest sterowane za pomocą wartości wyjściowych, podczas nauki prezentowane są jedynie dane kierowane na wejścia sieci. Sieć ta posiada dwie warstwy: warstwę wejściową oraz warstwę wyjściową składającą się z neuronów radialnych. Warstwa ta znana jest również jako warstwa tworząca mapę topologiczną, ponieważ takie jest jej najczęstsze zastosowanie. Neurony w warstwie tworzącej mapę topologiczną zwykle wyobrażamy sobie jako węzły dwuwymiarowej siatki, chociaż możliwe jest również tworzenie jednowymiarowych sieci w postaci długich łańcuchów. Sieci Kohonena uczone są przy wykorzystaniu algorytmu iteracyjnego. Rozpoczynając od początkowych, wybranych w sposób losowy centrów radialnych, algorytm stopniowo modyfikuje je w taki sposób, aby odzwierciedlić skupienia występujące w danych uczących. Iteracyjna procedura ucząca dodatkowo porządkuje neurony reprezentujące centra położone blisko siebie na mapie topologicznej. Copyright StatSoft Polska
6 Podstawowy iteracyjny algorytm działa przez dużą liczbę epok (podczas każdej epoki prezentowany jest sieci cały zestaw danych) w następujący sposób [3]: Pokazywany jest zestaw danych wejściowych ze zbioru uczącego. Wszystkie neurony sieci wyznaczają swoje sygnały wyjściowe, stanowiące odpowiedź na podane wejścia. Wybierany jest neuron zwycięski (tzn. ten, który reprezentuje centrum najbardziej zbliżone do prezentowanego na wejściu przypadku). Neuron zwycięski modyfikowany jest w taki sposób, aby upodobnić jego wzorzec do prezentowanego przypadku. W tym celu wyznaczana jest ważona suma przechowywanego w neuronie centrum oraz przypadku uczącego. Wraz ze zwycięskim neuronem w podobny sposób modyfikowane są parametry jego sąsiadów (sąsiedzi wyznaczani są w oparciu o przyjęty wzór topologii sieci). Algorytm wykorzystuje zmienny w czasie współczynnik uczenia, który jest używany do wyznaczenia ważonej sumy, i powoduje, że zmiany - początkowo duże i szybkie - stają się coraz bardziej subtelne w trakcie kolejnych epok. Umożliwia to ustalenie centrów w taki sposób, że stanowią one pewien kompromis pomiędzy wieloma przypadkami powodującymi zwycięstwo rozważanego neuronu. Własność uporządkowania topologicznego jest osiągana przez zastosowanie w algorytmie koncepcji sąsiedztwa. Sąsiedztwo stanowią neurony otaczające neuron zwycięski. Sąsiedztwo, podobnie jak współczynnik uczenia, zmniejszane jest wraz z upływem czasu, tak więc początkowo do sąsiedztwa należy stosunkowo duża liczba neuronów; w końcowych etapach sąsiedztwo ma zerowy zasięg. Ma to istotne znaczenie, ponieważ w algorytmie Kohonena modyfikacja wag jest w rzeczywistości przeprowadzana nie tylko w odniesieniu do neuronu zwycięskiego, ale również we wszystkich neuronach należących do sąsiedztwa. Po nauczeniu sieci Kohonena poprawnego rozpoznawania struktury prezentowanych danych można jej użyć jako narzędzia przeprowadzającego wizualizację danych w celu ich lepszego poznania. Ważnym elementem przygotowania sieci Kohonena do bieżącego użytkowania jest właściwe opisanie uformowanej mapy topologicznej. Ustalenie związków pomiędzy skupieniami a znaczeniami wymaga zwykle odwołania się do dziedziny, której dotyczy analiza [3]. Przykład wykorzystania metody k-średnich do segmentacji opisowej Do budowy przykładowego modelu segmentacyjnego użyjemy pliku Adults.sta, który jest nieco zmodyfikowaną wersją danych dostępnych w Internecie 9. Analizowane dane zawierają ponad 32 tysiące przypadków, każdy z nich reprezentuje jedną osobę. Każda z osób opisana jest przez 11 cech demograficznych, takich jak: wiek, płeć, stan cywilny czy grupa zawodowa. Naszym celem będzie wyróżnienie optymalnej z punktu 9 Na przykład UCI Machine Learnig Repository Copyright StatSoft Polska 2009
7 widzenia analizy liczby segmentów, dokonanie klasyfikacji osób do poszczególnych grup oraz ich późniejsza charakterystyka. Do przeprowadzenia segmentacji użyjemy uogólnionej metody k-średnich zaimplementowanej w programie STATISTICA Data Miner. Metoda ta, oprócz wbudowanej obsługi cech jakościowych (klasyczne metody analizy skupień operują jedynie na zmiennych ilościowych), pozwala również na automatyczną identyfikację optymalnej liczby segmentów. Mechanizm ten dostępny jest dla metody k-średnich oraz EM i jest oparty na v-krotnym teście krzyżowym. Algorytm działa w ten sposób, że dzieli zbiór wejściowy na kolejno coraz większą liczbę segmentów i ocenia precyzję podziału dla każdego z nich. Jeśli w wyniku kolejnego podziału zbudowany model poprawia się w stosunku do poprzedniego modelu w mniejszym stopniu niż określono to w wartości progowej (domyślnie jest to 5%), algorytm zatrzymuje swoje działanie (dodanie kolejnego segmentu w znaczący sposób nie poprawia wyników modelu). Dla metody k-średnich miarą precyzji podziału jest przeciętna odległość elementów zbioru wejściowego od środka segmentu, w jakim się znajdują, w przypadku metody EM miara ta bazuje na prawdopodobieństwie przynależności do odpowiednich segmentów. Aby rozpocząć proces analizy, z menu Data Mining wybieramy opcję Analiza skupień uogólnioną metodą EM i k-średnich, a następnie w wyświetlonym oknie klikamy przycisk Zmienne, aby wybrać zmienne do analizy. Po zaznaczeniu opcji Pokazuj tylko zmienne o odpowiedniej skali na liście Zmienne jakościowe wybieramy wszystkie zmienne, poza zmienną Dochód (użyjemy jej dalszej części analizy). Na liście Zmienne ilościowe wybieramy zmienne Wiek oraz Liczba lat kształcenia. Następnie przechodzimy na kartę Test i zaznaczamy opcję V-krotny sprawdzian krzyżowy. Copyright StatSoft Polska
8 Opcja ta pozwoli automatycznie określić optymalną (z punktu widzenia danych) liczbę segmentów. Po jej zaznaczeniu zatwierdzamy wykonanie analizy, klikając OK. Po wykonaniu analizy możemy stwierdzić, że algorytm wyróżnił trzy skupienia. Kluczowym zadaniem na tym etapie analizy jest odpowiednie scharakteryzowanie uzyskanych skupień. W pierwszej kolejności klikamy przycisk Średnie skupień, by wygenerować raport zawierający informację o licznościach poszczególnych segmentów oraz średnich wartościach analizowanych cech ilościowych Copyright StatSoft Polska 2009
9 Analizując powyższy raport możemy zauważyć, iż do segmentu pierwszego trafiła nieco ponad połowa analizowanych osób. Segment 2 to nieco ponad 23%, natomiast segment trzeci reprezentuje 26% osób. Analizując średnie wartości zmiennych ilościowych, możemy zauważyć, że osoby z segmentu trzeciego mają średnio 26,5 roku, znacznie mniej niż osoby z pierwszego i drugiego segmentu. Cecha Liczba lat kształcenia nie różnicuje zasadniczo osób w poszczególnych segmentach. 0,06 Wykres rozkładu zmiennej: Wiek Liczba skupień: 3 0,05 Gęstość prawdopodobieństwa 0,04 0,03 0,02 0,01 0, x ( Wiek ) Skupienie 1 Skupienie 2 Skupienie 3 Różnice w wieku osób, które trafiły do poszczególnych segmentów, dobrze oddaje również powyższy wykres, na którym możemy ocenić rozkład zmiennej Wiek w zależności od określonego segmentu. Aby scharakteryzować segmenty pod kątem cech jakościowych, przechodzimy na kartę Więcej i klikamy przycisk Wykresy liczności, co spowoduje wygenerowanie wykresów opisujących profil segmentów w kontekście poszczególnych zmiennych. Poniżej zamieszczono dwa przykładowe wykresy liczności dla cech Stan cywilny oraz Wykształcenie. Copyright StatSoft Polska
10 16000 Wykres liczności dla Stan cywilny Liczba skupień: Liczności Stanu wolnego Małżeństwo Rozwiedziona/ny Stan cywilny Wdowa/wdowiec Separacja Skupienie 1 Skupienie 2 Skupienie Wykres liczności dla Wykształcenie Liczba skupień: Liczności Doktorat Magister Licencjat Szkoła średnia College Podstawowe Wykształcenie Skupienie 1 Skupienie 2 Skupienie 3 Analizując powyższe wykresy, możemy stwierdzić, że w pierwszym segmencie dominują osoby żyjące w małżeństwie mające najwyższe wykształcenie przy czym dominującym jest Licencjat. Osoby znajdujące się w segmencie drugim to bardzo często osoby rozwiedzione, częściej niż w przypadku innych segmentów trafiają też do niego wdowcy. Osoby te najczęściej kończyły edukację na poziomie szkoły średniej. Segment trzeci to najczęściej osoby stanu wolnego, dominujący poziom wykształcenia to College, choć sądząc po średnim wieku tego segmentu, może on w przyszłości wykazać znaczną dynamikę zmian w tym względzie. Oczywiście by jeszcze pełniej scharakteryzować 84 Copyright StatSoft Polska 2009
11 uzyskane segmenty, warto byłoby ocenić profile pozostałych zmiennych jakościowych. My jednak użyjemy do uzupełnienia opisu segmentów dodatkowej zmiennej profilującej Dochód, której nie uwzględniliśmy w procesie identyfikacji segmentów. Aby móc to wykonać, za pomocą przycisku Zapisz klasyfikacje i odległości utworzymy arkusz danych, który obok zmiennych zawartych w wejściowym arkuszu danych zawierał będzie zmienną informującą o numerze segmentu, do którego została przypisana dana osoba. Dzięki tej operacji zmienną Dochód, która nie została użyta podczas analizy, możemy wykorzystać jako dodatkową zmienną opisującą nasze segmenty. Zmienna Dochód jest zmienną jakościową przyjmującą dwie wartości, jeżeli dochód danej osoby nie przekracza 50 tys. $, oraz >50K, jeżeli dana osoba zarabia powyżej tej kwoty. Do oceny segmentów pod kątem zmiennej Dochód użyjemy wykresów kołowych. Z menu Wykresy wybieramy opcję Wykresy 2W -> Wykresy kołowe, a następnie wskazujemy zmienną Dochód jako zmienną do analizy. Dodatkowo za pomocą opcji Grupami wskażemy zmienną Wynikowa klasyfikacja (zawierającą informację o numerze segmentu), co pozwoli nam ocenić różnice w rozkładzie zmiennej Dochód w poszczególnych segmentach. Analizując poniższe wykresy, możemy zauważyć, że w segmencie 1 znaczny odsetek osób (42%) to osoby o dochodzie powyżej 50 tys. $. W segmencie 2 osoby te stanowią jedynie 9%, natomiast w segmencie 3 (nie zamieszczonym na rysunku) jedynie 4% osób. Dodatkowo, jeśli chcielibyśmy przypisać do wyróżnionych segmentów nowe przypadki, możemy to zrobić po wygenerowaniu modelu segmentacji w postaci pliku PMML za pomocą przycisku Generator kodu. Model ten możemy następnie uruchomić dla nowych danych za pomocą modułu Szybkie wdrażanie modeli predykcyjnych. Segment=1 Wykres kołowy Dochód >50K; 42% ; 58% Dochód Copyright StatSoft Polska
12 Segment=2 Wykres kołowy Dochód >50K; 9% ; 91% Dochód Segmentacja predykcyjna Segmentacja predykcyjna oparta jest na kryteriach segmentacyjnych, które są wyjaśniane za pomocą dodatkowych zmiennych. Kryteria te charakteryzują najczęściej aspekty behawioralne konsumentów. Zachowanie klientów zostaje wyjaśnione za pomocą odpowiednich zmiennych niezależnych, do których należą zmienne demograficzne, geograficzne czy psychograficzne [1]. Metodą najczęściej wykorzystywaną do przeprowadzenia segmentacji predykcyjnej są drzewa decyzyjne. Proces budowy drzewa opiera się na zasadzie rekurencyjnego podziału. Zasada ta polega na przeszukiwaniu w przestrzeni cech wszystkich możliwych podziałów zbioru danych na dwie części, tak by dwa otrzymane podzbiory maksymalnie się między sobą różniły ze względu na zmienną zależną (kryterium segmentacji). Podział ten jest kontynuowany, aż do podziału przypadków na jednorodne grupy lub spełnienia ustalonych warunków zatrzymania. Reguły, względem których dokonano podziału przestrzeni cech, można w łatwy sposób przedstawić w formie drzewa. Tego typu grafy składają się z wierzchołków i krawędzi. Każdy wierzchołek reprezentuje decyzję o podziale zbioru obiektów na dwa podzbiory ze względu na jedną z cech objaśniających. Z drzewami klasyfikacyjnymi związane jest też pojęcie przycinania. Jest ono użyteczne do zoptymalizowania struktury drzewa. Przycinanie polega na upraszczaniu struktury drzewa (usuwaniu węzłów) przy równoczesnym zachowaniu (ewentualnie dopuszczalnym przez nas pogorszeniu) jego zdolności klasyfikacyjnych. Ważną zaletą drzew jest zrozumiała dla człowieka sekwencja reguł decyzyjnych pozwalająca klasyfikować nowe obiekty na podstawie wartości zmiennych. Atrakcyjna jest również możliwość graficznej prezentacji procesu klasyfikacji. Dodatkową zaletą drzew klasyfikacyjnych jest ich odporność na obserwacje odstające Copyright StatSoft Polska 2009
13 Przykład wykorzystania metody drzew CART do segmentacji predykcyjnej Do segmentacji predykcyjnej użyjemy tego samego zbioru danych, na podstawie którego przygotowywaliśmy segmentację opisową, z tą różnicą, że tym razem wykorzystamy dodatkowe kryterium segmentacji, jakim będzie fakt uzyskiwania przychodów na poziomie wyższym bądź niższym od 50 tys. dolarów. Fakt ten zapisany został w zmiennej Dochód, która w naszej analizie pełniła będzie rolę zmiennej zależnej. Pozostałe zmienne, które analizowaliśmy poprzednio, będziemy traktować jako zmienne niezależne. Aby rozpocząć analizę z menu Data Mining wybieramy polecenie Drzewa interakcyjne (C&RT, CHAID), a następnie określamy typ zadania jako Zadanie klasyfikacyjne (zmienna Dochód jest zmienną jakościową), natomiast metodą, jakiej użyjemy do analizy, będą drzewa CART (C&RT). Po zatwierdzeniu wstępnych ustawień analizy w kolejnym kroku musimy określić zmienne, jakie będziemy analizować. Klikamy przycisk Zmienne znajdujący się na karcie Podstawowe i w oknie wyboru zmiennych wskazujemy zmienną Dochód jako zmienną zależną, zmienne Wiek oraz Liczba lat kształcenia jako predyktory ilościowe, pozostałe zmienne określamy jako predyktory jakościowe. Pozostawiamy domyślne ustawienia pozostałych parametrów analizy i przechodzimy do okna Wyniki. W tym momencie rozpoczynamy interakcyjne budowanie modelu oraz identyfikowanie czynników istotnie wpływających na poziom dochodu. Copyright StatSoft Polska
14 >50K Drzewo dla Dochód Liczba węzłów dzielonych: 0, liczba węzłów końcowych: 1 Model: C&RT ID=1 N=32561 Na początku analizy nasze drzewo składa się jedynie z węzła macierzystego (rysunek powyżej), który nie ma jeszcze żadnych węzłów potomnych. Widzimy, że w zbiorze danych występuje znacznie większa liczba osób zarabiających poniżej 50 tys. $ (lewy słupek) od osób zarabiających powyżej 50 tys. $ (prawy słupek). W trakcie analizy określimy podziały drzewa, które pozwolą wyodrębnić grupy w jak największym stopniu jednorodne ze względu na poziom dochodu. W pierwszej kolejności musimy wybrać zmienną, której użyjemy do pierwszego podziału. By móc to zrobić, warto wspomóc się rankingiem predyktorów dostępnym po naciśnięciu przycisku Stat. Predyktorów. Widzimy, że analizowaną grupę najsilniej ze względu na Dochód różnicuje zmienna Związek i właśnie ta zmienna posłuży nam do wykonania pierwszego podziału Copyright StatSoft Polska 2009
15 Klikamy przycisk Określanie podziałów i w wyświetlonym oknie widzimy, że algorytm sugeruje nam wprowadzenie podziału dla zmiennej Związek w ten sposób, by w lewym węźle znalazły się osoby zamężne (Żona, Mąż), natomiast w prawym węźle pozostałe osoby. Akceptujemy tę propozycję podziału, klikając Buduj, co pozwoli wprowadzić nasz podział do modelu drzewa. >50K Drzewo dla Dochód Liczba węzłów dzielonych: 1, liczba węzłów końcowych: 2 Model: C&RT ID=1 N=32561 Związek = Żona, Mąż = Poza rodziną, Stanu wolnego,... ID=2 N=14761 ID=3 N=17800 Po wprowadzeniu podziału widzimy, że powstałe dwa węzły znacznie różnią się między sobą, jeśli chodzi o rozkład zmiennej Dochód. Prawie połowa osób z lewego węzła osiąga dochód powyżej 50 tys. $. W węźle prawym z kolei zdecydowaną przewagę mają osoby z dochodem poniżej 50 tys. $. Copyright StatSoft Polska
16 Oczywiście powstałe węzły drzewa (liście) mogą podlegać dalszemu podziałowi. W kolejnym kroku określimy optymalny podział dla lewego węzła (ID=2). W tym celu na liście rozwijalnej Węzeł wybieramy pozycję 2, a następnie klikamy przycisk Określanie Podziałów. Tym razem najlepszą zmienną będącą podstawą podziału jest zmienna Liczba lat kształcenia. Program proponuje określić punkt podziału na poziomie 12,5, akceptujemy ten punkt podziału, klikając Buduj Korzystając z wiedzy eksperckiej, moglibyśmy zmienić zarówno zmienną służącą do podziału, jak też i poziom wprowadzanego podziału Copyright StatSoft Polska 2009
17 W wyniku podziału otrzymaliśmy nowe drzewo, które podzieliło zbiór danych na trzy segmenty. Jeśli dana osoba jest żonata lub zamężna oraz kształciła się dłużej niż 12,5 roku wtedy trafia do węzła 5 możemy ją zaliczyć do grona osób o najwyższych dochodach. W węźle 4 znajdują się osoby wykazujące w przeważającej mierze dochody poniżej 50 tys. $, choć segment ten zawiera też spory odsetek osób z wyższymi dochodami, natomiast węzeł 3 to segment osób o najniższych dochodach. >50K Drzewo dla Dochód Liczba węzłów dzielonych: 2, liczba węzłów końcowych: 3 Model: C&RT ID=1 N=32561 ID=2 N=14761 Związek = Żona, Mąż = Poza rodziną, Stanu wolnego,... ID=3 N=17800 ID=4 N=10329 Liczba lat kształcenia <= 12, > 12, ID=5 N=4432 >50K Jeśli uzyskane wyniki segmentacji byłyby dla nas zbyt ogólne, każdy z utworzonych węzłów końcowych możemy dalej dzielić w celu określenia bardziej jednorodnych segmentów. Poza zaprezentowanym powyżej ręcznym budowaniem drzewa zawsze mamy możliwość zbudowania go w sposób automatyczny. Po naciśnięciu przycisku Buduj drzewo otrzymujemy zbudowany automatycznie dużo bardziej skomplikowany model składający się z 13 węzłów końcowych (zob. rys. poniżej). Dla wszystkich utworzonych węzłów końcowych możemy podać łatwą w interpretacji regułę opisującą osoby przypisane do poszczególnych grup ryzyka (podobnie jak uczyniliśmy to z węzłem 5). Istotnym problemem, jaki możemy napotkać podczas budowy modelu, jest przeuczenie (nadmierne dopasowanie do danych). Niektóre z zaproponowanych przez automat podziałów tworzą węzły o bardzo małej liczności, przez co wzrasta ryzyko, że reguły przez nie opisywane są jedynie wynikiem szumu zawartego w danych. Aby uniknąć budowy modelu nadmiernie dopasowanego do danych, możemy zaproponowany przez automat model uprościć, przycinając gałęzie, które mają zbyt małą liczność bądź zbudować model Copyright StatSoft Polska
18 za pomocą V-krotnego sprawdzianu krzyżowego, dzięki czemu algorytm automatycznie określi optymalną głębokość drzewa. >50K Drzewo dla Dochód Liczba węzłów dzielonych: 12, liczba węzłów końcowych: 13 Model: C&RT ID=1 N=32561 Związek = Żona, Mąż = Poza rodziną, Stanu wolnego,... ID=2 N=14761 ID=3 N=17800 Liczba lat kształcenia Liczba lat kształcenia <= 12, > 12, <= 12, > 12, ID=4 N=10329 ID=5 N=4432 ID=18 N=14165 ID=19 N=3635 >50K Zawód Zawód Wiek = Wsparcie techniczne, Kierownik/Dyrektor,... = Mechanik, Transportowiec,... = Kierownik/Dyrektor, Specjalista,... = Sprzedawca, Rolnictwo,... <= 30, > 30, ID=6 N=4036 ID=7 N=6293 ID=20 N=4166 ID=21 N=9999 ID=26 N=1402 ID=27 N=2233 Wiek Liczba lat kształcenia Wiek Wiek <= 33, > 33, <= 7, > 7, <= 36, > 36, <= 33, > 33, ID=8 N=941 ID=9 N=3095 ID=12 N=1304 ID=13 N=4989 ID=22 N=2405 ID=23 N=1761 ID=24 N=6042 ID=25 N=3957 >50K Liczba lat kształcenia Wiek <= 9, > 9, <= 35, > 35, ID=10 N=1432 ID=11 N=1663 ID=14 N=1691 ID=15 N=3298 >50K Literatura 1. Sagan A., Łapczyński M., Techniki segmentacji w badaniach rynkowych, Materiały szkoleniowe StatSoft Polska, Sokołowski A. Empiryczne testy istotności w taksonomii, Akademia Ekonomiczna w Krakowie, Zeszyty Naukowe, Kraków STATISTICA Neural Networks PL. Wprowadzenie do sieci neuronowych, StatSoft Polska, Copyright StatSoft Polska 2009
Naszym zadaniem jest rozpatrzenie związków między wierszami macierzy reprezentującej poziomy ekspresji poszczególnych genów.
ANALIZA SKUPIEŃ Metoda k-means I. Cel zadania Zadaniem jest analiza zbioru danych, gdzie zmiennymi są poziomy ekspresji genów. Podczas badań pobrano próbki DNA od 36 różnych pacjentów z chorobą nowotworową.
Wykład 4: Statystyki opisowe (część 1)
Wykład 4: Statystyki opisowe (część 1) Wprowadzenie W przypadku danych mających charakter liczbowy do ich charakterystyki można wykorzystać tak zwane STATYSTYKI OPISOWE. Za pomocą statystyk opisowych można
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
Analiza składowych głównych. Wprowadzenie
Wprowadzenie jest techniką redukcji wymiaru. Składowe główne zostały po raz pierwszy zaproponowane przez Pearsona(1901), a następnie rozwinięte przez Hotellinga (1933). jest zaliczana do systemów uczących
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
PODSTAWOWE ANALIZY I WIZUALIZACJA Z WYKORZYSTANIEM MAP W STATISTICA
PODSTAWOWE ANALIZY I WIZUALIZACJA Z WYKORZYSTANIEM MAP W STATISTICA Krzysztof Suwada, StatSoft Polska Sp. z o.o. Wstęp Wiele różnych analiz dotyczy danych opisujących wielkości charakterystyczne bądź silnie
Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania
Analiza skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania Analiza Skupień Elementy składowe procesu grupowania obiekt Ekstrakcja cech Sprzężenie zwrotne Grupowanie klastry Reprezentacja
Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej)
Charakterystyki liczbowe (estymatory i parametry), które pozwalają opisać właściwości rozkładu badanej cechy (zmiennej) 1 Podział ze względu na zakres danych użytych do wyznaczenia miary Miary opisujące
SEGMENTACJA UŻYTKOWNIKÓW SERWISU WWW Z UŻYCIEM
SEGMENTACJA UŻYTKOWNIKÓW SERWISU WWW Z UŻYCIEM METOD STATYSTYCZNYCH I SIECI NEURONOWYCH Grzegorz Migut StatSoft Polska Sp. z o.o. Wstęp Poznanie klientów jest kluczowym elementem wpływającym na prowadzenie
SEGMENTACJA UŻYTKOWNIKÓW SERWISU WWW Z UŻYCIEM METOD STATYSTYCZNYCH I SIECI NEURONOWYCH
SEGMENTACJA UŻYTKOWNIKÓW SERWISU WWW Z UŻYCIEM METOD STATYSTYCZNYCH I SIECI NEURONOWYCH Grzegorz Migut, StatSoft Polska Sp. z o.o. Wstęp Poznanie klientów jest kluczowym elementem wpływającym na prowadzenie
W kolejnym kroku należy ustalić liczbę przedziałów k. W tym celu należy wykorzystać jeden ze wzorów:
Na dzisiejszym wykładzie omówimy najważniejsze charakterystyki liczbowe występujące w statystyce opisowej. Poszczególne wzory będziemy podawać w miarę potrzeby w trzech postaciach: dla szeregu szczegółowego,
ANALIZA CZYNNIKÓW ROKOWNICZYCH I METOD LECZENIA U CHORYCH NA ZIARNICĘ ZŁOŚLIWĄ
ANALIZA CZYNNIKÓW ROKOWNICZYCH I METOD LECZENIA U CHORYCH NA ZIARNICĘ ZŁOŚLIWĄ prof. dr hab. Andrzej Sokołowski, dr Adam Sagan Jednym z ważniejszych obszarów zastosowań programu STATISTICA w badaniach
Sposoby prezentacji problemów w statystyce
S t r o n a 1 Dr Anna Rybak Instytut Informatyki Uniwersytet w Białymstoku Sposoby prezentacji problemów w statystyce Wprowadzenie W artykule zostaną zaprezentowane podstawowe zagadnienia z zakresu statystyki
Wprowadzenie do analizy dyskryminacyjnej
Wprowadzenie do analizy dyskryminacyjnej Analiza dyskryminacyjna to zespół metod statystycznych używanych w celu znalezienia funkcji dyskryminacyjnej, która możliwie najlepiej charakteryzuje bądź rozdziela
SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.
SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:
Metoda Automatycznej Detekcji Interakcji CHAID
Metoda Automatycznej Detekcji Interakcji CHAID Metoda ta pozwala wybrać z konkretnego, dużego zbioru zmiennych te z nich, które najsilniej wpływają na wskazaną zmienną (objaśnianą) zmienne porządkowane
ALGORYTM RANDOM FOREST
SKRYPT PRZYGOTOWANY NA ZAJĘCIA INDUKOWANYCH REGUŁ DECYZYJNYCH PROWADZONYCH PRZEZ PANA PAWŁA WOJTKIEWICZA ALGORYTM RANDOM FOREST Katarzyna Graboś 56397 Aleksandra Mańko 56699 2015-01-26, Warszawa ALGORYTM
You created this PDF from an application that is not licensed to print to novapdf printer (http://www.novapdf.com)
Prezentacja materiału statystycznego Szeroko rozumiane modelowanie i prognozowanie jest zwykle kluczowym celem analizy danych. Aby zbudować model wyjaśniający relacje pomiędzy różnymi aspektami rozważanego
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Wprowadzenie do analizy korelacji i regresji
Statystyka dla jakości produktów i usług Six sigma i inne strategie Wprowadzenie do analizy korelacji i regresji StatSoft Polska Wybrane zagadnienia analizy korelacji Przy analizie zjawisk i procesów stanowiących
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
( x) Równanie regresji liniowej ma postać. By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : Gdzie:
ma postać y = ax + b Równanie regresji liniowej By obliczyć współczynniki a i b należy posłużyć się następującymi wzorami 1 : xy b = a = b lub x Gdzie: xy = też a = x = ( b ) i to dane empiryczne, a ilość
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Metody analizy skupień Wprowadzenie Charakterystyka obiektów Metody grupowania Ocena poprawności grupowania
Wielowymiarowe metody segmentacji CHAID Metoda Automatycznej Detekcji Interakcji CHAID Cele CHAID Dane CHAID Przebieg analizy CHAID Parametry CHAID Wyniki Metody analizy skupień Wprowadzenie Charakterystyka
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej
LABORATORIUM 3 Przygotowanie pliku (nazwy zmiennych, export plików.xlsx, selekcja przypadków); Graficzna prezentacja danych: Histogramy (skategoryzowane) i 3-wymiarowe; Wykresy ramka wąsy; Wykresy powierzchniowe;
Zmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
Wykład 5: Statystyki opisowe (część 2)
Wykład 5: Statystyki opisowe (część 2) Wprowadzenie Na poprzednim wykładzie wprowadzone zostały statystyki opisowe nazywane miarami położenia (średnia, mediana, kwartyle, minimum i maksimum, modalna oraz
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
1. Eliminuje się ze zbioru potencjalnych zmiennych te zmienne dla których korelacja ze zmienną objaśnianą jest mniejsza od krytycznej:
Metoda analizy macierzy współczynników korelacji Idea metody sprowadza się do wyboru takich zmiennych objaśniających, które są silnie skorelowane ze zmienną objaśnianą i równocześnie słabo skorelowane
Wstęp do sieci neuronowych, wykład 07 Uczenie nienadzorowane.
Wstęp do sieci neuronowych, wykład 7. M. Czoków, J. Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika w Toruniu 212-11-28 Projekt pn. Wzmocnienie potencjału dydaktycznego UMK w Toruniu
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Sterowanie wielkością zamówienia w Excelu - cz. 3
Sterowanie wielkością zamówienia w Excelu - cz. 3 21.06.2005 r. 4. Planowanie eksperymentów symulacyjnych Podczas tego etapu ważne jest określenie typu rozkładu badanej charakterystyki. Dzięki tej informacji
Wykład 3: Prezentacja danych statystycznych
Wykład 3: Prezentacja danych statystycznych Dobór metody prezentacji danych Dobór metody prezentacji danych zależy od: charakteru danych statystycznych (inne metody wybierzemy dla danych przekrojowych,
Katalog wymagań programowych na poszczególne stopnie szkolne. Matematyka. Poznać, zrozumieć
Katalog wymagań programowych na poszczególne stopnie szkolne Matematyka. Poznać, zrozumieć Kształcenie w zakresie podstawowym. Klasa 3 Poniżej podajemy umiejętności, jakie powinien zdobyć uczeń z każdego
Rozkład materiału nauczania
Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2016/2017 Przedmiot: MATEMATYKA Klasa: IV 67 godzin numer programu T5/O/5/12 Rozkład materiału nauczania Temat
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
W tym celu korzystam z programu do grafiki wektorowej Inkscape 0.46.
1. Wprowadzenie Priorytetem projektu jest zbadanie zależności pomiędzy wartościami średnich szybkości przemieszczeń terenu, a głębokością eksploatacji węgla kamiennego. Podstawowe dane potrzebne do wykonania
Sieci neuronowe w Statistica
http://usnet.us.edu.pl/uslugi-sieciowe/oprogramowanie-w-usk-usnet/oprogramowaniestatystyczne/ Sieci neuronowe w Statistica Agnieszka Nowak - Brzezińska Podstawowym elementem składowym sztucznej sieci neuronowej
ALGORYTMY SZTUCZNEJ INTELIGENCJI
ALGORYTMY SZTUCZNEJ INTELIGENCJI Sieci neuronowe 06.12.2014 Krzysztof Salamon 1 Wstęp Sprawozdanie to dotyczy ćwiczeń z zakresu sieci neuronowych realizowanym na przedmiocie: Algorytmy Sztucznej Inteligencji.
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Jak przekształcać zmienne jakościowe?
Data Preparation Jak przekształcać zmienne jakościowe? Marta Płonka Predictive Solutions W ostatnim artykule zobaczyliśmy, jak sprawdzić, czy między wybranymi przez nas predyktorami a zmienną przewidywaną
Sieci Kohonena Grupowanie
Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie
Zachowania odbiorców. Grupa taryfowa G
Zachowania odbiorców. Grupa taryfowa G Autor: Jarosław Tomczykowski Biuro PTPiREE ( Energia elektryczna luty 2013) Jednym z założeń wprowadzania smart meteringu jest optymalizacja zużycia energii elektrycznej,
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
Instrukcja realizacji ćwiczenia
SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć
Lekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część
Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część populacji, którą podaje się badaniu statystycznemu
Badanie zależności skala nominalna
Badanie zależności skala nominalna I. Jak kształtuje się zależność miedzy płcią a wykształceniem? II. Jak kształtuje się zależność między płcią a otyłością (opis BMI)? III. Jak kształtuje się zależność
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Sigma moduł Arkusz. Wprowadzanie do arkusza planów nauczania oddziałów
Sigma moduł Arkusz Wprowadzanie do arkusza planów nauczania oddziałów Plany nauczania oddziałów należy opisywać na wszystkie lata nauki. Dzięki temu możliwe będzie kontrolowanie zgodności tworzonego planu
Inżynieria biomedyczna, I rok, semestr letni 2014/2015 Analiza danych pomiarowych. Laboratorium VIII: Analiza kanoniczna
1 Laboratorium VIII: Analiza kanoniczna Spis treści Laboratorium VIII: Analiza kanoniczna... 1 Wiadomości ogólne... 2 1. Wstęp teoretyczny.... 2 Przykład... 2 Podstawowe pojęcia... 2 Założenia analizy
7.4 Automatyczne stawianie prognoz
szeregów czasowych za pomocą pakietu SPSS Następnie korzystamy z menu DANE WYBIERZ OBSERWACJE i wybieramy opcję WSZYSTKIE OBSERWACJE (wówczas wszystkie obserwacje są aktywne). Wreszcie wybieramy z menu
Po naciśnięciu przycisku Dalej pojawi się okienko jak poniżej,
Tworzenie wykresu do danych z tabeli zawierającej analizę rozwoju wyników sportowych w pływaniu stylem dowolnym na dystansie 100 m, zarejestrowanych podczas Igrzysk Olimpijskich na przestrzeni lat 1896-2012.
Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona;
LABORATORIUM 4 Testowanie hipotez dla dwóch zmiennych zależnych. Moc testu. Minimalna liczność próby; Regresja prosta; Korelacja Pearsona; dwie zmienne zależne mierzalne małe próby duże próby rozkład normalny
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Dla kas Nano E w wersjach od 3.02 oraz Sento Lan E we wszystkich wersjach.
INSTRUKCJA KONFIGURACJI USŁUGI BUSOWEJ PRZY UŻYCIU PROGRAMU NSERWIS. Dla kas Nano E w wersjach od 3.02 oraz Sento Lan E we wszystkich wersjach. Usługa busowa w kasach fiskalnych Nano E oraz Sento Lan E
Rozkład materiału nauczania
Dział/l.p. Ilość godz. Typ szkoły: TECHNIKUM Zawód: TECHNIK USŁUG FRYZJERSKICH Rok szkolny 2015/2016 Przedmiot: MATEMATYKA Klasa: III 2 godz/tyg 30 = 60 godzin Rozkład materiału nauczania Temat I. LOGARYTMY
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Klasyfikacja LDA + walidacja
Klasyfikacja LDA + walidacja Dr hab. Izabela Rejer Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Plan wykładu 1. Klasyfikator 2. LDA 3. Klasyfikacja wieloklasowa 4. Walidacja
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Instrukcja obsługi programu Do-Exp
Instrukcja obsługi programu Do-Exp Autor: Wojciech Stark. Program został utworzony w ramach pracy dyplomowej na Wydziale Chemicznym Politechniki Warszawskiej. Instrukcja dotyczy programu Do-Exp w wersji
Tworzenie szablonów użytkownika
Poradnik Inżyniera Nr 40 Aktualizacja: 12/2018 Tworzenie szablonów użytkownika Program: Plik powiązany: Stratygrafia 3D - karty otworów Demo_manual_40.gsg Głównym celem niniejszego Przewodnika Inżyniera
Analiza Statystyczna
Lekcja 5. Strona 1 z 12 Analiza Statystyczna Do analizy statystycznej wykorzystać można wbudowany w MS Excel pakiet Analysis Toolpak. Jest on instalowany w programie Excel jako pakiet dodatkowy. Oznacza
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Idea. Algorytm zachłanny Algorytmy hierarchiczne Metoda K-średnich Metoda hierarchiczna, a niehierarchiczna. Analiza skupień
Idea jest narzędziem analizy danych służącym do grupowania n obiektów, opisanych za pomocą wektora p-cech, w K niepustych, rozłącznych i możliwie jednorodnych grup skupień. Obiekty należące do danego skupienia
Dodatek Solver Teoria Dodatek Solver jest częścią zestawu poleceń czasami zwaną narzędziami analizy typu co-jśli (analiza typu co, jeśli?
Dodatek Solver Teoria Dodatek Solver jest częścią zestawu poleceń czasami zwaną narzędziami analizy typu co-jśli (analiza typu co, jeśli? : Proces zmieniania wartości w komórkach w celu sprawdzenia, jak
LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU
LINIOWOŚĆ METODY OZNACZANIA ZAWARTOŚCI SUBSTANCJI NA PRZYKŁADZIE CHROMATOGRAFU Tomasz Demski, StatSoft Polska Sp. z o.o. Wprowadzenie Jednym z elementów walidacji metod pomiarowych jest sprawdzenie liniowości
STATYSTYKA OPISOWA Przykłady problemów statystycznych: - badanie opinii publicznej na temat preferencji wyborczych;
STATYSTYKA OPISOWA Przykłady problemów statystycznych: - badanie opinii publicznej na temat preferencji wyborczych; - badanie skuteczności nowego leku; - badanie stopnia zanieczyszczenia gleb metalami
Statystyka w pracy badawczej nauczyciela Wykład 3: Analiza struktury zbiorowości statystycznej. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.
Statystyka w pracy badawczej nauczyciela Wykład 3: Analiza struktury zbiorowości statystycznej dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Zadania analityczne (1) Analiza przewiduje badanie podobieństw
Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski
Sterowanie procesem i jego zdolność Zbigniew Wiśniewski Wybór cech do kart kontrolnych Zaleca się aby w pierwszej kolejności były brane pod uwagę cechy dotyczące funkcjonowania wyrobu lub świadczenia usługi
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
KREATOR REGRESJI LOGISTYCZNEJ
KREATOR REGRESJI LOGISTYCZNEJ Grzegorz Migut, StatSoft Polska Sp. z o.o. W niniejszym opracowaniu zaprezentowany zostanie przykład budowy modelu regresji logistycznej za pomocą Kreatora Regresji Logistycznej.
Grupowanie materiału statystycznego
Grupowanie materiału statystycznego Materiał liczbowy, otrzymany w wyniku przeprowadzonej obserwacji statystycznej lub pomiaru, należy odpowiednio usystematyzować i pogrupować. Doskonale nadają się do
WIZUALIZACJA DANYCH JAKO UZUPEŁNIENIE METOD ANALITYCZNYCH
WIZUALIZACJA DANYCH JAKO UZUPEŁNIENIE METOD ANALITYCZNYCH Krzysztof Suwada, StatSoft Polska Sp. z o.o. Techniki graficzne stanowią efektywny sposób prezentacji i przekazywania informacji. Dobrze zaprojektowany
Statystyka opisowa. Wykład I. Elementy statystyki opisowej
Statystyka opisowa. Wykład I. e-mail:e.kozlovski@pollub.pl Spis treści Elementy statystyku opisowej 1 Elementy statystyku opisowej 2 3 Elementy statystyku opisowej Definicja Statystyka jest to nauka o
Stochastyczne Metody Analizy Danych. PROJEKT: Analiza kluczowych parametrów turbin wiatrowych
PROJEKT: Analiza kluczowych parametrów turbin wiatrowych Projekt jest wykonywany z wykorzystaniem pakietu statystycznego STATISTICA. Praca odbywa się w grupach 2-3 osobowych. Aby zaliczyć projekt, należy
Wykład 4: Wnioskowanie statystyczne. Podstawowe informacje oraz implementacja przykładowego testu w programie STATISTICA
Wykład 4: Wnioskowanie statystyczne Podstawowe informacje oraz implementacja przykładowego testu w programie STATISTICA Idea wnioskowania statystycznego Celem analizy statystycznej nie jest zwykle tylko
Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska
Sieci neuronowe w Statistica Agnieszka Nowak - Brzezioska Podstawowym elementem składowym sztucznej sieci neuronowej jest element przetwarzający neuron. Schemat działania neuronu: x1 x2 w1 w2 Dendrites
a) 7 b) 19 c) 21 d) 34
Zadanie 1. Pytania testowe dotyczące podstawowych własności grafów. Zadanie 2. Przy każdym z zadań może się pojawić polecenie krótkiej charakterystyki algorytmu. Zadanie 3. W zadanym grafie sprawdzenie
TWORZENIE I STOSOWANIE MODELU DATA MINING ZA POMOCĄ PRZEPISÓW STATISTICA DATA MINER NA PRZYKŁADZIE WYKRYWANIA NADUŻYĆ
TWORZENIE I STOSOWANIE MODELU DATA MINING ZA POMOCĄ PRZEPISÓW STATISTICA DATA MINER NA PRZYKŁADZIE WYKRYWANIA NADUŻYĆ Tomasz Demski, StatSoft Polska Sp. z o.o. Narzędzia zgłębiania danych (data mining)
Graficzna prezentacja danych statystycznych
Szkolenie dla pracowników Urzędu Statystycznego nt. Wybrane metody statystyczne w analizach makroekonomicznych Katowice, 12 i 26 czerwca 2014 r. Dopasowanie narzędzia do typu zmiennej Dobór narzędzia do
StatSoft profesjonalny partner w zakresie analizy danych
Analiza danych Data mining Sterowanie jakością Analityka przez Internet StatSoft profesjonalny partner w zakresie analizy danych StatSoft Polska Sp. z o.o. StatSoft Polska Sp. z o.o. ul. Kraszewskiego
Metody klasyfikacji danych - część 1 p.1/24
Metody klasyfikacji danych - część 1 Inteligentne Usługi Informacyjne Jerzy Dembski Metody klasyfikacji danych - część 1 p.1/24 Plan wykładu - Zadanie klasyfikacji danych - Przeglad problemów klasyfikacji
Wykład 2: Grupowanie danych (szeregi statystyczne) + porady dotyczące analizy danych w programie STATISTICA
Wykład 2: Grupowanie danych (szeregi statystyczne) + porady dotyczące analizy danych w programie STATISTICA Dobór metody prezentacji danych Dobór metody prezentacji danych zależy od: charakteru danych
Zastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Metody Sztucznej Inteligencji II
17 marca 2013 Neuron biologiczny Neuron Jest podstawowym budulcem układu nerwowego. Jest komórką, która jest w stanie odbierać i przekazywać sygnały elektryczne. Neuron działanie Jeżeli wartość sygnału
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
W1. Wprowadzenie. Statystyka opisowa
W1. Wprowadzenie. Statystyka opisowa dr hab. Jerzy Nakielski Zakład Biofizyki i Morfogenezy Roślin Plan wykładu: 1. O co chodzi w statystyce 2. Etapy badania statystycznego 3. Zmienna losowa, rozkład
Statystyka w pracy badawczej nauczyciela
Statystyka w pracy badawczej nauczyciela Wykład 1: Terminologia badań statystycznych dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyka (1) Statystyka to nauka zajmująca się zbieraniem, badaniem
3.7. Wykresy czyli popatrzmy na statystyki
3.7. Wykresy czyli popatrzmy na statystyki Współczesne edytory tekstu umożliwiają umieszczanie w dokumentach prostych wykresów, służących do graficznej reprezentacji jakiś danych. Najprostszym sposobem
Kultywator rolniczy - dobór parametrów sprężyny do zadanych warunków pracy
Metody modelowania i symulacji kinematyki i dynamiki z wykorzystaniem CAD/CAE Laboratorium 6 Kultywator rolniczy - dobór parametrów sprężyny do zadanych warunków pracy Opis obiektu symulacji Przedmiotem