Idea. Algorytm zachłanny Algorytmy hierarchiczne Metoda K-średnich Metoda hierarchiczna, a niehierarchiczna. Analiza skupień

Podobne dokumenty
Analiza skupień. Idea

Analiza skupień. Idea

Analiza skupień. Idea

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Hierarchiczna analiza skupień

Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu

Analiza skupień. Waldemar Wołyński, Tomasz Górecki. Wydział Matematyki i Informatyki UAM Poznań. 6 marca 2013

SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization

Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633

Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska

Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania

Metody statystyczne wykorzystywane do oceny zróżnicowania kolekcji genowych roślin. Henryk Bujak

Czym jest analiza skupień?

Elementy statystyki wielowymiarowej

Statystyka opisowa. Wykład I. Elementy statystyki opisowej

Metody analizy skupień Wprowadzenie Charakterystyka obiektów Metody grupowania Ocena poprawności grupowania

STATYSTYKA I DOŚWIADCZALNICTWO

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl

Agnieszka Nowak Brzezińska

Wykład 4: Statystyki opisowe (część 1)

Zagadnienie klasyfikacji (dyskryminacji)

Agnieszka Nowak Brzezińska Wykład III

Eksploracja danych. Grupowanie. Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne. Grupowanie wykład 1

STATYSTYKA I DOŚWIADCZALNICTWO

Skalowanie wielowymiarowe idea

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Spacery losowe generowanie realizacji procesu losowego

Statystyka. Wykład 7. Magdalena Alama-Bućko. 16 kwietnia Magdalena Alama-Bućko Statystyka 16 kwietnia / 35

PDF created with FinePrint pdffactory Pro trial version

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Optymalizacja ciągła

Agnieszka Nowak Brzezińska Wykład III

Analiza składowych głównych. Wprowadzenie

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Analiza składowych głównych idea

4.3 Grupowanie według podobieństwa

Sieci Kohonena Grupowanie

Statystyka w pracy badawczej nauczyciela

KADD Minimalizacja funkcji

Algorytm grupowania danych typu kwantyzacji wektorów

Zachowania odbiorców. Grupa taryfowa G

Stosowana Analiza Regresji

Metoda największej wiarogodności

Zaawansowane metody numeryczne

Współczynnik korelacji. Współczynnik korelacji jest miernikiem zależności między dwiema cechami Oznaczenie: ϱ

Analiza współzależności zjawisk

Metoda największej wiarygodności

Wykład 5: Statystyki opisowe (część 2)

HISTOGRAM. Dr Adam Michczyński - METODY ANALIZY DANYCH POMIAROWYCH Liczba pomiarów - n. Liczba pomiarów - n k 0.5 N = N =

Grupowanie danych. Wprowadzenie. Przykłady

Drzewa spinające MST dla grafów ważonych Maksymalne drzewo spinające Drzewo Steinera. Wykład 6. Drzewa cz. II

W kolejnym kroku należy ustalić liczbę przedziałów k. W tym celu należy wykorzystać jeden ze wzorów:

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Metody statystyczne kontroli jakości i niezawodności Lekcja II: Karty kontrolne.

Pochodne cząstkowe i ich zastosowanie. Ekstrema lokalne funkcji

STATYSTYKA I DOŚWIADCZALNICTWO Wykład 5

Taksonomia numeryczna co to jest?

Zadanie 1. Za pomocą analizy rzetelności skali i wspólczynnika Alfa- Cronbacha ustalić, czy pytania ankiety stanowią jednorodny zbiór.

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015

Metody numeryczne I Równania nieliniowe

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

10. Redukcja wymiaru - metoda PCA

Analiza regresji - weryfikacja założeń

Statystyka. Wykład 4. Magdalena Alama-Bućko. 19 marca Magdalena Alama-Bućko Statystyka 19 marca / 33

Analiza Skupień Cluster analysis

Idea. Analiza składowych głównych Analiza czynnikowa Skalowanie wielowymiarowe Analiza korespondencji Wykresy obrazkowe.

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Analiza głównych składowych- redukcja wymiaru, wykł. 12

Analiza składowych głównych

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

CLUSTERING. Metody grupowania danych

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Programowanie liniowe

8. Neuron z ciągłą funkcją aktywacji.

Rysunek 1: Przykłady graficznej prezentacji klas.

WYKŁAD 9 METODY ZMIENNEJ METRYKI

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Wykład 10 Skalowanie wielowymiarowe

Programowanie dynamiczne i algorytmy zachłanne

Metoda simpleks. Gliwice

Analiza wariancji. dr Janusz Górczyński

(x j x)(y j ȳ) r xy =

Testowanie hipotez statystycznych.

Przykładowa analiza danych

Elementy modelowania matematycznego

3. FUNKCJA LINIOWA. gdzie ; ół,.

W1. Wprowadzenie. Statystyka opisowa

POJĘCIA WSTĘPNE. STATYSTYKA - nauka traktująca o metodach ilościowych badania prawidłowości zjawisk (procesów) masowych.

Algorytmy analizy skupień / Sławomir Wierzchoń, Mieczysław Kłopotek. wyd. 1, 1. dodr. (PWN). Warszawa, Spis treści

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

Wykład 10: Elementy statystyki

Sposoby prezentacji problemów w statystyce

INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Transkrypt:

Idea jest narzędziem analizy danych służącym do grupowania n obiektów, opisanych za pomocą wektora p-cech, w K niepustych, rozłącznych i możliwie jednorodnych grup skupień. Obiekty należące do danego skupienia powinny być podobne do siebie, a obiekty należące do różnych skupień powinny być z kolei możliwie mocno niepodobne do siebie. Głównym celem tej analizy jest wykrycie z zbiorze danych, tzw. naturalnych skupień, czyli skupień, które dają się w sensowny sposób interpretować.

Zwróćmy uwagę, że pod tym terminem kryje się szereg różnych algorytmów. Koncepcyjnie, najprostszym byłby następujący. Ustalamy liczbę skupień K oraz kryterium optymalnego podziału obiektów. Przeszukujemy wszystkie możliwe podziały n obiektów na K skupień, wybierając najlepszy podział ze względu na przyjęte kryterium optymalności. Bezpośrednie sprawdzenie wszystkich możliwych podziałów jest jednak, nawet przy niewielkim n, praktycznie niemożliwe. Ich liczba bowiem jest równa 1 K! ( ) K K ( 1) K k k n k k=1 inp.dla n =100obiektówiK =4skupieńjestrzędu10 58.

Idea Najprostszą i zarazem najczęściej używaną metodą analizy skupień jest metoda hierarchiczna. Wspólną cechą krokowych algorytmów tej metody jest wyznaczanie skupień poprzez łączenie (aglomerację) powstałych, w poprzednich krokach algorytmu, mniejszych skupień. Inne wersje tej metody zamiast idei łączenia skupień, bazują na pomyśle ich dzielenia. Podstawą wszystkich algorytmów tej metody jest odpowiednie określenie miary niepodobieństwa obiektów. Miary niepodobieństwa, to semi-metryki(a często również metryki) na przestrzeni próby X.

Miary niepodobieństwa Niech x r i x s będą p-wymiarowymiwektoramiobserwacji r-tegoi s-tegoobiektu (r,s =1,2,...,n). Definicja Funkcjęρ :X X Rnazywamymiarąniepodobieństwajeśli: 1.ρ(x r,x s ) 0, 2.ρ(x r,x s ) =0wtedyitykowtedy,gdy x r = x s, 3.ρ(x r,x s ) =ρ(x s,x r ). Określona w ten sposób miara jest semi-metryką. Jak widać nie musi ona być metryką, tzn. nie musi spełniać warunku trójkąta: ρ(x r,x s ) ρ(x r,x t )+ρ(x t,x s ),któraniejestnampotrzebnado określenia kolejności odległości punktów od x, ponieważ nie interesują nas odległości pomiędzy pozostałymi punktami. Wybór odpowiedniej miary jest arbitralny i zależy głównie od danych.

Miary niepodobieństwa(dane ilościowe) Dla danych ilościowych, jako miarę niepodobieństwa pomiędzy obiektami używa się często zwykłą odległość euklidesową ( p ) ρ(x r,x s ) = ((x r x s ) (x r x s )) 1/2 1/2 = (x ri x si ) 2 lub jej kwadrat ρ(x r,x s ) = (x r x s ) (x r x s ) = i=1 p (x ri x si ) 2. Zwróćmy uwagę, że ta druga miara nie jest metryką. Jeżeli cechy wyrażone są w różnych jednostkach, to stosujemy ważoną odległość euklidesową ( p 1 ρ(x r,x s ) = ((x r x s ) W 1 (x r x s )) 1/2 = i=1 i=1 w 2 i (x ri x si ) 2 ) 1/2, gdzie W =diag{w 2,...,w Tomasz Górecki 2 },awagi Statystyka w i sąodchyleniamistand. z elementami rachunku prawdopodobieństwa(

Miary niepodobieństwa(dane ilościowe) Aby miara uwzględniała również korelacje pomiędzy cechami stosujemy jako miarę niepodobieństwa odległość Mahalanobisa ρ(x r,x s ) = ((x r x s ) S 1 (x r x s )) 1/2, gdzie S jest estymatorem macierzy kowariancji. Czasami, choć rzadko, stosuje się również inne miary niepodobieństwa obiektów. Przykładowo odległość miejską(zwaną również taksówkową lub manhatańską) ρ(x r,x s ) = p x ri x si. i=1

Miary niepodobieństwa(dane jakościowe) W przypadku danych jakościowych, możemy w naturalny sposób zdefiniować miarę niepodobieństwa obiektów jako ρ(x r,x s ) = 1 p p I(x ri x si ). i=1 Miara ta nazywana jest współczynnikiem niepodobieństwa Sneatha.

Miary niepodobieństwa(dane binarne) Na szczególną uwagę zasługuje sytuacja danych binarnych, tzn. takich gdzie każda cecha może przyjmować tylko dwie wartości(0 albo1). Współczynnik Sneatha przyjmuje wtedy postać ρ(x r,x s ) = b +c p =1 a+d, p gdzie aidoznaczająliczbęcechzgodnych, bicniezgodnych. Miara ta nosi nazwę współczynnika dopasowania obiektów. Do innych, szczególnie często wykorzystywanych w tej sytuacji, miarniepodobieństwaobiektównależy,statystykaχ 2 ρ(x r,x s ) = p(ad bc) 2 (a+b)(c +d)(a+c)(b +d).

Algorytm aglomeracyjny W pierwszym kroku każdy z obiektów tworzy oddzielne skupienie. Zatemskupieńtychjest n.wkrokudrugimwjednoskupienie połączone zostają dwa najbardziej podobne do siebie obiekty w sensie wybranej miary niepodobieństwa obiektów. Otrzymujemy zatem n 1 skupień. Postępując analogicznie, tzn. łącząc(wiążąc) ze sobą skupienia złożone z najbardziej podobnych do siebie obiektów, w każdym następnym kroku, liczba skupień maleje o jeden. Obliczenia prowadzimy do momentu uzyskania zadeklarowanej, końcowej liczby skupień K lub do połączenia wszystkich obiektów w jedno skupienie.

Dendrogram Graficzną ilustracją algorytmu jest dendrogram, czyli drzewo binarne, którego węzły reprezentują skupienia, a liście obiekty. Liście są na poziomie zerowym, a węzły na wysokości odpowiadającej mierze niepodobieństwa pomiędzy skupieniami reprezentowanymi przez węzły potomki. 30 25 20 15 10 5 0 6 7 3 4 2 8 5 1

Metody wiązania skupień Algorytm ten wykorzystuje nie tylko miary niepodobieństwa pomiędzy obiektami, potrzebne są nam również metody wiązania skupień.niech Ri Soznaczająskupienia,aρ(R,S)oznaczamiarę niepodobieństwa pomiędzy nimi. Poniżej podano trzy najczęściej wykorzystywane sposoby jej określenia.

Metoda pojedynczego wiązania Metoda pojedynczego wiązania(najbliższego sąsiedztwa). Miara niepodobieństwa pomiędzy dwoma skupieniami jest określona jako najmniejsza miara niepodobieństwa między dwoma obiektami należącymi do różnych skupień, tzn. ρ(r,s) = min i R,j S ρ(x i,x j ). Zastosowanie tego typu odległości prowadzi do tworzenia wydłużonych skupień, tzw. łańcuchów. Pozwala na wykrycie obserwacji odstających, nie należących do żadnej z grup, i warto przeprowadzić klasyfikację za jej pomocą na samym początku, aby wyeliminować takie obserwacje i przejść bez nich do właściwej części analizy.

Metoda pojedynczego wiązania Metoda pełnego wiązania(najdalszego sąsiedztwa). Miara niepodobieństwa pomiędzy dwoma skupieniami jest określona jako największa miara niepodobieństwa między dwoma obiektami należącymi do różnych skupień, tzn. ρ(r,s) = max i R,j S ρ(x i,x j ). Metoda ta jest przeciwieństwem metody pojedynczego wiązania. Jej zastosowanie prowadzi do tworzenia zwartych skupień o małej średnicy.

Metoda pojedynczego wiązania Metoda średniego wiązania. Miara niepodobieństwa pomiędzy dwoma skupieniami jest określona jako średnia miara niepodobieństwa między wszystkimi parami obiektów należących do różnych skupień, tzn. ρ(r,s) = 1 n R n S i R j S ρ(x i,x j ), gdzie n R i n S sąliczbamiobiektówwchodzącychwskładskupień Ri Sodpowiednio. Metoda ta jest swoistym kompromisem pomiędzy metodami pojedynczego i pełnego wiązania. Ma ona jednak zasadniczą wadę. W odróżnieniu od dwóch poprzednich wykorzystywana w niej miara niepodobieństwa nie jest niezmiennicza ze względu na monotoniczne przekształcenia miar niepodobieństwa pomiędzy obiektami.

Inne metody wiązania skupień Omówione metody wiązania skupień, choć najczęściej stosowane, nie są jedyne. W przypadku gdy liczebności skupień są zdecydowanie różne, zamiast metodą średniego wiązania możemy posługiwać się jej ważonym odpowiednikiem. Wagami są wtedy liczebności poszczególnych skupień. Inna popularna metoda wiązania skupień pochodzi od Warda(1963). Do obliczania miary niepodobieństwa pomiędzy skupieniami wykorzystuje on podejście analizy wariancji. Metoda daje bardzo dobre wyniki(grupy bardzo homogeniczne), jednak ma skłonność do tworzenia skupień o podobnych rozmiarach. Często nie jest też w stanie zidentyfikować grup o szerokim zakresie zmienności poszczególnych cech oraz niewielkich grup.

Algorytm aglomeracyjny podsumowanie Algorytm aglomeracyjny jest bardzo szybki i uniwersalny w tym sensie, że może być on stosowany zarówno do danych ilościowych jak i jakościowych. Wykorzystuje on jedynie miary niepodobieństwa pomiędzy obiektami oraz pomiędzy skupieniami. Należy podkreślić zasadniczy wpływ wybranej miary niepodobieństwa na uzyskane w końcowym efekcie skupienia. Do ustalenia końcowej liczby skupień wykorzystać możemy wykresy rozrzutu(przy wielu wymiarach w układzie dwóch pierwszych składowych głównych). Pomocny może być także dendrogram. Ustalamy wtedy progową wartość miary niepodobieństwa pomiędzy skupieniami, po przekroczeniu której zatrzymany zostaje proces ich dalszego łączenia.

przykład Załóżmy, że danych jest 8 obiektów. Miarę niepodobieństwa pomiędzy nimi zapisano w postaci macierzy D. Jako miarę niepodobieństwa obiektów przyjęto odległość euklidesową. D = 0.00 27.75 24.65 29.00 2.50 46.86 22.87 2.65 27.75 0.00 4.37 5.32 26.33 20.88 6.58 29.22 24.65 4.37 0.00 5.93 23.32 23.73 3.63 26.25 29.00 5.32 5.93 0.00 27.86 19.47 6.85 30.81 2.50 26.33 23.32 27.86 0.00 45.37 21.76 3.21 46.86 20.88 23.73 19.47 45.37 0.00 25.98 48.36 22.87 6.58 3.63 6.85 21.76 25.98 0.00 24.68 2.65 29.22 26.25 30.81 3.21 48.36 24.68 0.00.

przykład Wyniki grupowania przy pomocy algorytmu aglomeracyjnego przedstawia poniższy rysunek. Przy łączeniu skupień wykorzystano metodę średniego wiązania. Przyjmując wartość progową odległości równą 10, obiekty zostały rozbite na trzy skupienia:{1, 5, 8}, {2,3,4,7}i{6}. 30 25 20 15 10 5 0 6 7 3 4 2 8 5 1

Idea Najbardziej popularnym, niehierarchicznym algorytmem analizy skupień jest algorytm K-średnich. Przyporządkowanie n obiektów do zadanej liczby skupień K, odbywa się niezależnie dla każdej wartości K nie bazując na wyznaczonych wcześniej mniejszych lubwiększychskupieniach.niech C K oznaczafunkcję,która każdemu obiektowi(dokładnie jego numerowi), przyporządkowuje numer skupienia do którego jest on przyporządkowany(przy podziale na K skupień). Zakładamy, że wszystkie cechy są ilościoweowartościachrzeczywistych(przestrzeńpróbyto R p ). Główną ideą metody K-średnich jest taka alokacja obiektów, która minimalizuje zmienność wewnątrz powstałych skupień, a co za tym idzie maksymalizuje zmienność pomiędzy skupieniami.

Idea Dlaustalonejfunkcji C K,przez W(C K )ib(c K )oznaczmy macierze zmienności odpowiednio wewnątrz i pomiędzy skupieniami. Poniższa, znana z analizy wariancji, zależność opisuje związek pomiędzy tymi macierzami. T = W(C K )+B(C K ), gdzie T jest niezależną od dokonanego podziału na skupienia macierzą zmienności całkowitej. Powszechnie stosowane algorytmy metody K-średnichminimalizująśladmacierzy W(C K ).

Algorytm 1 W losowy sposób rozmieszczamy n obiektów w K skupieniach. Niechfunkcja C (1) K opisujetorozmieszczenie. 2 DlakażdegozKskupieńobliczamywektoryśrednich x x x k, (k =1,2,...,K). 3 Rozmieszczamy ponownie obiekty w K skupieniach, w taki sposób że C (l) K (i) = arg min ρ 2(x i, x x x k ). 1 k K 4 Powtarzamykrokidrugiitrzeciażdomomentu,gdy przyporządkowanie obiektów do skupień pozostanie niezmienione,tzn.ażdomomentu,gdy C (l) K = C(l 1) K.

Prezentacja Wygenerowany zbiór danych bez etykiet. https:// www. naftaliharris. com/ blog/ visualizing-k-means-clustering/

Prezentacja Losowe umieszczenie środków.

Prezentacja Przypisanie danych do środków.

Prezentacja Przesunięcie(przeliczenie) środków.

Prezentacja Zakończenie działania algorytmu.

Modyfikacje Istnieje wiele modyfikacji powyższego algorytmu. Przykładowo, losowe rozmieszczenie elementów w skupieniach krok pierwszy algorytmu, zastąpione zostaje narzuconym podziałem, mającym na celu szybsze ustabilizowanie się algorytmu. Wszystkie wersje algorytmu K-średnich są zbieżne. Nie gwarantują onejednakzbieżnościdooptymalnegorozwiązania C K.Niestety,w zależności od początkowego podziału, algorytm zbiega do zazwyczaj różnych lokalnie optymalnych rozwiązań. W związku z tym, aby uzyskać najlepszy podział, zaleca się często wielokrotne stosowanie tego algorytmu z różnymi, wstępnymi rozmieszczeniami obiektów.

Przykład 30 30 20 20 10 10 0 0-10 -10-20 -20-30 -30-50 0 50-50 0 50 Skupieniawyznaczonemetodą K-średnich.a) K =3,b) K =4.

Wybór K Algorytm metody K-średnich bazuje na minimalizacji zmienności wewnątrz powstałych skupień, wyrażonej poprzez W K = log(tr(w(c K ))).Zwróćmyuwagę,żezmiennośćtamaleje wrazzewzrostemliczbyskupień(dla K = njestwręczzerowa). 11,4 10,8 10,2 9,6 9,0 1 2 3 4 5 6 7 8 9 10

Wybór K Wykres ten przypomina wykres osypiska stosowany w analizie składowychgłównych.analizującróżnicepomiędzy W K i W K+1 widzimywyraźnie,żewartości W 1 W 2 i W 2 W 3 (byćmoże również W 3 W 4 )sązdecydowaniewiększeodpozostałychróżnic. Sugeruje to, podział na trzy(lub cztery) skupienia. Trudno jest jednak precyzyjnie określić, którą z różnic uznać za istotnie małą.

Wybór K indeksch W literaturze znaleźć można wiele pomysłów na automatyczne wyznaczania końcowej liczby skupień. Dwa z nich zasługują na szczególną uwagę. Caliński i Harabasz(1974) zaproponowali aby końcową liczbę skupień wybierać w oparciu o wartości pseudo-statystyki F postaci: CH(K) = tr(b(c K))/(K 1) tr(w(c K ))/(n K). Optymalną wartość K dobieramy tak, aby ją zmaksymalizować.

W przypadku metod hierarchicznych istnieje wiele algorytmów dających różne wyniki, z których nie jesteśmy w stanie określić, które rozwiązanie jest najlepsze. Poza tym nie ma możliwości korekty rozwiązania, obiekt raz przydzielony do klasy już w niej pozostaje. Ostatecznie metody hierarchiczne są mało wydajne w przypadku dużych zbiorów danych(duża czaso- i pamięciożerność). Główną wadą metod optymalizacyjnych jest konieczność zadania liczby klas z góry. Dodatkowo bardzo duże znaczenie ma wybór początkowych środków ciężkości. W praktyce często metoda hierarchiczna służy do wstępnej obróbki danych i wyznaczenia punktów startowych dla metody K-średnich(np. jako średnie w skupieniach). nie jest odporna na zmiany skali, oznaczato,żejeśliróżnezmiennemająróżneskale,tote największe mogą zdominować odległości.