mgr Adam Kobus Komputerowa analiza i rozpoznawanie niepłynności mowy z zastosowaniem metody liniowej predykcji

Podobne dokumenty
Nowy eliptyczny model traktu głosowego

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Automatyczna klasyfikacja zespołów QRS

ALGORYTMY SZTUCZNEJ INTELIGENCJI

Lekcja 5: Sieć Kohonena i sieć ART

S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA

Hierarchiczna analiza skupień

TEORIA WYTWARZANIA DŹWIĘKÓW

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Zastosowania sieci neuronowych

Układy i Systemy Elektromedyczne

LABORATORIUM POMIARY W AKUSTYCE. ĆWICZENIE NR 4 Pomiar współczynników pochłaniania i odbicia dźwięku oraz impedancji akustycznej metodą fali stojącej

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

Testowanie modeli predykcyjnych

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

IMPLEMENTACJA SIECI NEURONOWYCH MLP Z WALIDACJĄ KRZYŻOWĄ

Automatyczne rozpoznawanie mowy - wybrane zagadnienia / Ryszard Makowski. Wrocław, Spis treści

Metody systemowe i decyzyjne w informatyce

Elementy modelowania matematycznego

Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego

Ćwiczenie 4. Filtry o skończonej odpowiedzi impulsowej (SOI)

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

Aproksymacja funkcji a regresja symboliczna

Własności dynamiczne przetworników pierwszego rzędu

Elementy statystyki wielowymiarowej

SZTUCZNA INTELIGENCJA

Analiza korespondencji

Optymalizacja ciągła

PROGNOZOWANIE OSIADAŃ POWIERZCHNI TERENU PRZY UŻYCIU SIECI NEURONOWYCH**

Przykładowa analiza danych

Sieci Kohonena Grupowanie

Modelowanie glikemii w procesie insulinoterapii

Ćwiczenie 3,4. Analiza widmowa sygnałów czasowych: sinus, trójkąt, prostokąt, szum biały i szum różowy

operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Klasyfikacja LDA + walidacja

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Metody eksploracji danych w odkrywaniu wiedzy (MED) projekt, dokumentacja końcowa

Pattern Classification

Badanie widma fali akustycznej

Dopasowywanie modelu do danych


STATYCZNA PRÓBA ROZCIĄGANIA

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

10. Redukcja wymiaru - metoda PCA

1 Obsługa aplikacji sonary

Systemy uczące się Lab 4

Sposoby prezentacji problemów w statystyce

Analiza sprawdzianu 2010 klas szóstych szkoły podstawowej

Instrukcja realizacji ćwiczenia

Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change

Sposoby opisu i modelowania zakłóceń kanałowych

Projekt Sieci neuronowe

Agnieszka Nowak Brzezińska

RÓWNOWAŻNOŚĆ METOD BADAWCZYCH

ANALIZA WYNIKÓW NAUCZANIA W GIMNAZJUM NR 3 Z ZASTOSOWANIEM KALKULATORA EWD 100 ROK 2012

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Symulacja sygnału czujnika z wyjściem częstotliwościowym w stanach dynamicznych

Wprowadzenie do analizy dyskryminacyjnej

Agnieszka Nowak Brzezińska Wykład III

Podstawy Sztucznej Inteligencji (PSZT)

8. Analiza widmowa metodą szybkiej transformaty Fouriera (FFT)

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Sieci neuronowe w Statistica

LABORATORIUM 3. Jeśli p α, to hipotezę zerową odrzucamy Jeśli p > α, to nie mamy podstaw do odrzucenia hipotezy zerowej

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Analiza Statystyczna

System wizyjny OMRON Xpectia FZx

Kompresja danych Streszczenie Studia Dzienne Wykład 10,

Ćwiczenie: "Obwody prądu sinusoidalnego jednofazowego"

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Wydział Inżynierii Produkcji. I Logistyki. Statystyka opisowa. Wykład 3. Dr inż. Adam Deptuła

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Transpozer czasowy mowy

Agnieszka Nowak Brzezińska Wykład III

Wstęp do sieci neuronowych, wykład 02 Perceptrony c.d. Maszyna liniowa.

1 Moduł Neuronu Analogowego SM

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

Uczenie sieci radialnych (RBF)

Sieć przesyłająca żetony CP (counter propagation)

Ćw. 18: Pomiary wielkości nieelektrycznych II

Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach instrumentów muzycznych

Populacja generalna (zbiorowość generalna) zbiór obejmujący wszystkie elementy będące przedmiotem badań Próba (podzbiór zbiorowości generalnej) część

Sieci neuronowe do przetwarzania informacji / Stanisław Osowski. wyd. 3. Warszawa, Spis treści

LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ.

Katedra Fizyki Ciała Stałego Uniwersytetu Łódzkiego. Ćwiczenie 2 Badanie funkcji korelacji w przebiegach elektrycznych.

Zastosowania sieci neuronowych

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Inteligentna analiza danych

Sieci neuronowe w Statistica. Agnieszka Nowak - Brzezioska

Metoda Karnaugh. B A BC A

2.2 Opis części programowej

Przestrzeń algorytmów klastrowania

Akademia Górniczo-Hutnicza im. Stanisława Staszica w Krakowie Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej

SYSTEM BIOMETRYCZNY IDENTYFIKUJĄCY OSOBY NA PODSTAWIE CECH OSOBNICZYCH TWARZY. Autorzy: M. Lewicka, K. Stańczyk

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

Transkrypt:

INSTYTUT BADAŃ SYSTEMOWYCH POLSKIEJ AKADEMII NAUK mgr Adam Kobus Streszczenie rozprawy doktorskiej Komputerowa analiza i rozpoznawanie niepłynności mowy z zastosowaniem metody liniowej predykcji Promotor: prof. nadzw. dr hab. Wiesława Kuniszyk-Jóźkowiak Warszawa 2016

1 Wstęp 1.1 Cel pracy Celem pracy jest opracowanie metody do automatycznej detekcji niepłynności w wypowiedziach osób jąkających się oraz wykrywania wadliwych ustawień artykulatorów na podstawie dynamicznie zmieniającego się w trakcie wypowiedzi modelu traktu głosowego. 1.2 Tezy pracy 1. Parametryzacja sygnału mowy z zastosowaniem współczynników liniowej predykcji jest zadowalającym rozwiązaniem ze względu na ich związek z konfiguracją traktu głosowego w trakcie wypowiedzi. 2. Efektywnym systemem rozpoznawania przedłużeń i powtórzeń głosek jest hierarchiczny układ sieci neuronowych z siecią Kohonena jako reduktorem wymiarowości i perceptronem wielowarstwowym jako klasyfikatorem. 3. Rozpoznawanie powtórzeń sylab jest możliwe na podstawie podobieństw struktury formantowej sąsiadujących segmentów. 1.3 Plan pracy 1. Wstęp 1.1 Cel pracy 1.2 Tezy pracy 2. Klasyfikacja i rozpoznawanie niepłynności mowy - stan dotychczasowych badań 3. Algorytmy liniowej predykcji 3.1 Metoda liniowej predykcji 3.2 Liniowa predykcja a model kanału transmisyjnego 3.3 Algorytmy wyznaczania współczynników liniowej predykcji 3.4 Funkcja okna 4. Sztuczne sieci neuronowe 4.1 Sieci Kohonena 1

4.2 Liniowe sieci neuronowe 4.3 Perceptron wielowarstwowy 4.4 Radialne sieci neuronowe 4.5 Uczenie sieci neuronowych 4.5.1 Wsteczna propagacja błędu (BP) 4.5.2 Gradienty sprzężone (CG) 4.5.3 Pseudoinwersja (PI) 4.5.4 Metoda K-średnich (KM) 4.5.5 Metoda K-najbliższych sąsiadów (KN) 4.6 Ocena klasyfikacji 5. Badania i modelowanie traktu głosowego 5.1 Modele wielomianowe 5.1.1 Maedy 5.1.2 Mathieu - zmodyfikowany model Maedy 5.1.3 Badin-Beautemps 5.1.4 Mollaei 5.2 Inne modele 5.2.1 Predykcyjny Markela-Grey a 5.2.2 Modele rzeczywiste 5.2.3 Model oparty o algorytmy genetyczne 5.2.4 Regionów charakterystycznych 5.2.5 Modele oparte o inwersję akustyczną 5.3 Podsumowanie 6. Rozpoznawanie niepłynności mowy z zastosowaniem liniowej predykcji i sztucznych sieci neuronowych 6.1 Koncepcja rozpoznawania niepłynności mowy z zastosowaniem hierarchicznych sieci neuronowych 6.2 Rozpoznawanie powtórzeń głosek 6.2.1 Materiał dźwiękowy 6.2.2 Algorytm detekcji 6.2.3 Dobór parametrów sieci grupujących i klasyfikujących 6.2.4 Wyniki rozpoznawania niepłynności 2

6.2.5 Wnioski 6.3 Rozpoznawanie przedłużeń 6.3.1 Materiał dźwiękowy 6.3.2 Algorytm detekcji 6.3.3 Dobór parametrów sieci grupujących i klasyfikujących 6.3.4 Wyniki rozpoznawania niepłynności 6.3.5 Wnioski 7. Eliptyczny model traktu głosowego 7.1 Opis modelu 7.2 Przykładowe analizy traktów głosowych niepłynnych głosek 7.2.1 Głoska z 7.2.2 Głoska ż 7.2.3 Głoska y 8. Rozpoznawanie powtórzeń sylab 8.1 Algorytm rozpoznawania 8.2 Materiał dźwiękowy 8.3 Przygotowanie danych 8.4 Algorytm podziału wypowiedzi 8.5 Łączenie wypowiedzi w pary 8.6 Parametryzacja wypowiedzi 8.7 Grupowanie 8.7.1 Normalizacja przestrzeni punktów charakterystycznych 8.7.2 Dane wejściowe 8.7.3 Inicjalizacja centrów 8.7.4 Algorytm K-means 8.8 Miary odległości między wektorami 8.8.1 Metryki 8.8.2 Przestrzenie klasyfikacji 8.8.3 Odległość między wektorami 8.9 Klasyfikacja 8.10 Wyniki klasyfikacji 3

8.10.1 Analiza wieloparametryczna 8.10.2 Analiza kategoryzacji i liczby centrów 8.10.3 Wnioski z analizy szczegółowej 8.11 Wnioski 9. Program do analizy i rozpoznawania niepłynności mowy 10. Podsumowanie 10.1 Przegląd użytych metod 10.2 Podsumowanie wyników detekcji 10.3 Wnioski końcowe 11. Bibliografia 12. Dodatek A 12.1 Ogólny opis programu Dabar 12.2 Menu główne 12.3 Główne ustawienia 12.4 Panel oscylogramu 12.5 Panel analizy widmowej 12.6 Panel analizy współczynników liniowej predykcji i PARCOR 12.7 Okna modelu traktu głosowego 12.8 Opcje zapisywania przeprowadzonych analiz 2 Klasyfikacja i rozpoznawanie niepłynności mowy - stan dotychczasowych badań Jąkanie jest problemem występującym powszechnie niezależnie od języka, zaś jego przejawy wykazują znaczne podobieństwo pomiędzy językami. Zaburzenia te można podzielić na kilka typów: przedłużenia, powtórzenia głosek, wtrącenia, powtórzenia sylab lub nawet dłuższego fragmentu słowa. Analiza możliwości automatycznego rozpoznawania niepłynności w mowie ciągłej jest niezwykle ważnym tematem. Osoby jąkające się mają problemy zarówno z komunikacją interpersonalną, samoakceptacją, jak i z wolna upowszechniającym się sterowaniem głosem. Dzięki tej analizie zwiększa się 4

wiedza o naturze jąkania, co pozwala tworzyć coraz lepsze terapie tego zaburzenia. Dzięki niej można nie tylko niwelować efekty jąkania ułatwiając artykulację poprzez ćwiczenia i dedykowane aplikacje, ale także poznać fizjologiczną genezę problemów artykulacyjnych. Badacze stawiający przed sobą to zadanie różnili się zarówno sposobem podejścia do parametryzacji, typami rozpoznawanych niepłynności, jak i klasyfikatorami [3]. W pracy przywołane są badania prowadzone na przestrzeni wielu lat przez takich badaczy jak Howell [15, 16, 17], Nöth [46], Czyżewski [9], Suszyński [61, 62, 63], Kuniszyk-Jóźkowiak [34], Świetlicka (Szczurowska) [64, 65, 66], Tian-Swee [67], Wiśniewski [68, 69, 70, 71], Ravikumar [47, 48, 49], Codello [6, 7, 8] oraz Chia Ai [3]. Po przeanalizowaniu literatury warto zauważyć, że: nikt nie zaproponował użycia współczynników liniowej predykcji (LP) do detekcji niepłynności mowy. Badania Chia Ai opierają się na współczynnikach cepstralnych uzyskanych pośrednio ze współczynników liniowej predykcji, celem większości badań są przedłużenia, powtórzenia głosek i sylab, rzadziej zaś wtrącenia, detekcją niepłynności w mowie ciągłej zajmowały się jedynie zespoły: Suszyński, Kuniszyk-Jóźkowiak [61], Wiśniewski, Kuniszyk-Jóźkowiak [69] oraz Codello, Kuniszyk-Jóźkowiak [6, 7, 8], jedynie zespół Świetlicka, Kuniszyk-Jóźkowiak [66] porównywał skuteczność różnych typów sztucznych sieci neuronowych jako klasyfikatorów, jednak stosował on inną parametryzację danych. Badania przedstawione w pracy oparto na wieloletnich doświadczeniach Zakładu Biocybernetyki Instytutu Informatyki UMCS w akustycznej analizie mowy [23, 24, 40, 42, 56] w szczególności u osób jąkających się [31, 33, 35, 36, 37, 38, 45, 51, 54, 55], w badaniach sygnału mowy tych osób pod względem obwiedni [25, 27, 41], czasu fonacji [26], widma [44], badaniach dotyczących echokorekcji [1, 2, 11, 28, 29, 30, 32, 60] i automatyzowania diagnozy [10, 12, 13, 14, 34, 39, 43, 50] również przy pomocy sztucznych sieci neuronowych [6, 52, 53, 57, 58, 59]. Autor niniejszej pracy opracował program komputerowy Dabar. Zamierzeniem autora było rozpoznawanie różnych typów niepłynności i w tym celu dokonał implementacji algorytmów rozpoznawania przedłużeń [21] i powtórzeń głosek [19], zanalizowano także możliwość rozpoznawania powtórzeń sylab i fragmentów słowa. Wśród funkcjonalności, które program posiada, są 5

m.in.: redukcja wymiarowości sieciami Kohonena, wyznaczanie współczynników liniowej predykcji i PARCOR, wyznaczanie widma częstotliwościowego na bazie LPC, a także budowanie eliptycznego modelu traktu głosowego. W celu detekcji powtórzeń sylab [22] zaimplementowano segmentację wypowiedzi na sylaby i fragmenty mowy jak również wyznaczanie centrów metodą K-means. Opis funkcjonalności programu znajduje się w rozdz. 9 i dodatku A. 3 Algorytmy liniowej predykcji U podstaw liniowej predykcji leży idea, polegająca na tym, iż następujące po sobie próbki sygnału mowy nie zmieniają się znacząco. Rozrzut pomiędzy dwiema sąsiednimi próbkami jest stosunkowo mały, zatem kolejna próbka może być przybliżona na podstawie zestawu p poprzednich próbek. Tę ideę wyraża się wzorem: p s(m) = α k s(m k), (1) k=1 gdzie s(m) to wartość m-tej przewidywanej próbki sygnału, s(m) - wartość m-tej próbki sygnału wejściowego, p - rząd predykcji, zaś α k to współczynniki, które będą wyliczane, a które są charakterystyczne dla sygnału. Gdy przyjmie się, że sygnał pobudzający ma postać impulsu jednostkowego, wówczas bieżąca próbka jest liniową kombinacją poprzednich próbek. Celem liniowej predykcji jest minimalizacja błędu średniokwadratowego pomiędzy predykowaną, a bieżącą próbką rzeczywistego sygnału. Średniokwadratowy chwilowy błąd predykcji wyraża się wzorem: E n = m e 2 n(m), (2) gdzie p e n (m) = e(n + m) = s n (m) s n (m) = s n (m) α k s n (m k), (3) k=1 zaś s n (m) = s(n + m). Liczba n określa numer próbki sygnału, od której prowadzone są rozważania. Wyznaczanie współczynników liniowej predykcji polega na minimalizacji błędu predykcji sygnału z dotychczasowych próbek. Najczęściej stosowanymi algorytmami liniowej predykcji są: algorytm autokorelacyjny (Levinsona- Durbina), kowariancyjny i kratowy (Burga). 6

W celu określenia charakterystyki sygnału mowy, a jak się niebawem okaże także traktu głosowego, zastosowano metodę liniowej predykcji. Zanim jednak osiągnięto ten cel, należało wybrać algorytm liniowej predykcji, który pozwala na najlepsze scharakteryzowanie wybranego fragmentu sygnału mowy. W tym celu zaimplementowane zostały trzy najczęściej stosowane algorytmy: Levinsona-Durbina, kowariancyjny oraz kratowy Burga. Zostały one zaimplementowane w języku C++ i implementacja ta została zamieszczona w pracy. 4 Sztuczne sieci neuronowe W osiągnięciu celów pracy niezbędne było operowanie sieciami neuronowymi. Cztery typy sieci neuronowych zostały użyte do dwóch celów: redukcji rozmiaru danych do reprezentatywnego mniejszego wektora oraz klasyfikacji wypowiedzi pod względem płynności/niepłynności. W pracy opisane zostały sieci Kohonena, służące do redukcji rozmiaru danych, a także sieci klasyfikujące: liniowe, perceptron wielowarstwowy i radialne sieci neuronowe. W celu określenia jakości detekcji niepłynności mowy, dla wyników każdego typu badań zostały określone dwa parametry określające tę jakość. Są to: 1. Dokładność - 100 (P D + P U)/(P D + F D + P U + F U) - gdzie P D - prawdziwie dodatni - to liczba fragmentów niepłynnych z rozpoznaną niepłynnością, P U - prawdziwie ujemny - to liczba fragmentów płynnych rozpoznanych jako płynne, F D - fałszywie dodatni - liczba fragmentów płynnych rozpoznanych jako niepłynne, F U - fałszywie ujemny - liczba nierozpoznanych niepłynności, 2. Czułość - 100 P D/(P D + F U) - gdzie P D - prawdziwie dodatni - to liczba prawidłowo rozpoznanych niepłynności, F U - fałszywie ujemny - liczba nierozpoznanych niepłynności 3. Precyzja, przewidywalność - 100 P D/(P D + F D) - gdzie P D - prawdziwie dodatni - to liczba fragmentów niepłynnych z rozpoznaną niepłynnością, F D - fałszywie dodatni - liczba fragmentów płynnych rozpoznanych jako niepłynne 7

5 Badania i modelowanie traktu głosowego Celem modelowania traktu głosowego jest m.in. znalezienie analogii pomiędzy mierzalnymi cechami akustycznymi sygnału mowy, w tym przypadku współczynnikami liniowej predykcji, a konfiguracją traktu głosowego w procesie wytwarzania mowy. Analogia ta może być pomocna w wykrywaniu nieprawidłowości w ustawieniu artykulatorów przy mowie zdeformowanej. Wiele z modeli polega na zredukowaniu traktu głosowego do zestawu cylindrów o przekroju kołowym o różnej powierzchni. Mimo tych ograniczeń, modele tego typu dość dobrze odwzorowują własności traktu głosowego. Ciągłe modele są mocno obciążające obliczeniowo, ich redukcje zaś mają gorszą jakość modelowania. Badacze próbują znależć złoty środek pomiędzy różnymi modelami. Niektóre modele są hybrydowe - bazują na uśrednionych traktach głosowych dla różnych głosek, uzyskanych z badań medycznych, ale jednocześnie na analizie sygnału mowy i uogólnionych modelach opartych na zredukowanym trakcie głosowym do cylindrów, prostych figur przestrzennych, pomijając niuanse traktu. Nie pojawił się model, w którym figurami składowymi byłyby cylindry o podstawie eliptycznej. 6 Rozpoznawanie niepłynności mowy z zastosowaniem liniowej predykcji i sztucznych sieci neuronowych U źródeł tej koncepcji leży teza, że przy odpowiedniej liczbie elementów sieć neuronowa jest w stanie wykrystalizować w swojej strukturze umiejętność rozpoznawania założonych cech. Przyjęto założenie, że niepłynność mowy jest taką cechą. Algorytm rozpoznawania niepłynności mowy składa się z kilku kroków: 1. Pobranie danych wejściowych - sygnału mowy - w określonym formacie. 2. Przetwarzanie wstępne tych danych - m.in. podział na okna, zastosowanie okien czasowych czy też preemfaza. 3. Parametryzacja danych. 8

4. Grupowanie sparametryzowanych danych - jest to krok pozwalający na redukcję wymiaru danych (nie zawsze jest to niezbędne). 5. Klasyfikacja uzyskanych danych na płynne i niepłynne. Rysunek 1: Diagram algorytmu rozpoznawania niepłynności. Rozpoznawanie powtórzeń głosek Do analizy zostały użyte czterosekundowe wypowiedzi w formacie plików wave. Badanych było 17 osób: 8 osób jąkających się: jedna kobieta (24l.), czterech mężczyzn (15-25l.) i troje dzieci - jedna dziewczynka (7l.) i dwóch chłopców (8 i 10l.), 9 osób mówiących płynnie: cztery kobiety (19-24l.) i pięciu mężczyzn (18-25l.). 9

Algorytm detekcji 1. każde nagranie zostało podzielone na 512-próbkowe okna, 2. każde okno zostało przemnożone przez funkcję Hanna, 3. dla każdego okna obliczono po 15 współczynników liniowej predykcji. Do obliczeń użyto metody Levinsona-Durbina. 4. obliczony wektor współczynników został użyty jako wektor danych wejściowych do sieci Kohonena, jednej dla każdego wektora. Zredukowane zostały w ten sposób wektory do reprezentatywnych numerów - porządkowych numerów neuronów wygrywających. Wzięto pod uwagę trzy rozmiary wyjściowej warstwy sieci Kohonena: 5x5, 6x6 i 7x7. 5. dla uzyskanych w ten sposób wektorów składających się ze 170 neuronów wygrywających przeprowadzona została analiza przy pomocy modułu Solver programu Statistica 7.1. Pozwala on zanalizować wielu typów sieci i wybrać kilka o najlepszych wynikach rozpoznawania. Sieci grupujące Ze względu na to, że 15 współczynników liniowej predykcji pozwala wyróżnić w widmie sygnału pierwsze cztery formanty opisujące głoskę, ten rząd został wzięty pod uwagę. Należało następnie wybrać taką sieć Kohonena, której własności grupujące pozwolą na zbudowanie dobrej charakterystyki nagrań w celu detekcji niepłynności. Każdy z zestawów współczynników został użyty jako zestaw danych wejściowych sieci Kohonena, która miała za zadanie umożliwić redukcję tego zestawu do jednej liczby. Do tego celu użyte zostały trzy sieci Kohonena o architekturze prostokątnej: 5x5, 6x6 i 7x7, w celu sprawdzenia jakości rozpoznawania niepłynności w zależności od rozpiętości dziedziny reprezentacji. Wybrany czas uczenia sieci Kohonena wynosił 100 epok. Współczynnik sąsiedztwa wynosił 1, zaś współczynnik uczenia się sieci wynosił 0.1. Zwiększanie liczby epok nie zwiększało poprawności wyznaczanych odwzorowań wypowiedzi. Sieć była inicjalizowana równomiernie. Z obserwacji wynika, że każda z badanych sieci pozwala na zamodelowanie płynnych fragmentów wypowiedzi i uwidocznienie fragmentów powtarzanych głosek. Na rysunku 2 można zaobserwować, że trajektoria czasowa niektórych fragmentów wypowiedzi odznacza się dłuższymi okresami, gdy wygrywającym jest ten sam neuron. Okresy te przerywane są przez krótkotrwałe i diametralne zmiany neuronu wygrywającego. Porównując trajektorię z oscylogramem, można zauważyć, że zmiany te odpowiadają powtórzeniom głosek. Na rysunkach obrazujących płynne wypowiedzi nie można zaobserwować ta- 10

Rysunek 2: Trajektoria czasowa neuronów wygrywających w sieci Kohonena 7x7 dla niepłynnej wypowiedzi (niepłynnie wypowiedziane słowo zaznaczono na oscylogramie u góry rysunku). kiej charakterystyki. Zmiany neuronów wygrywających są częste, a żaden z neuronów nie wyróżnia się spośród innych częstością występowania. Wybór najlepszej sieci Kohonena do tej analizy, jak i wybór najlepszej sieci do określenia niepłynności próbki, zostały dokonane za pomocą programu Statistica w wersji 5.0 i 7.1. Z użyciem programu wygenerowano sieci Kohonena o wybranych strukturach, w których warstwy wyjściowe miały rozmiar 5x5, 6x6 i 7x7. Po uzyskaniu zaś funkcji neuronów wygrywających z tych sieci, program Statistica wygenerował i wytestował wiele sieci neuronowych klasyfikujących względem detekcji niepłynności mowy. Sieci klasyfikujące Ze względu na podział wypowiedzi ciągłej na czterosekundowe odcinki oraz biorąc pod uwagę nienakładające się optymalne okna o wielkości 512 próbek, na wejściu sieci klasyfikującej jest ok. 170 wartości. Dla każdej z tych trzech architektur sieci Kohonena zostały przeanalizowane sieci klasyfikujące wielu typów: perceptrony wielowarstwowe różnej wielkości, struktury i funkcji uczenia, radialne sieci neuronowe o różnej wielkości warstwy ukrytej i sieci liniowe. Zestaw sparametryzowanych nagrań podzielono losowo na trzy grupy: część treningową (50%), weryfikacyjną (25%) oraz testową (25%). Sprawdzono skuteczność klasyfikacji niepłynności dla różnych rozmiarów grupującej sieci Kohonena. Wyniki rozpoznawania niepłynności Na rysunku 3 określone są czułość i precyzja w zależności od wybranych parametrów algorytmu detekcji: 11

układu sieci Kohonena, w których warstwa wyjściowa ma architekturę 5x5, 6x6 lub 7x7, sieci klasyfikującej: MLP, RBF, liniowej. Rysunek 3: Czułość i precyzja detekcji powtórzeń głosek dla różnych architektur sieci Kohonena i różnych sieci klasyfikujących. Na rysunku 3 można zaobserwować, że najlepsze wyniki czułości (100%) i precyzji (93%) osiągnęła sieć RBF z architekturą sieci Kohonena 6x6. Dodatkowo można zauważyć, że z kolei wyniki dla sieci MLP są sobie najbliższe i względem pozostałych sieci, sieci MLP osiągają stosunkowo lepsze wyniki względem czułości i precyzji. Z wyników tej analizy można wnioskować, że automatyczne rozpoznawanie niepłynności mowy za pomocą sztucznych sieci neuronowych na podstawie współczynników liniowej predykcji jest możliwe w stopniu zadowalającym, z dokładnością przekraczającą 80%. Drugim z wniosków, który można wysnuć, jest, że najlepszą siecią redukującą wymiar danych, który tworzą zestawy współczynników liniowej predykcji dla nienakładających się okien sygnału jest sieć Kohonena o wymiarach 6x6 neuronów. Trzeba nadmienić, że wyniki są bardzo dobre dla sieci 5x5, zaś już nieco gorsze dla 7x7. Należy także zwrócić uwagę na fakt, iż najlepszą siecią rozpoznającą niepłynność mowy na podstawie neuronów wygrywających, uzyskanych z sieci Kohonena w poprzednim kroku, jest perceptron wielowarstwowy (MLP). Dość dobre wyniki, szczególnie w testach dla małych sieci Kohonena, osiąga 12

także sieć radialna (RBF), zaś najsłabiej pod każdym względem wypada sieć liniowa. Rozpoznawanie przedłużeń głosek Przedłużenia głosek są obok powtórzeń najbardziej charakterystyczne dla niepłynnej mowy. W ich analizie również brano pod uwagę czterosekundowe wypowiedzi. Każda wypowiedź podzielona została na nienachodzące na siebie fragmenty. Każda część została zaklasyfikowana jako płynna lub niepłynna. Niepłynne fragmenty charakteryzowały się ponad 50% przedłużeniem czasu trwania. Parametryzacja nagrań i redukcja wymiarowości były analogiczne do tych z analizy powtórzeń głosek. Kolejnym krokiem algorytmu był podział wektora zawierającego numery neuronów dla każdej wypowiedzi na 10 podwektorów o równym rozmiarze 400 milisekund. Każdy z podwektorów był przyporządkowany do fragmentu oryginalnej wypowiedzi, wstępnie zaklasyfikowanej jako płynne lub niepłynne. Podwektory podzielono na trzy grupy w celu dalszej analizy: część treningową (50% fragmentów), weryfikacyjną (25%) i testową (25%). Podano te podwektory na wejście sieci neuronowych celem treningu rozpoznawania niepłynności. Po etapie weryfikacji nauczonych sieci, sprawdzono czy rozpoznają przedłużenia wśród testowej części nagrań. Przebadano dziesiątki klasyfikatorów: sieci RBF, liniowych i MLP. Badania zakończono po określeniu najlepszego typu sieci do tego typu problemów. Do analizy użyto czterosekundowych wypowiedzi. Wszystkie 58 plików było zapisanych w formacie wave. Badanych było 8 osób jąkających się: czterech mężczyzn i czworo dzieci - jedna dziewczynka i trzech chłopców. 13

Algorytm detekcji 1. każde czterosekundowe nagranie zostało podzielone na 512- próbkowe okna, 2. każde okno zostało przemnożone funkcją Hanna, 3. dla każdego okna obliczono po 15 współczynników liniowej predykcji. Do obliczeń użyto metody Levinsona-Durbina. 4. obliczony wektor współczynników został użyty jako wektor danych wejściowych do sieci Kohonena, jednej dla każdego wektora. Uzyskano w ten sposób wektor 170 neuronów wygrywających. 5. obliczony wektor neuronów został podzielony na 10 części, krótkich fragmentów, wstępnie sklasyfikowanych jako płynne lub zawierające przedłużenie, 6. dla uzyskanych w ten sposób podwektorów zawierających po 17 neuronów wygrywających przeprowadzona została analiza przy pomocy modułu Solver programu Statistica 7.1. Sieci grupujące Do celów redukcji wymiaru danych zostały użyte trzy sieci Kohonena o architekturze prostokątnej. Rozmiary warstwy wyjściowej to 25, 36 i 49 neuronów ustawionych w macierze 5x5, 6x6 i 7x7. Celem było sprawdzenie działania detekcji niepłynności w zależności od zakresu reprezentacji. Sieć Kohonena była uczona przez 100 epok. Współczynnik sąsiedztwa został ustalony na 1 zaś współczynnik uczenia wynosił 0, 1 w każdej epoce. Zwiększanie liczby epok nie zwiększało jakości modelowania wypowiedzi. Sieć została zainicjalizowana równomiernie. Pierwszą obserwacją jaka została dokonana była ta, że każda testowana sieć pozwalała modelować zmiany mowy w wypowiedziach i zauważyć fragmenty z przedłużeniami. Każda wypowiedź zamodelowana przez neurony wygrywające sieci Kohonena została podzielona na fragmenty 400 milisekund i każdy z fragmentów został sklasyfikowany względem płynności. Uzyskano 342 framenty wypowiedzi. Aplikacja Dabar pozwoliła zanalizować nagrania począwszy od przemnożenia okien przez funkcję Hanna, aż po uzyskanie dla każdego z nich neuronów wygrywających z sieci Kohonena. Sieci klasyfikujące Ostatnim krokiem algorytmu detekcji niepłynności było sprawdzenie, czy jest możliwe skonstruowanie sieci neuronowej z nauczycielem w celu detekcji niepłynności i sprawdzenie, które z sieci osiągają najlepsze rezultaty i czy są one satysfakcjonujące. 14

Rysunek 4: Przebieg czasowy neuronów zwycięskich w sieci Kohonena 5x5 w niepłynnej wypowiedzi. Wyniki rozpoznawania niepłynności Wyniki zostały podzielone na trzy części, w zależności od struktury sieci Kohonena. Jako sieci klasyfikujące zostały zastosowane perceptrony jednowarstwowe, sieci RBF i sieci liniowe. Sprawdzono skuteczność klasyfikacji niepłynności dla różnych rozmiarów grupującej sieci Kohonena. Na rysunku 5 określone są czułość i precyzja w zależności od wybranych parametrów algorytmu detekcji: układu sieci Kohonena, w których warstwa wyjściowa ma architekturę 5x5, 6x6 lub 7x7, sieci klasyfikującej: MLP, RBF, liniowej. Na rysunku 5 można zaobserwować, że najlepsze wyniki czułości (79%) i precyzji (87%) osiągnęła sieć RBF z architekturą sieci Kohonena 7x7. Dodatkowo można zauważyć, że wyniki dla sieci RBF są sobie najbliższe i względem pozostałych sieci, sieci RBF osiągają stosunkowo lepsze wyniki względem czułości i precyzji. Badania pokazały, że nalepsze rezultaty weryfikacji osiąga RBF z 43 neuronami w warstwie ukrytej z uczeniem metodą K-średnich, K-najbliższych sąsiadów i pseudoinwersji. Dane wejściowe do niej uzyskano przy użyciu sieci Kohonena 7x7. Rozpoznawanie przy użyciu sieci Kohonena o tej architekturze, osiąga dokładność powyżej 80% dla dwóch typów sieci neuronowych: MLP i RBF. Drugim wnioskiem jest to, że najlepszą siecią Kohonena służącą do redukcji wymiaru danych jest sieć z warstwą wyjściową 7x7. Wejściowe dane 15

Rysunek 5: Czułość i precyzja detekcji przedłużeń głosek dla różnych architektur sieci Kohonena i różnych sieci klasyfikujących. to wektory współczynników liniowej predykcji dla nienachodzących na siebie okien sygnału. Wyniki weryfikacji dla sieci Kohonena 7x7 były lepsze od innych zastosowanych sieci. Należy nadmienić, iż najlepszą siecią klasyfikującą niepłynność mowy na podstawie neuronów wygrywających uzyskanych z sieci Kohonena była sieć RBF. Sieć MLP dawała dobre wyniki niezależnie od sieci Kohonena. Badania ukazały, że liniowe sieci są najgorsze do tych celów. 7 Eliptyczny model traktu głosowego Dotychczasowy model predykcyjny w postaci cylindrów o stałym przekroju kołowym nie odpowiada rzeczywistym przekrojom traktu głosowego. W związku z tym, w oparciu o dotychczasowe doświadczenia, zaproponowano model złożony z cylindrów o przekrojach eliptycznych. Bazą do rozważań o modelowaniu traktu głosowego jest spostrzeżenie, że istnieje podobieństwo traktu głosowego do szeregu cylindrów o różnym przekroju. Fala głosowa, która przechodzi przez ten szereg cylindrów, ulega częściowemu odbiciu na połączeniach cylindrów i interferuje z nadchodzącą falą. Współczynniki odbicia w i-tej rurze pozwalają na połączenie tego układu z przekrojami traktu głosowego. Na tej podstawie po i-tej sekcji funkcja przekroju obliczana w wyniku analizy metodą liniowej predykcji, może być uzyskana przez rekurencję. 16

Został zatem zdefiniowany współczynnik częściowej korelacji (PARCOR) wyrażony wzorem: ( ) 1 ki A i+1 = A i, 1 i p, (4) 1 + k i gdzie A i to pola sąsiadujących ze sobą członów modelu bezstratnej tuby traktu głosowego, a k i to współczynniki PARCOR. Średnica każdego z członów wyznaczana jest ze wzoru na pole podstawy cylindra, będącego członem takiego modelu. Przekrój traktu głosowego w dowolnym miejscu bardziej przypomina elipsę, dlatego też w pracy zaproponowano model składający się z cylindrów o przekrojach eliptycznych. Dla takiego modelu pole powierzchni przekroju i-tego segmentu wyraża się wzorem: A i = πa i b i, (5) gdzie a i i b i to osie elipsy. Osi a i i b i zostały wyznaczone z poprzecznych przekrojów traktu głosowego przy artykulacji samogłosek polskich a, e, i, o, u, y. Przekroje A i kolejnych sekcji obliczano drogą analizy predykcyjnej plików dźwiękowych zawierających wypowiedź poszczególnych samogłosek. Zastosowany algorytm Levinsona-Durbina pozwolił na bezpośrednie wyznaczenie współczynników PARCOR. Zaproponowano model traktu głosowego składający się z cylindrów o przekrojach eliptycznych według zależności: a i = A i. (6) πb i gdzie gdzie a i i b i to znormalizowane osie elipsy, a A i to znormalizowane pole powierzchni przekroju. Pomiary rzeczywistego modelu zostały wykonane poprzez nakreślenie ścieżki środków przekrojów rzeczywistych, następnie wyznaczenie wzdłuż niej kolejnych kroków co 20 pikseli, by później zmierzyć szerokość przekroju traktu głosowego w danym miejscu pomiaru. Uzyskano w ten sposób ok. 80 pomiarów szerokości dla każdego rzeczywistego traktu głosowego. Taki pomiar umożliwił zniwelowanie różnic w długości traktu głosowego dla różnych ścian, spowodowanych zagięciem toru. W celu znormalizowania wyników pomiarów do poziomu pól uzyskanych ze współczynników PARCOR wzięto stosunki wysokości do szerokości rozchylenia ust z labiogramów dla samogłosek. W literaturze znane są wzorcowe ustawienia ust przy arktykulacji pojedynczych samogłosek. W opracowanym modelu był to przekrój ostatniej sekcji. W opraciu o wzorcowe labiogramy przy wypowiedziach samogłosek polskich a, e, i, o, u, y porównano stosunki osi przekrojów wyznaczone na podstawie opracowanego modelu ze zmierzonymi z obrazów ust. 17

Rysunek 6: Model cylindryczny traktu głosowego o podstawie eliptycznej dla głoski a Rysunek 7: Pole (górny wykres), wysokość (środkowy) i szerokość półosi (dolny) przekroju poprzecznego traktu głosowego dla głoski a (dla stanu ustalonego) dla 15 współczynników PARCOR. 8 Rozpoznawanie powtórzeń sylab Niniejsze badanie miało na celu analizę możliwości automatycznej detekcji powtórzeń sylab i większych fragmentów mowy z zastosowaniem metody liniowej predykcji. W każdej wypowiedzi określono miejsca, w których następuje powtórzenie sylaby lub fragmentu mowy. Do analizy użyto kilku- i kilkunastosekundowych wypowiedzi. Wszystkie 56 plików o sumarycznym czasie 3 minut 47 sekund były zapisane w formacie wave. W eksperymencie wzięło udział 14 uczestników jąkających się: 9 mężczyzn i 5 kobiet. Mężczyźni byli w wieku 11 25 lat (30 nagrań), kobiety zaś miały 13 24 lat (26 nagrań). 18

Rysunek 8: Schemat algorytmu rozpoznawania powtórzeń sylab i fragmentów wypowiedzi 19

Każdy z fragmentów danej wypowiedzi był porównywany z następującym po nim. Jeśli fragment późniejszy był dłuższy niż fragment poprzedzający go, został on przycięty do długości poprzedzającego go fragmentu. Wynika to z faktu, że fragment późniejszy może zawierać także dalszą, płynną część wypowiedzi, zaś fragment powtarzany jest w początkowej jego fazie. Dla każdego z okien określane są formanty. Wyznaczają je takie maksima lokalne widma częstotliwościowego F, które spełniają warunek dla pasma przenoszenia: B j = (f j /π) ln(r 0 ) < B (7) gdzie B j to pasmo przenoszenia (zwane 3-dB pasmem), j to liczba porządkowa maksimum z wybranego okna, f j to częstotliwość j-tego maksimum p spektrum, a r 0 to miejsca zerowe wielomianu A(z) = 1 α k z k, gdzie z = e i2πf j/f s, f s to częstotliwość próbkowania. B jest to maksymalna dopuszczalna dla formantu szerokość pasma. Na potrzeby analizy zastosowano B = 700 Hz. Punkty mają trzy współrzędne: częstotliwość, amplitudę oraz czas. Dla każdego okna uzyskanych zostało kilka formantów. Dzięki temu fragment reprezentowany jest przez zbiór P takich punktów w przestrzeni trójwymiarowej (częstolitość, amplituda, czas). Dwa z tych wymiarów, częstotliwość i amplituda, stanowią podstawę do zastosowania algorytmu K-means, który ma za zadanie zredukować m punktów charakterystycznych ze zbioru P do k środków charakterystycznych dla całego fragmentu. Normalizacja przestrzeni punktów charakterystycznych dokonywana jest poprzez przeskalowanie każdego z wymiarów przestrzeni względem wartości średniej oraz wariancji wartości zbioru punktów, czyli na podstawie odległości Mahalanobisa. Dany jest zbiór P znormalizowanych punktów p j, gdzie 0 < j < m, m jest liczbą elementów zbioru P, i wektor k znormalizowanych centrów początkowych c i, gdzie 0 < i < k, a k to długość wektora k. Zarówno zbiór punktów jak i wektor centrów powinny być znormalizowane, gdyż w celu określenia odległości dwóch punktów w przestrzeni N-wymiarowej niezbędna jest taka normalizacja przestrzeni, aby odległości w każdym z wymiarów były porównywalne. Wektor k centrów musi być także zainicjalizowany wartościami współrzędnych. Częstokroć stosuje się losową inicjalizację centrów, jednak dzięki znajomości struktury zbioru punktów, można zastosować inicjalizację opartą o tę k=1 20

wiedzę. W badaniach do inicjalizacji zastosowano metodę równomiernego rozkładu. Danymi na których bazuje inicjalizacja są punkty trójwymiarowe o współrzędnych: czas, amplituda i częstotliwość. Analizowano trzy sposoby inicjalizacji centrów. Metoda START-END Spośród punktów wejściowych wybieranych jest k/2 punktów z początku fragmentu oraz k/2 punktów z końca fragmentu. W przypadku nieparzystej liczby k więcej punktów zostaje pobranych z końca fragmentu. W sytuacji, gdy punktów jest za mało by uzyskać k punktów, pierwszy z punktów jest odpowiednio zwielokrotniany, jako niewpływający na ostateczne wyniki pomiaru odległości między centrami jednego i drugiego fragmentu. Metoda MAX-INTERVAL Spośród punktów wejściowych ze zbioru P wybieranych jest k p punktów, które składają się na okno o największej liczbie punktów. W przypadku, gdy k p < k do zbioru dołączane są punkty od początku fragmentu, ale różne względem czasu z już dołączonymi. W sytuacji, gdy zabraknie i takich punktów, do zbioru centrów dołączane są średnie czasy, amplitudy i częstotliwości z już uzyskanych punktów. Metoda EVEN Jest to metoda równomiernego rozkładu. Punkty wejściowe sortowane są względem częstotliwości, a następnie wybieranych jest k p punktów równomiernie rozłożonych względem częstotliwości spośród wejściowych. W przypadku małej liczby takich punktów, punkty są zwielokrotniane do osiągnięcia liczby k, aby nie wpływały na wynik pomiaru odległości między wektorami. Mając już dane znormalizowane punkty i początkowe centra, następuje algorytm minimalizacji błędu dopasowania centrów. Zgodnie z opisanym w pracy algorytmem K-means następuje klasteryzacja zbioru punktów P dla każdego fragmentu wypowiedzi. Po analizie K- means uzyskujemy dla niego reprezentację w postaci wektora k punktów trójwymiarowych. W celu analizy odległości między wektorami k, a tym samym między samymi punktami, zastosowano szereg różnych miar odległości. Metryka euklidesowa została zastosowana do badania odległości między punktami w algorytmie K-means, a także przy klasyfikacji do badania odległości testowanej pary od wyznaczonego progu podziału między parami płynnymi a niepłynnymi (MEDIANA, AVERAGE). Metryka Mahalanobisa została zastosowana przy klasyfikacji przy badaniu odległości testowanej pary od grupy par płynnych i niepłynnych (MA- 21

HALANOBIS). W zależności od wymiaru w jakim mierzona jest odległość między punktami, wyróżnione są trzy typy: 1D - 1-wymiarowa, gdzie wymiarem jest tylko częstotliwość 2D - 2-wymiarowa, gdzie wymiarami są częstotliwość i amplituda 3D - 3-wymiarowa, gdzie wymiarami jest czas, częstotliwość i amplituda Po analizie K-means, każdy fragment reprezentowany jest przez wektor centrów. Po połaczeniu ich w pary obliczana jest odległość między nimi. Polega ona na wyznaczeniu sumy minimalnych euklidesowych odległości centrów późniejszego fragmentu od wcześniejszego. Zaimplementowano trzy rodzaje porównania odległości między wektorami: ONE - punktów odpowiadających - biorąc pod uwagę, że wektory centrów są równoliczne, porównanie odbywa się poprzez posortowanie każdego z wektorów względem częstotliwości oraz obliczenia odległości euklidesowej między odpowiadającymi sobie punktami. Odległością między wektorami uznaje się sumę tych k różnic. NEIGHS - najbliższego sąsiada - wektory porównywane są wpierw sortowane względem częstotliwości, a następnie obliczana jest odległość punktu z drugiego wektora od odpowiadającego mu punktu oraz jego sąsiadów. Spośród tych trzech odległości wybierana jest najmniejsza. Suma takich k najmniejszych odległości jest uznawana za odległość między wektorami. ALL - najmniejszej odległości - wektory są porównywane wg zasady: każdy z drugiego wektora z każdym z pierwszego. Przy długości k wektorów, wybieranych jest k najmniejszych z obliczonych odległości. Suma tych k najmniejszych odległości została uznana za odległość między wektorami. W powyższy sposób dla każdej pary wektorów uzyskano dzielącą je odległość. Uzyskane odległości posłużyły do klasyfikacji 262 par fragmentów na niepłynne (powtórzenia fragmentów) lub płynne. Uprzednio sklasyfikowane pary podzielono losowo na trzy części, z których dwie posłużyły jako część treningowa (172 pary), a jedna jako testowa (90 par). Do klasyfikacji użyto trzech różnych metod: 22

AVERAGE - najbliższej odległości od progu wg metryki euklidesowej - próg został określony doświadczalnie jako n + (f n)/5, gdzie n była to średnia arytmetyczna odległości między sąsiednimi fragmentami powtarzającymi się, a f to średnia arytmetyczna odległości między sąsiednimi fragmentami niepowtarzającymi się (mowa płynna) MEDIANA - metoda analogiczna do powyższej, ale średnia odległości została zastąpiona medianą MAHALANOBIS - najbliższej odległości od grupy wg metryki Mahalanobisa Do obliczeń średniej i mediany wykorzystano część treningową par. Wyniki dotyczą części testowej wyznaczonych par. Część testową stanowiły 42 pary płynne i 36 par niepłynnych. Wykres wynikowy określa jakość klasyfikacji niepłynności (czułość i precyzję) w zależności od zastosowanych parametrów: 1. Wymiaru - liczby wymiarów uczestniczących w pomiarze odległości: 1D - jedynie częstotliwość, 2D - częstotliwość i amplituda, 3D - częstotliwość, amplituda i czas, 2. Inicjalizacji - sposób inicjalizacji centrów w algorytmie K-means: START- END, MAX-INTERVAL, EVEN, 3. Pomiaru odległości - sposobu mierzenia odległości między wektorami, czyli także przyporządkowania do siebie centrów: ONE, NEIGHS, ALL, 4. Sposobu kategoryzacji: AVERAGE, MEDIANA, MAHALANOBIS, 5. K - liczby centrów w wektorze reprezentacji. Jako główny wyznacznik jakości klasyfikacji wybrano dokładność, czyli stosunek poprawnie rozpoznanych par płynnych i niepłynnych do wszystkich par. Dla każdej możliwej konfiguracji parametrów dokonano oceny klasyfikacji: wyznaczono jej dokładność oraz czułość i precyzję rozpoznawania niepłynności. Do analizy porównawczej z wszystkich konfiguracji wybierane były te, które zawierały badany parametr, a z nich 10 o najlepszej dokładności. W celu dopełnienia obrazu na wykresach zamieszczono także czułość i precyzję dla danej konfiguracji. Wyniki zostały pogrupowane w zależności od obserwowanej cechy. Wykresy obejmują algorytmy o najlepszych dokładnościach klasyfikacji. Obraz wynikowy dopełniają czułości i precyzje klasyfikacji. Zastosowano skrótowy 23

opis konfiguracji algorytmu: K4 K9 - liczba centrów; AV/MH/MD - kategoryzacja AVERAGE, MAHALANOBIS, MEDIANA; AL/NE/ON - sposób mierzenia odległości ALL, NEIGHS i ONE; 1D/2D/3D - liczba wymiarów, SE/MI/EV - inicjalizacja START-END, MAX-INTERVAL, EVEN. Wszystkie wykresy tej analizy skonstruowane są na podstawie tabeli najlepszych konfiguracji dla badanego kryterium. Wyniki zostały zamieszczone na wykresach od konfiguracji z najlepszą dokładnością, która została umieszczona pierwsza z lewej, po dziesiątą względem dokładności w tej tabeli, umieszczoną skrajnie po prawej. Najlepsza konfiguracja to taka, dla której zarówno czułość, jak i precyzja osiągają wysoki wynik, zaś rozrzut między nimi jest jak najmniejszy. Cechami, które wzięto pod uwagę w analizie wieloparametrycznej były: liczba wymiarów badanych punktów; typ inicjalizacji; metoda pomiaru odległości między wektorami; liczba centrów typ kategoryzacji Wyniki zamieszczone w pracy sugerują, że niektóre wartości parametrów zmieniają wyniki w sposób zdecydowany, a niektórym z nich warto się przyjrzeć dokładniej, by zauważyć różnice. Po wynikach analizy wieloparametrycznej ograniczono liczbę parametrów ustalając inicjalizację na typ EVEN, liczbę wymiarów do dwóch (2D) oraz ustalając sposób mierzenia odległości między wektorami jako ALL. 24

Rysunek 9: Jakość klasyfikacji dla konfiguracji o najlepszej dokładności w relacji do liczby centrów dla kategoryzacji typu AVERAGE. W sytuacji, gdy kategoryzowano wg reguły AVERAGE, wyniki dokładności względem liczby centrów (rys. 9) znalazły się w przedziale 77 90%. Konfiguracje algorytmu przy K = 6, K = 7 i K = 9 mają najlepszą dokładność. Różnica między czułością a precyzją wyniosła dla K = 4 aż 13 punktów procentowych, dla 5 K 9 różnica wynosiła do 4 punktów procentowych. Czułość i precyzja przekraczały 80% dla 6 K 9. Rysunek 10: Jakość klasyfikacji dla konfiguracji o najlepszej dokładności w relacji do liczby centrów dla kategoryzacji typu MEDIANA. W sytuacji, gdy kategoryzowano wg reguły MEDIANA, wyniki dokładności względem liczby centrów (rys. 10) znalazły się w przedziale 75 88%. 25

Czułość była słaba. Konfiguracja algorytmu dla K = 7 ma najlepszą dokładność. Różnica między czułością a precyzją wyniosła dla 4 K 6 i 8 K 9 powyżej 9 punktów procentowych, dla K = 7 różnica mieściła się w przedziale od 5 do 8 punktów procentowych. Czułość i precyzja przekraczały 80% tylko dla K = 7. Rysunek 11: Jakość klasyfikacji dla konfiguracji o najlepszej dokładności w relacji do liczby centrów dla kategoryzacji typu MAHALANOBIS. W sytuacji, gdy kategoryzowano wg reguły MAHALANOBIS, wyniki dokładności względem liczby centrów (rys. 11) znalazły się w przedziale 75 86%. Konfiguracje algorytmu dla 5 K 7 oraz K = 9 mają najlepszą dokładność przekraczającą 82%. Różnica między czułością a precyzją wyniosła dla K = 5 do 4 punktów procentowych, dla K = 4, K = 6 i K = 9 w przedziale od 5 do 8 punktów, zaś dla K = 7 i K = 8 powyżej 9 punktów. Czułość i precyzja przekraczały 80% tylko dla K = 5 i K = 6. Wyniki badań dowiodły skuteczności detekcji powtórzeń sylab i fragmentów mowy zaproponowaną metodą. Biorąc pod uwagę liczbę K centrów najlepsze wyniki osiągane są dla 6 K 7. Wyniki dla 8 K 9 oraz K = 5 są dobre, nieco słabsze dla K = 4. Wynikać to może ze względu na liczbę formantów, które reprezentują centra. Przy zbyt małym K niektóre formanty mogą nie być dobrze reprezentowane (np. przy dwóch, trzech głoskach). Przy za dużym K reprezentacja jest dobra, ale ten nadmiar punktów wpływa na rozmywanie się wyniku przy mniejszej liczbie głosek. Drugim badanym zróżnicowaniem była kategoryzacja. Okazało się, że niezależnie od jej typu, osiągana była ponad 80% dokładność. Najlepsze wyniki 26

uzyskano przy kategoryzacji AVERAGE, nieco słabsze przy typie MAHA- LANOBIS, zaś najsłabszy okazał się typ MEDIANA. Wyniki analizy prowadzą do wniosku, że rozpoznawanie powtórzeń fragmentów mowy przy użyciu metody K-means jako reduktora wymiarowości i analizy odległościowej jako klasyfikatora ze współczynnikami liniowej predykcji jako wejścia, jest możliwe i osiąga dokładność 90% przy precyzji i czułości sięgającej 89, 7%. Dwie najlepsze konfiguracje, to te z liczbą centrów K6 i K7, kategoryzacją AV ERAGE, w przestrzeni 2D, inicjalizacją EV EN i pomiarem odległości typu ALL. Podkreślić należy także fakt zastosowania przez autora automatycznej segmentacji nagrań na sylaby/fragmenty. Dokonana analiza dla mowy ciągłej, pozwala wyznaczyć precyzyjnie miejsca, w których następowało powtórzenie sylab, głosek, fragmentów mowy, nawet z 90% dokładnością. Opisany algorytm, wyposażony w bazę nagrań z określonymi miejscami niepłynności, może być również zastosowany w czasie rzeczywistym do stałej detekcji powtórzeń. 9 Program do analizy i rozpoznawania niepłynności mowy W celu zbadania słuszności postawionych tez opracowany został program komputerowy. Udostępnia on następujące funkcjonalności: wczytywanie plików dźwiękowych; wizualizacja oscylogramu, widma częstotliwościowego STF, DTF i uzyskanego metodą liniowej predykcji dla wybranego okna; uzyskanie współczynników liniowej predykcji dla okien plików dźwiękowych; możliwość zmiany rzędu liniowej predykcji, rozmiaru i przesunięcia okna czasowego, zmiany funkcji okna; wizualizacja zmian współczynników liniowej predykcji i współczynników PARCOR w czasie; wizualizacja zmiany pola przekroju traktu głosowego w czasie uzyskanego ze współczynników PARCOR; implementacja grupującej sieci Kohonena różnych rozmiarów; 27

analiza wielu plików dźwiękowych jednocześnie umożliwiająca późniejszą klasyfikację wypowiedzi względem ich płynności; przyporządkowanie odpowiednim głoskom pomiarów śródstrzałkowego przekroju traktu głosowego; modelowanie traktu głosowego za pomocją eliptycznego cylindrycznego modelu bazującego na polach przekroju uzyskanych ze współczynników PARCOR i przekrojów śródstrzałkowych; wizualizacja szerokości i wysokości cylindrów eliptycznego traktu głosowego, a także wizualizacja 3D tego modelu; Rysunek 12: Zrzut ekranu z okna aplikacji. 10 Podsumowanie Przegląd użytych metod Algorytmy opracowane przez autora pracy dotyczyły rozpoznawania niepłynności trzech rodzajów: powtórzeń głosek, przedłużeń i powtórzeń sylab. Te zaburzenia są najczęstszymi formami niepłynności w mowie osób jąkających się. W każdej z tych procedur: sygnał dźwiękowy poddawano podziałowi na okna i przemnażano przez funkcję Hanna, 28

tak przygotowany sygnał dźwiękowy parametryzowano poprzez liniową predykcję algorytmem Levinsona-Durbina. W analizie powtórzeń głosek: każdy wektor współczynników LP został zredukowany poprzez sieć Kohonena do wektora 170 neuronów wygrywających (wypowiedzi o czasie trwania 4 sekundy), wektory neuronów wygrywających były wejściowymi klasyfikujących sieci neuronowych różnego typu. W analizie przedłużeń: każdy wektor współczynników LP został zredukowany poprzez sieć Kohonena do wektora 170 neuronów wygrywających (wypowiedzi o czasie trwania 4 sekundy), każdy wektor neuronów wygrywających został podzielony na fragmenty po 17 neuronów (wypowiedzi o czasie trwania 400 milisekund), wektory neuronów wygrywających były wejściowymi klasyfikujących sieci neuronowych różnego typu. W analizie powtórzeń sylab: z każdego sparametryzowanego okna uzyskano widmo częstotliwościowe, na podstawie widma dokonano wyodrębnienia sylab z badanego sygnału, dla każdego widma wyznaczono formanty, dokonano reprezentacji każdej sylaby poprzez zestaw formantów, dokonano redukcji każdego zestawu formantów do zestawu reprezentantów formantów o określonej liczbie metodą K-means, określono odległości między zestawami, w zależności od uzyskanej odległości, rozpoznawano powtórzenia sylab. Metody te różnią się między sobą, jednak wszystkie bazują na reprezentacji sygnału mowy poprzez współczynniki liniowej predykcji. Dodatkowo w celu analizy przyczyn zaburzeń: 29

wyznaczono model traktu głosowego ze współczynników LP, zmierzono i znormalizowano modelowe śródstrzałkowe przekroje traktów głosowych dla różnych głosek, wyznaczono na ich podstawie model eliptyczny traktu głosowego i na jego podstawie określono miejsca podejrzane o fizjologiczną przyczynę niepłynności mowy. Podsumowanie wyników detekcji Ze względu na fakt, iż niepłynności stanowią zaledwie mały procent całości wypowiedzi, niezbędna była analiza zarówno czułości detekcji jak i jej precyzji. Czułość pozwoliła określić jakość detekcji na podstawie wykrytych niepłynności. Precyzja z kolei uwzględniła aspekt popełnionych błędów, poprzez klasyfikowanie płynnych wypowiedzi/fragmentów jako niepłynne. Dopiero obie te wartości pozwoliły ocenić w pełni jakość detekcji. W badaniach użyto nagrań 9 mężczyzn, 5 kobiet i 4 dzieci jąkających się oraz 4 kobiet i 5 mężczyzn mówiących płynnie. Tabela 1: Badany materiał dźwiękowy dla poszczególnych rodzajów niepłynności typ niepłynności łączny czas nagrań liczba niepłynności powtórzenia głosek 7min16sek 54 przedłużenia 3min52sek 140 powtórzenia sylab 3min47sek 117 Badany materiał można uznać za dość zróżnicowany i obszerny. Można zatem wnioskować, iż opracowane metody powinny być uniwersalne dla języka polskiego. Analizy dla innych języków dotychczas nie były przez autora dokonywane. Poniżej w tabeli 2 przedstawiono najlepsze wyniki rozpoznawania poszczególnych rodzajów niepłynności. Wnioski końcowe Realizując cel pracy, udało się opracować metody do automatycznej detekcji niepłynności w wypowiedziach osób jąkających się. Sięgnięto w tym celu po wiele różnorodnych metod, takich jak sztuczne sieci neuronowe czy algorytm K-means. Sukcesem również zakończyły się prace nad wykrywaniem wadliwych ustawień artykulatorów na podstawie dynamicznie zmieniającego się w trakcie wypowiedzi modelu traktu głosowego. 30

Tabela 2: Konfiguracje algorytmów z najlepszymi wynikami rozpoznawania niepłynność czułość [%] precyzja [%] konfiguracja powtórzenia głosek 100 93 sieć RBF, sieć Kohonena 6x6, przedłużenia 78 86 sieć RBF, sieć Kohonena 7x7 powtórzenia sylab 89 89 6 centrów, kategoryzacja AVERAGE, pomiar odległości ALL, przestrzeń 2D, inicjalizacja EVEN Opisany program pozwala na zanalizowanie traktu głosowego w chwili wypowiadania niepłynnej głoski i porównanie go z traktem dla tej samej głoski płynnie wypowiedzianej. Parametryzacja sygnału mowy metodą liniowej predykcji pozwoliła na zbudowanie różnorodnych algorytmów skutecznie realizujących cele pracy. Analiza przedłużeń opierała się na podobieństwie kolejnych etapów realizacji głoski. Detekcja powtórzeń głosek wymagała zaobserwowania podobieństw między sąsiednimi krótkotrwałymi głoskami. Analiza powtórzeń sylab opierała się na podobieństwie całych sąsiadujących segmentów sygnału mowy. Mimo tak różnych zadań, współczynniki liniowej predykcji okazały się być w pełni wystarczające do odpowiedniej parametryzacji sygnału mowy. Dodatkowo pozwoliły one także na scharakteryzowanie traktu głosowego, co w połączeniu z analizą przekrojów śródstrzałkowych umożliwiło obserwację lokalizacji zaburzeń traktu głosowego. Badania, na których oparta została niniejsza praca, zostały opublikowane w Journal of Medical Informatics & Technologies [19, 20], a także w Advances in Intelligent Systems and Computing [21, 22], z których pierwszy [21] jest indeksowany w bazie Web of Science. Autor współpracował również przy artykułach nie wchodzących w skład tej pracy [5, 6, 7, 8]. 11 Bibliografia [1] Adamczyk B., Kuniszyk-Jóźkowiak W., Effect of echo and reverberation of a restricted capacity on the speech process, Folia Phoniatr., 39, pp. 9-17, 1987. [2] Adamczyk B., Kuniszyk-Jóźkowiak W., Smołka E., Influence of echo and reverberation on the speech process, Folia Phoniatr., 31, pp. 9-17, 31

1979. [3] Chia Ai O., Hariharan M., Yaacob S. & Chee L. S, Classification of speech dysfluencies with MFCC and LPCC features, Expert Systems with Applications, 39, pp. 2157-2165, 2012. [4] Codello I., Kuniszyk-Jóźkowiak W., Digital signals analysis with the LPC method, Annales UMCS Informatica, 5, pp. 315n, Lublin, 2006. [5] Codello I., Kuniszyk-Jóźkowiak W., Kobus A., Kohonen networks application in speech analysis algorithms, Annales UMCS Informatica, 2, pp. 13-19, Lublin, 2010. [6] Codello I., Kuniszyk-Jóźkowiak W., Smołka E., Kobus A., Disordered sound repetition recognition in continuous speech using CWT and Kohonen network, Journal of Medical Informatics & Technologies, 17, pp. 123-130, 2011. [7] Codello I., Kuniszyk-Jóźkowiak W., Smołka E., Kobus A., Automatic prolongation recognition in disordered speech using CWT and Kohonen network, Journal of Medical Informatics & Technologies, 20, pp. 137-144, 2012. [8] Codello I., Kuniszyk-Jóźkowiak W., Smołka E., Kobus A., Automatic Disordered Syllables Repetition Recognition in Continuous Speech Using CWT and Correlation, Proceedings of the 8th International Conference on Computer Recognition Systems CORES 2013, Advances in Intelligent Systems and Computing, 226, Springer International Publishing, pp. 867-876, 2013. [9] Czyżewski A., Kaczmarek A., Kostek B., Intelligent processing of stuttered speech, J. Intelligent Inform. Systems, pp. 143-171, 2003. [10] Dzieńkowski M., Kuniszyk-Jóźkowiak W., Smołka E., Suszyński W., Computer programme for speech impediment diagnosis and therapy, Annales Informatica Universitatis Mariae Curie-Skłodowska, pp. 21-29, 2003. [11] Dzieńkowski M., Kuniszyk-Jóźkowiak W., Smołka E., Suszyński W., Computer speech echo-corrector, Annales Informatica Universitatis Mariae Curie-Skłodowska, pp. 315-322, 2004. [12] Dzieńkowski M., Kuniszyk-Jóźkowiak W., Smołka E., Suszyński W., Cyfrowa analiza plików dźwiękowych, Lubelskie Akademickie Forum Informatyczne, pp. 71-78, Lublin, 2002. 32