Parametryczny koder mowy - wokoder. Synteza mowy w odbiorniku: d=1 - mowa dźwięczna (T 0 = okres tonu krtaniowego) d=0 - mowa bezdźwięczna

Podobne dokumenty
Ekonometryczne modele nieliniowe

Statystyka od podstaw z systemem SAS Dr hab. E. Frątczak, ZAHZiAW, ISiD, KAE. Część VII. Analiza szeregu czasowego

Wykład 6. Badanie dynamiki zjawisk

ψ przedstawia zależność

licencjat Pytania teoretyczne:

CHEMIA KWANTOWA Jacek Korchowiec Wydział Chemii UJ Zakład Chemii Teoretycznej Zespół Chemii Kwantowej Grupa Teorii Reaktywności Chemicznej

Wykład 6. Badanie dynamiki zjawisk

DYNAMIKA KONSTRUKCJI

Pobieranie próby. Rozkład χ 2

5. Analiza dyskryminacyjna: FLD, LDA, QDA

LABORATORIUM PODSTAWY ELEKTRONIKI Badanie Bramki X-OR

Politechnika Częstochowska Wydział Inżynierii Mechanicznej i Informatyki. Sprawozdanie #2 z przedmiotu: Prognozowanie w systemach multimedialnych

WAE Jarosław Arabas Ewolucja różnicowa Rój cząstek EDA

Wybór modelu i ocena jakości klasyfikatora

ROCZNIKI INŻYNIERII BUDOWLANEJ ZESZYT 7/2007 Komisja Inżynierii Budowlanej Oddział Polskiej Akademii Nauk w Katowicach

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

4.1. Wprowadzenie Podstawowe definicje Algorytm określania wartości parametrów w regresji logistycznej...74

Matematyka ubezpieczeń majątkowych r. ma złożony rozkład Poissona. W tabeli poniżej podano rozkład prawdopodobieństwa ( )

Agnieszka Nowak Brzezińska Wykład III

PROGNOZOWANIE I SYMULACJE. mgr Żaneta Pruska. Ćwiczenia 2 Zadanie 1

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Zajęcia 2. Estymacja i weryfikacja modelu ekonometrycznego

Agnieszka Nowak Brzezińska Wykład III

Ś Ś Ą ń Ś Ś ń

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Metody klasyfikacji danych - część 1 p.1/24

O ŚREDNIEJ STATYSTYCZNEJ

Fale elektromagnetyczne spektrum

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Rozpoznawanie obrazów

Analiza danych DRZEWA DECYZYJNE. Drzewa decyzyjne. Entropia. test 1 dopełnienie testu 1

Wygładzanie metodą średnich ruchomych w procesach stałych

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Stanisław Cichocki Natalia Nehrebecka. Wykład 3

Analiza rynku projekt

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Klasyfikacja LDA + walidacja

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Przemieszczeniem ciała nazywamy zmianę jego położenia

II.2 Położenie i prędkość cd. Wektory styczny i normalny do toru. II.3 Przyspieszenie

Wnioskowanie bayesowskie

Stopę zbieżności ciagu zmiennych losowych a n, takiego, że E (a n ) < oznaczamy jako a n = o p (1) prawdopodobieństwa szybciej niż n α.

Praca domowa nr 1. Metodologia Fizyki. Grupa 1. Szacowanie wartości wielkości fizycznych Zad Stoisz na brzegu oceanu, pogoda jest idealna,

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Drzewa decyzyjne i lasy losowe

Ruch płaski. Bryła w ruchu płaskim. (płaszczyzna kierująca) Punkty bryły o jednakowych prędkościach i przyspieszeniach. Prof.

Rozglądanie się w przestrzeni Iris czyli kręcenie (głową/płaszczyzną) w czterech wymiarach

Ą ć ń ń ć

Stanisław Cichocki Natalia Nehrebecka. Wykład 3

Metody badania wpływu zmian kursu walutowego na wskaźnik inflacji

Układy sekwencyjne asynchroniczne Zadania projektowe

PROGRAMOWY GENERATOR PROCESÓW STOCHASTYCZNYCH LEVY EGO

Ą ć ć ć ć Ł

Elementy statystyki wielowymiarowej

ANALIZA, PROGNOZOWANIE I SYMULACJA / Ćwiczenia 1

ś ę ę ęż Ć Ł ę ę ę ś ść ż ś ż ę ś ś ę Ż ć ć ś ę ż ś ę Ś Ą Ś ś ę ś ż ż

Hierarchiczna analiza skupień

EFEKTYWNE UŻYTKOWANIE ENERGII ELEKTRYCZNEJ

WNIOSKOWANIE STATYSTYCZNE

EKONOMETRIA wykład 2. Prof. dr hab. Eugeniusz Gatnar.

b) Niech: - wśród trzech wylosowanych opakowań jest co najwyżej jedno o dawce 15 mg. Wówczas:

Metody systemowe i decyzyjne w informatyce

Rozpoznawanie obrazów

Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania. Podstawy Automatyki

Analiza wariancji. dr Janusz Górczyński


STATYSTYKA MATEMATYCZNA

Jacek Kwiatkowski Magdalena Osińska. Procesy zawierające stochastyczne pierwiastki jednostkowe identyfikacja i zastosowanie.


cx siła z jaką element tłumiący działa na to ciało.

Cechy szeregów czasowych

Sieć przesyłająca żetony CP (counter propagation)

Metody systemowe i decyzyjne w informatyce

PODSTAWY STATYSTYCZNEJ ANALIZY DANYCH

Popularne klasyfikatory w pakietach komputerowych

TESTOWANIE HIPOTEZ STATYSTYCZNYCH

Narzędzia statystyczne i ekonometryczne. Wykład 1. dr Paweł Baranowski

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

STATYSTYKA MATEMATYCZNA WYKŁAD 4. WERYFIKACJA HIPOTEZ PARAMETRYCZNYCH X - cecha populacji, θ parametr rozkładu cechy X.

Testowanie hipotez statystycznych związanych ą z szacowaniem i oceną ą modelu ekonometrycznego

Stanisław Cichocki Natalia Nehrebecka. Wykład 4

Drzewa klasyfikacyjne Lasy losowe. Wprowadzenie

1. Rezonans w obwodach elektrycznych 2. Filtry częstotliwościowe 3. Sprzężenia magnetyczne 4. Sygnały odkształcone

PODSTAWY CHEMII KWANTOWEJ. Jacek Korchowiec Wydział Chemii UJ Zakład Chemii Teoretycznej Zespół Chemii Kwantowej Grupa Teorii Reaktywności Chemicznej

KOMPRESJA STRATNA SYGNAŁU MOWY. Metody kompresji stratnej sygnałów multimedialnych: Uproszczone modelowanie źródeł generacji sygnałów LPC, CELP

Szczegółowy program kursu Statystyka z programem Excel (30 godzin lekcyjnych zajęć)

KURS EKONOMETRIA. Lekcja 1 Wprowadzenie do modelowania ekonometrycznego ZADANIE DOMOWE. Strona 1

LOKALNA ANALIZA CZĘSTOTLIWOŚCIOWA SYGNAŁÓW. 1. Definicja 2. Okna 3. Transformacja Gabora. Spis treści

Sygnały zmienne w czasie


3. Optymalizacja portfela inwestycyjnego Model Markowitza Model jednowskaźnikowy Sharpe a Model wyceny aktywów kapitałowych CAPM

Kombinowanie prognoz. - dlaczego należy kombinować prognozy? - obejmowanie prognoz. - podstawowe metody kombinowania prognoz

LABORATORIUM PODSTAW OPTOELEKTRONIKI WYZNACZANIE CHARAKTERYSTYK STATYCZNYCH I DYNAMICZNYCH TRANSOPTORA PC817

Teoria systemów uczacych się i wymiar Vapnika-Chervonenkisa

Statystyka matematyczna. Wykład V. Parametryczne testy istotności

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

TESTOWANIE EGZOGENICZNOŚCI ZMIENNYCH W MODELACH EKONOMETRYCZNYCH

Transkrypt:

Paraeryczny koder owy - wokoder Syneza owy w odbiorniku: d=1 - owa dźwięczna T 0 = okres onu kraniowego d=0 - owa bezdźwięczna

Wokoder nadajnik

Eksrakcja onu kraniowego 1. Przebieg czasowy sygnału i błędu predykcji T 0 Mowa dźwięczna: T 0 = okres onu kraniowego

. Auokorelacja fragenu sygnału i błędu predykcji R 0 R a R 0 R a T 0 T 0 R a aksiu auokorelacji w zakresie 0 s gdy R a / R 0 > progu -> owa dźwięczna

3. AMDF average agniude difference funcion AMDF k = S i i - i-k AMDF a AMDF in T 0 AMDF in w zakresie 0 s gdy AMDF a / AMDF in > progu -> owa dźwięczna

4. Wido sygnału i błędu predykcji F 0 F 0 skala liniowa skala logaryiczna db F 0 =1/T 0 częsoliwość onu kraniowego

5. Cepsru sygnału i błędu predykcji cepsru = IDFT log absdftsygnał T 0

Klasyfikacja owa dźwięczna / bezdźwięczna Paraery O Ś

DYSKRYMINATOR PROGOWY i DYSKRYMINATOR LINIOWY

DYSKRYMINATOR LINIOWY d y = y α p N i1 p i i - funkcja dyskryinująca, T p - próg p [ 1 p, p,, ] p N - wekor paraerów

MET. FISHERA OBLICZANIA DYSKRYMINATORA LINIOWEGO Dla sekwencji reningowej oblicza się dla obu klas: warości średnie wekora paraerów acierze kowariancji

Dyskryinaor Fishera, c.d. C 1 1 C [ C ] 1 ˆ C [ 1 ] Próg T p dla funkcji dyskryinującej wybiera się eksperyenalnie iędzy ˆ 1 i ˆ.

Dyskryinaor Fishera, wyprowadzenie N i i i p p y 1 Warość funkcji dyskryinującej jes zienną losową: p E p E y E ] [ C p p E p p E p E p E y E ] [ ] [ ] [ ] [ Zadanie separacji klas: in wariancja y przy sały odsępie warości średnich - zakładay równość wariancji w obu klasach lub podsawiay cons d C 1, in in [ ] 1 1 C C C

Dyskryinaor Fishera, wyprowadzenie cons d C 1, in in C C C grad C 1

Dyskryinaor Fishera, wyprowadzenie in in C, 1 d cons 1 1 1 C C, C d d ożey wybrać dowolnie, np. ak, aby =. Wówczas obliczay z C

Meoda nożników Lagrange a Wykorzysaliśy szczególny przypadek zasosowania eody nożników Lagrange a: Szukay iniu przy ograniczeniach Tworzyy funkcję Lagrange a Rozwiązanie: ],..., [, 1 N F 0 0,..., 0, 1 g g g M,, 1 1 g g F g F L M M 0, 0, L L

SVM* wekory wspierające wekory wspierające Cel: powiększenie odsępu argin Klasy liniowo nieseparowalne nieliniowe przekszałcenie *Suppor Vecor Machines Obrazki: CHRISTOPHER J.C. BURGES

O KLASYFIKATORACH NIECO OGÓLNIEJ Załóży że znane są prawdopodobieńswa lub gęsości prawdopodobieńswa cech wekorów paraerów p dla każdej z klas: f k p, k 1,, K oraz prawdopodobieńswa a priori pojawienia się każdej z klas: P 1, P,, P K. Błędneu uznaniu k-ej klasy za j-ą przypisujey ryzyko rj k, np. rj k = 0 gdy j=k, oraz rj k=1 w pozosałych przypadkach. Dla określonego klasyfikaora ożna obliczyć prawdopodobieńswa błędnych decyzji: pj k i oszacować średnie ryzyko: Klasyfikaor projekuje się na iniu v. v k j P k p j k r j k

KLASYFIKATOR BAYESA Jeśli każdej błędnej decyzji jes przypisane jednakowe ryzyko np. rj k = 0 gdy j=k, oraz rj k=1 w pozosałych przypadkach, wówczas klasyfikaor, na podsawie obserwacji wekora paraerów p, winien wskazać najbardziej prawdopodobną klasę: k arg a P i p i Ze wzoru Bayesa: P i p j Pi f P j i p f p j orzyuje się nasępujący klasyfikaor: k arg a i P i f i p

Błąd w bazie i w eście Błąd w eście Błąd w bazie wielkość bazy 1-h: prawdopodobieńswo, że nierówność jes spełniona paraery obliczone w bazie h VC diension Vapnik, Czerwonenkis VC di jes iarą złożoności dyskryinaora, a związek z liczbą paraerów

Jak obliczyć VC diension? Jes o największa liczba obserwacji, kórą klasyfikaor jes zdolny bezbłędnie porozdzielać Np. klasyfikaor liniowy na płaszczyźnie paraery oże rozdzielić obserwacje, oże eż rozdzielić 3 obserwacje, ale 4 już nie Wniosek: VCdi=3 Rysunki z prezenacji Andrew W. Moore

Jak obliczyć VC diension? Klasyfikaor liniowy w przesrzeni N- wyiarowej oże rozdzielić N+1 obserwacji Wniosek: VCdi=N+1 Uwaga: wzór poniżej najczęściej szacuje błąd z duży nadiare

Uczenie bez nauczyciela* Brak bazy uczącej: Meody: K-średnich K-eans, idenyfikacja rozkładów prawdopodobieńswa, ec. K- średnich DBSCAN densiy-based spaial clusering of applicaions wih noise *unsupervised learning Rysunki z Wikipedii