Word sense disambiguation dokończenie
|
|
- Jacek Marek
- 8 lat temu
- Przeglądów:
Transkrypt
1 Word sense disambiguation dokończenie 1. Krótkie przypomnienie: a) Podejście intuicyjne : podział słowa na znaczenia według słownika oraz przypisywanie każdemu wystąpieniu tego słowa jednego ze znaczeń słownikowych - wada: brak jednoznaczności definicji słownikowych b) Inna natura problemu: to samo słowo, inne części mowy - pozornie ta sama natura problemu - w praktyce dwa różne podejścia: * lokalna analiza kontekstu dla rozpoznawania części mowy * analiza szerszego kontekstu dla rozpoznawania znaczenia słów c) Trzy podstawowe podejścia: - supervised disambiguation (nadzorowane ujednoznacznienie) na podstawie etykietowanego korpusu - dictionary-based disambiguation - ujednoznacznienie bazujące na słownikach - unsupervised disambiguation (nienadzorowane ujednoznacznienie) na podstawie nieetykietowanego korpusu d) Podtawowe pojęcia: - nadzorowane i nienadzorowane ujednoznacznienie * podejście hybrydowe - pseudowords - dolne i górne oszacowanie wyników (wyniki osiągane przez najprostszy algorytm i przez człowieka) e) Supervised disambiguation: Gale (1992) - algorytm oparty na klasyfikacji Bayesowskiej (założenie Naive Bayes słowa są niezależne) - traktuje kontekst zdarzenia jako bag of words - BoW worek ze słowami - zbiera informacje z całego kontekstu (ze wszystkich słów) Brown (1991) - algorytm oparty na teorii informacji - bierze pod uwagę jedynie specjalną cechę, która niesie ze sobą informację o znaczeniu słowa, tzw. informant f) Szukanie znaczenia oparte na słownikach: Lesk (1986) - bezpośrednie wykorzystanie definicji słownikowych Yarowsky (1992) - wykorzystanie tezaurusa Rogeta z 1946 (podział znaczeń na kategorie subject codes) - wykorzystanie Naive Bayes do aktualizacji danych Dagan, Itai (1994) algorytm oparty na dwujęzycznym korpusie
2 c.d. One sense per discourse, one sense per collocation Yarowsky (1995) praca oparta na dwóch zauważonych ograniczeniach w doborze znaczenia słowa: One sense per discourse sensy docelowych słów są ze sobą zgodne wewnątrz pojedynczego dokumentu One sense per collocation pobliskie słowa dają logiczne wskazówki co do znaczenia słowa docelowego, zależnie od względnej odległości, porządku i zależności syntaktycznych - Pierwsze ograniczenie jest szczególnie przydatne, gdy ujednoznaczniany materiał jest kolekcją małych dokumentów lub może być podzielony na mniejsze dyskursy za pomocą metod przedstawionych w podrozdziale Drugie ograniczenie wykorzystuje założenie, że znaczenia sów są silnie powiązane z pewnymi cechami kontekstu, jak inne słowa w tej samej frazie. To założenie jest również wykorzystywane w algorytmie Browna (metoda oparta na teorii informacji, gdzie wyznaczany był pojedynczy informant ). Yarowsky wyznacza najbardziej charakterystyczną cechę (kolokację) dla wybranego kontekstu, następnie ujednoznacznia słowo tylko na podstawie tej cechy. Ranking cech: Ilość wystąpień sensu sk1 z kolokacją f dzielona przez ilość wystąpień sensu sk2 z kolokacją f - ZALETA WYBORU NAJSILNIEJSZEJ CECHY: Nie jest konieczne branie pod uwagę wielu różnych czynników (np. wszystkich słów w oknie kontekstu) do określenia znaczenia słowa. Przykładowo algorytm był oparty o założenie Naive Bayes, które mówiło, że czynniki te są od siebie niezależne, co w praktyce bardzo rzadko jest prawdą. Lepiej jest unikać tego założenia poprzez wybór najsilniejszej cechy determinującej znaczenie słowa. Bardziej złożoną alternatywą jest określenie zależności pomiędzy tymi cechami (rozdział 16).
3
4 Algorytm Yarowskiego (wykorzystujący obydwa ograniczenia: one sense per discourse; one sense per collocation): - iterowana budowa dwóch współzależnych zbiorów: F k zbiór charakterystycznych kolokacji dla sensu s k E k zbiór kontekstów wieloznacznego słowa, które są w danym momencie przypisane do sensu s k - linia 3: zbiór F k inicjalizowany ze słownikowej definicji sensu s k słowa w - linia 6: zbiór E k na początku pusty - linia 11: wypełnianie zbioru E k kontekstami, w których występują kolokacje występujące w definicji słownikowej F k - linia 14: zmniejszenie zbioru kolokacji do tych najsilniejszych - iteracja trwa, dopóki zmienia się zbiór kontekstów E k - linie 18 21: wybór przeważającego sensu słowa w w całym dyskursie d m Skuteczność: 90,6% - 96,5% Dodanie założenia one sense per discourse (linie 18 21) zmniejsza ilość błędów o 27%.
5 UNSUPERVISED DISAMBIGUATION NIENADZOROWANE UJEDNOZNACZNIENIE 1. Potrzeba wprowadzenia nienadzorowanego ujednoznacznienia: - Wszystkie przedstawione do tej pory algorytmy bazowały na wcześniej przygotowanych źródłach leksykalnych (typu słownik, tezaurus), danych treningowych (dwujęzyczny korpus) lub znanych kolokacjach. - Jest jednak mnóstwo sytuacji, w których nawet tak małe ilości danych nie są dostępne. Szczególnie trudno dostępne mogą być gotowe źródła treningowe dla wyspecjalizowanych dziedzin, podczas gdy mechanizmy takie jak wyszukiwarki internetowe muszą zwracać dobre wyniki dla zapytań z każdej dziedziny. - Ogólne słowniki są mało użyteczne dla dokumentów z wyspecjalizowanej dziedziny. - Mechanizmy oparte na określaniu dziedziny za pomocą tezaurusów też się nie sprawdzają ze względu na fakt, iż np. w wyspecjalizowanym dokumencie chemicznym przeważającą kategorią będzie chemia. - Nie można oczekiwać od użytkownika systemu określającego sens słów, aby przygotowywał on specjalny zbiór treningowy dla każdego nowego tekstu. 2. Inne podejście do ujednoznaczniania: - Należy zdać sobie sprawę, że w nienadzorowanym ujednoznacznianiu nie da się wprost wprowadzić metody określającej bezpośrednio sens słowa (sense tagging). Nie posiadamy bowiem wejściowej charakterystyki sensów. - Można jednak w zupełnie nienadzorowany sposób przeprowadzić rozróżnienie sensów (sense discrimination). Polega ono na podziale poszczególnych wystąpień danego słowa na zbiory tak, aby wystąpienia należące do tego samego zbioru miały to samo znaczenie oraz wystąpienia należące do różnych zbiorów miały inne znaczenie, jednak bez bezpośredniego określenia, jakie znaczenie jest przypisane do każdego zbioru. 3. Schutze (1998) - Algorytm określany mianem context group discrimination - Podobieństwo do wcześniej omawianego algorytmu Browna (7.2.2) opartego na teorii informacji. - Brown klasteryzuje tłumaczenia wieloznacznych słów, o czym można myśleć jak o procesie podziału na zbiory ze względu na znaczenia, przed określeniem tych znaczeń. - Poniższy algorytm dokonuje właśnie takiej klasteryzacji, jednak w związku z tym, że jest ona nienadzorowana, nie odbywa się etap bezpośredniego etykietowania znaczeń. - Algorytm używa probabilistycznego podejścia, wprowadzonego przy okazji omawiania algorytmu Gale a, czyli korzysta z Bayesian Decision Rule do określenia, w którym zbiorze znaczeniowym dane wystąpienie słowa ma zostać umieszczone, a w trakcie dokonywania decyzji wykorzystuje Naive Bayes Assumption. - Różnica polega na tym, że w przypadku algorytmu Gale a estymujemy prawdopodobieństwo warunkowe wystąpienia słowa v j występującego w kontekście, w
6 którym słowo w zostało użyte w podanym sensie s k : P(v j s k ), używając do tej estymacji etykietowanego zbioru treningowego. - Tutaj nie posiadamy zbioru treningowego, nie możemy więc z góry określić sensu s k. Taka estymacja początkowa P(v j s k ) jest więc niemożliwa. Zamiast tego inicjalizujemy algorytm losowymi wartościami P(v j s k ). Otrzymujemy w ten sposób pewien model rzeczywistych prawdopodobieństw, dla którego można obliczyć jego zgodność z rzeczywistością (log of likelihood). Następnie estymujemy ponownie P(v j s k ) za pomocą algorytmu EM. - Po losowej inicjalizacji P(v j s k ), obliczamy dla każdego kontekstu c i prawdopodobieństwo P(c i s k ), a następnie zgodność wektora tych prawdopodobieństw z korpusem, estymujemy ponownie prawdopodobieństwa P(v j s k ) w celu zwiększenia tej zgodności, aż do momentu, kiedy nie zmienia się ona znacząco.
7 - produkujemy losowy wektor prawdopodobieństw P(v j s k ) oray P(s k ) dla określonego z góry K - obliczamy jego log of likelihood - dopóki log of likelihood znacząco rośnie, wykonujemy algorytm EM: - krok E: estymujemy dla wszystkich sensów i wszystkich kontekstów późniejsze prawdopodobieństwo h ik, że sens s k został wygenerowany przez kontekst c i - krok M: na podstawie prawdopodobieństw h ik ponownie estymujemy P(v j s k ) oraz P(s k )
8 4. Kiedy już odpowiedni wektor prawdopodobieństw zostanie wyestymowany, powracamy do metody ujednoznacznienia użytej w algorytmie Gale a, czyli Bayes Decision Rule wykorzystującej Naive Bayes Assumption. 5. Ziarnistość klasyfikacji znaczeń może być wyznaczona przez uruchomienie algorytmu dla wielu wartości K (z góry określona ilość znaczeń). Im więcej znaczeń, tym lepiej model opisuje rzeczywistość. W związku z tym z każdym nowym znaczeniem wzrasta log of likelihood. Kiedy wzrasta on znacząco, nowo dodany sens opisuje ważną część danych. W pewnym momencie jednak dodawanie nowych sensów powoduje nieznaczny wzrost tego wskaźnika, co oznacza, że wprowadzanie ich nie jest uzasadnione. - Można też uzależnić liczbę K od wielkości treningowego materiału (Schutze, Pedersen 1995) 6. Zalety Łatwość wprowadzenia dużej ziarnistości w określaniu znaczeń słów (można ustawić ilość zbiorów znaczeniowych dużo większą, niż ilość znaczeń jakiegokolwiek słownika czy etykietowanego tekstu). W ten sposób wychwytywane są różnice w znaczeniach, które w rzeczywistości istnieją w tekstach, a są trudne do wychwycenia w sposób empiryczny. Powstały model używania znaczeń słów jest bardziej zgodny z rzeczywistością, niż słownikowy, ponieważ rozróżnia znaczenia nie zawarte w słownikach (jak civil suit, criminal suit proces cywilny, proces kryminalny), a pomija rozróżnienia nieistotne w rzeczywistych tekstach. 7. Tabela skuteczności algorytmu: Ostatni przykład: problem topic-independence. Skuteczność mała, ale i tak większa, niż dla metod opartych o wcześniej przygotowane źródła.
9 CZYM JEST ZNACZENIE SŁOWA? 1. Pytanie to jest bardzo ważne z punktu widzenia rozpatrywanego zagadnienia głównie w kontekście oceny poprawności algorytmów ujednoznaczniających sens słowa. Aby ocenić ich skuteczność, należy przeprowadzić test na tekście, w którym sens każdego wystąpienia wieloznacznego słowa jest znany, określony przez człowieka. Okazuje się to być zadaniem niełatwym, gdyż człowiek rozróżnia sensy słów bardziej na podstawie intuicji, niż na podstawie świadomych przemyśleń. Dopasowanie sensu słów przez samego człowieka bywa czasami niejednoznaczne. 2. Naturalna definicja: mentalna reprezentacja różnych znaczeń słowa. Jednakże mało wiemy o tym, czym właściwie ta reprezentacja jest, w związku z tym trudnym zadaniem jest przeprowadzić eksperyment określający, jak znaczenia są reprezentowane przez badanych. 3. Jedna z metod : postawienie badanych przed zadaniem klasteryzacji kontekstów. Badani otrzymują zbiór zdań zawierających słowo umieszczone w różnych kontekstach, użyte w różnych znaczeniach oraz mają za zadanie pogrupować te zdania wg znaczeń. Nie jest jasne, czy ta metoda dobrze obrazuje rzeczywisty model używania słów w języku. Jest ona bowiem oparta na ludzkich intuicjach i własnej, świadomej ocenie znaczenia słowa. Dopasowywanie zdań wg podobieństw znaczeniowych nie jest zadaniem, jakie na co dzień staje przed człowiekiem używającym danego języka. Metoda ta nie wymaga bezpośredniego określenia sensu słowa przez badanego. 4. Najbardziej powszechna metoda: użycie słownikowych definicji poszczególnych znaczeń danego słowa. Badani mają za zadanie dopasować znaczenia słów użytych w korpusie do wcześniej podanych definicji słownikowych. Metoda ta sprawdza się w przypadkach, gdy w korpusie występuje wiele wieloznacznych słów użytych w ich typowych znaczeniach (ang. skewed distribution ). Uważa się, że jest to najczęstsza sytuacja, z jaką ma się do czynienia w naturalnym języku. 5. Metoda słownikowa wykazuje jednak dużą niezgodność w ocenie pomiędzy badanymi również dla wielu często występujących słów. Uważa się, że przyczyną takiego stanu rzeczy są niejasne definicje słownikowe, które nie odpowiadają rzeczywistym użyciom słowa w korpusie. 6. Trudności w tworzeniu bardziej jednoznacznych słowników oraz skuteczniejszych algorytmów: Niektórzy uważają, że typową właściwością wieloznacznego słowa jest fakt, iż można dopasować wiele jego sensów jednocześnie, gdyż nie są one całkowicie oddzielone od siebie, są w pewnej relacji ze sobą (polysemy). Wiele słów (w j. angielskim) oznacza jednocześnie robienie czegoś i ludzi robiącyc coś, np. słowo competition w sensie competition rywalizacja, lub competitors ludzie rywalizujący ze sobą. Algorytmom trudno jest rozpoznawać nazwy własne, np. Bush, Brown. Podsumowanie podrozdziału: Najważniejszym zadaniem na przyszłe badania jest stworzenie reprezentatywnego zbioru testowego z niejednoznacznymi słowami, aby móc uzyskiwać
10 wiarygodne oszacowania powstających algorytmów. Tylko z dokładnym oszacowaniem można określić ich słabe strony.
Rozdział przedstawia kilka najważniejszych algorytmów rozpoznających znaczenie słów w zależności od użytego kontekstu.
Word Sense Disambiguation I WSTĘP Rozdział przedstawia kilka najważniejszych algorytmów rozpoznających znaczenie słów w zależności od użytego kontekstu. 1. Jaka jest idea rozpoznawania znaczenia słów?
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
EmotiWord, semantyczne powiązanie i podobieństwo, odległość znaczeniowa
, semantyczne powiązanie i podobieństwo, odległość Projekt przejściowy ARR Politechnika Wrocławska Wydział Elektroniki Wrocław, 22 października 2013 Spis treści 1 językowa 2, kryteria 3 Streszczenie artykułu
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Propensity score matching (PSM)
Propensity score matching (PSM) Jerzy Mycielski Uniwersytet Warszawski Maj 2010 Jerzy Mycielski (Uniwersytet Warszawski) Propensity score matching (PSM) Maj 2010 1 / 18 Badania ewaluacyjne Ocena wpływu
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Rozróżnianie sensów polskich słów za pomoca rozwinięcia metody Leska
Rozróżnianie sensów polskich słów za pomoca rozwinięcia metody Leska Seminarium przetwarzania języka naturalnego Mateusz Kopeć Instytut Podstaw Informatyki Polskiej Akademii Nauk 6 lutego 2012 Plan 1 Zadanie
Metody probabilistyczne klasyfikatory bayesowskie
Konwersatorium Matematyczne Metody Ekonomii narzędzia matematyczne w eksploracji danych First Prev Next Last Go Back Full Screen Close Quit Metody probabilistyczne klasyfikatory bayesowskie Wykład 8 Marcin
AiSD zadanie trzecie
AiSD zadanie trzecie Gliwiński Jarosław Marek Kruczyński Konrad Marek Grupa dziekańska I5 5 czerwca 2008 1 Wstęp Celem postawionym przez zadanie trzecie było tzw. sortowanie topologiczne. Jest to typ sortowania
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bazy danych. Zachodniopomorski Uniwersytet Technologiczny w Szczecinie. Wykład 3: Model związków encji.
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Bazy danych Wykład 3: Model związków encji. dr inż. Magdalena Krakowiak makrakowiak@wi.zut.edu.pl Co to jest model związków encji? Model związków
ALHE. prof. Jarosław Arabas semestr 15Z
ALHE prof. Jarosław Arabas semestr 15Z Wykład 5 Błądzenie przypadkowe, Algorytm wspinaczkowy, Przeszukiwanie ze zmiennym sąsiedztwem, Tabu, Symulowane wyżarzanie 1. Błądzenie przypadkowe: Pierwszym krokiem
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Algorytmy genetyczne
Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16
Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego
Wyszukiwanie binarne
Wyszukiwanie binarne Wyszukiwanie binarne to technika pozwalająca na przeszukanie jakiegoś posortowanego zbioru danych w czasie logarytmicznie zależnym od jego wielkości (co to dokładnie znaczy dowiecie
Wnioskowanie bayesowskie
Wnioskowanie bayesowskie W podejściu klasycznym wnioskowanie statystyczne oparte jest wyłącznie na podstawie pobranej próby losowej. Możemy np. estymować punktowo lub przedziałowo nieznane parametry rozkładów,
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Testowanie hipotez statystycznych
9 października 2008 ...czyli definicje na rozgrzewkę n-elementowa próba losowa - wektor n zmiennych losowych (X 1,..., X n ); intuicyjnie: wynik n eksperymentów realizacja próby (X 1,..., X n ) w ω Ω :
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW
Czego moga się nauczyć komputery? Andrzej Skowron, Hung Son Nguyen son@mimuw.edu.pl; skowron@mimuw.edu.pl Instytut Matematyki, Wydział MIM, UW colt.tex Czego mogą się nauczyć komputery? Andrzej Skowron,
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
ECDL Podstawy programowania Sylabus - wersja 1.0
ECDL Podstawy programowania Sylabus - wersja 1.0 Przeznaczenie Sylabusa Dokument ten zawiera szczegółowy Sylabus dla modułu Podstawy programowania. Sylabus opisuje, poprzez efekty uczenia się, zakres wiedzy
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH
REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Adam Wosatko Ewa Pabisek Reprezentacja
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Najprostszy schemat blokowy
Definicje Modelowanie i symulacja Modelowanie zastosowanie określonej metodologii do stworzenia i weryfikacji modelu dla danego układu rzeczywistego Symulacja zastosowanie symulatora, w którym zaimplementowano
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Algorytm genetyczny (genetic algorithm)-
Optymalizacja W praktyce inżynierskiej często zachodzi potrzeba znalezienia parametrów, dla których system/urządzenie będzie działać w sposób optymalny. Klasyczne podejście do optymalizacji: sformułowanie
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego
Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne
Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.
Spis treści 1 Wstęp: generatywne algorytmy uczące 2 Gaussowska analiza dyskryminacyjna 2.1 Gaussowska analiza dyskryminacyjna a regresja logistyczna 3 Naiwny Klasyfikator Bayesa 3.1 Wygładzanie Laplace'a
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Systemy organizacji wiedzy i ich rola w integracji zasobów europejskich bibliotek cyfrowych
Systemy organizacji wiedzy i ich rola w integracji zasobów europejskich bibliotek cyfrowych Adam Dudczak Poznańskie Centrum Superkomputerowo-Sieciowe (maneo@man.poznan.pl) I Konferencja Polskie Biblioteki
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe. Autor: Mariusz Sasko Promotor: dr Adrian Horzyk Plan prezentacji 1. Wstęp 2. Cele pracy 3. Rozwiązanie 3.1. Robot
WHILE (wyrażenie) instrukcja;
INSTRUKCJE ITERACYJNE WHILE, DO WHILE, FOR Instrukcje iteracyjne pozwalają powtarzać daną instrukcję programu określoną liczbę razy lub do momentu osiągnięcia określonego skutku. Pętla iteracyjna while
Psychometria PLAN NAJBLIŻSZYCH WYKŁADÓW. Co wyniki testu mówią nam o samym teście? A. Rzetelność pomiaru testem. TEN SLAJD JUŻ ZNAMY
definicja rzetelności błąd pomiaru: systematyczny i losowy Psychometria Co wyniki testu mówią nam o samym teście? A. Rzetelność pomiaru testem. rozkład X + błąd losowy rozkład X rozkład X + błąd systematyczny
Stanisław Cichocki Natalia Nehrebecka. Wykład 7
Stanisław Cichocki Natalia Nehrebecka Wykład 7 1 1. Metoda Największej Wiarygodności MNW 2. Założenia MNW 3. Własności estymatorów MNW 4. Testowanie hipotez w MNW 2 1. Metoda Największej Wiarygodności
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności. dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl
Statystyka w pracy badawczej nauczyciela Wykład 4: Analiza współzależności dr inż. Walery Susłow walery.suslow@ie.tu.koszalin.pl Statystyczna teoria korelacji i regresji (1) Jest to dział statystyki zajmujący
Proces informacyjny. Janusz Górczyński
Proces informacyjny Janusz Górczyński 1 Proces informacyjny, definicja (1) Pod pojęciem procesu informacyjnego rozumiemy taki proces semiotyczny, ekonomiczny i technologiczny, który realizuje co najmniej
Analiza danych tekstowych i języka naturalnego
Kod szkolenia: Tytuł szkolenia: ANA/TXT Analiza danych tekstowych i języka naturalnego Dni: 3 Opis: Adresaci szkolenia Dane tekstowe stanowią co najmniej 70% wszystkich danych generowanych w systemach
dr inż. Jarosław Forenc
Informatyka 2 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr III, studia stacjonarne I stopnia Rok akademicki 2010/2011 Wykład nr 7 (24.01.2011) dr inż. Jarosław Forenc Rok akademicki
Metody numeryczne I Równania nieliniowe
Metody numeryczne I Równania nieliniowe Janusz Szwabiński szwabin@ift.uni.wroc.pl Metody numeryczne I (C) 2004 Janusz Szwabiński p.1/66 Równania nieliniowe 1. Równania nieliniowe z pojedynczym pierwiastkiem
W tym rozdziale książka opisuje kilka podejść do poszukiwania kolokacji.
5 Collocations Związek frazeologiczny (kolokacja), to często używane zestawienie słów. Przykłady: strong tea, weapons of mass destruction, make up. Znaczenie całości wyrażenia, nie zawsze wynika ze znaczeń
O czym w Sejmie piszczy? Analiza tekstowa przemówień poselskich
O czym w Sejmie piszczy? Analiza tekstowa przemówień poselskich mgr Aleksander Nosarzewski Szkoła Główna Handlowa w Warszawie pod kierunkiem naukowym dr hab. Bogumiła Kamińskiego, prof. SGH Problem Potrzeba
Liczba zadań a rzetelność testu na przykładzie testów biegłości językowej z języka angielskiego
Ewaluacja biegłości językowej Od pomiaru do sztuki pomiaru Liczba zadań a rzetelność testu na przykładzie testów biegłości językowej z języka angielskiego Tomasz Żółtak Instytut Badań Edukacyjnych oraz
4. Funkcje. Przykłady
4. Funkcje Przykłady 4.1. Napisz funkcję kwadrat, która przyjmuje jeden argument: długość boku kwadratu i zwraca pole jego powierzchni. Używając tej funkcji napisz program, który obliczy pole powierzchni
Dopasowywanie modelu do danych
Tematyka wykładu dopasowanie modelu trendu do danych; wybrane rodzaje modeli trendu i ich właściwości; dopasowanie modeli do danych za pomocą narzędzi wykresów liniowych (wykresów rozrzutu) programu STATISTICA;
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
AUTOMATYKA INFORMATYKA
AUTOMATYKA INFORMATYKA Technologie Informacyjne Sieć Semantyczna Przetwarzanie Języka Naturalnego Internet Edytor Serii: Zdzisław Kowalczuk Inteligentne wydobywanie informacji z internetowych serwisów
SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization
Wrocław University of Technology SPOTKANIE 6: Klasteryzacja: K-Means, Expectation Maximization Jakub M. Tomczak Studenckie Koło Naukowe Estymator jakub.tomczak@pwr.wroc.pl 4.1.213 Klasteryzacja Zmienne
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Sympozjum Trwałość Budowli
Sympozjum Trwałość Budowli Andrzej ownuk ROJEKTOWANIE UKŁADÓW Z NIEEWNYMI ARAMETRAMI Zakład Mechaniki Teoretycznej olitechnika Śląska pownuk@zeus.polsl.gliwice.pl URL: http://zeus.polsl.gliwice.pl/~pownuk
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
Algorytmy genetyczne. Paweł Cieśla. 8 stycznia 2009
Algorytmy genetyczne Paweł Cieśla 8 stycznia 2009 Genetyka - nauka o dziedziczeniu cech pomiędzy pokoleniami. Geny są czynnikami, które decydują o wyglądzie, zachowaniu, rozmnażaniu każdego żywego organizmu.
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
7. Pętle for. Przykłady
. Pętle for Przykłady.1. Bez użycia pętli while ani rekurencji, napisz program, który wypisze na ekran kolejne liczby naturalne od 0 do pewnego danego n. 5 int n; 6 cin >> n; 8 for (int i = 0; i
Spis treści. Definicje prawdopodobieństwa. Częstościowa definicja prawdopodobieństwa. Wnioskowanie_Statystyczne_-_wykład
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Definicje prawdopodobieństwa 1.1 Częstościowa definicja prawdopodobieństwa 1.1.1 Przykład 1.1.2 Rozwiązanie: 1.1.3 Inne rozwiązanie: 1.1.4 Jeszcze inne
Prawdopodobieństwo czerwonych = = 0.33
Temat zajęć: Naiwny klasyfikator Bayesa a algorytm KNN Część I: Naiwny klasyfikator Bayesa Naiwny klasyfikator bayerowski jest prostym probabilistycznym klasyfikatorem. Naiwne klasyfikatory bayesowskie
5. WNIOSKOWANIE PSYCHOMETRYCZNE
5. WNIOSKOWANIE PSYCHOMETRYCZNE Model klasyczny Gulliksena Wynik otrzymany i prawdziwy Błąd pomiaru Rzetelność pomiaru testem Standardowy błąd pomiaru Błąd estymacji wyniku prawdziwego Teoria Odpowiadania
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest implementacja liniowego zadania
Klasyfikacja metodą Bayesa
Klasyfikacja metodą Bayesa Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski warunkowe i bezwarunkowe 1. Klasyfikacja Bayesowska jest klasyfikacją statystyczną. Pozwala przewidzieć prawdopodobieństwo
Technologie cyfrowe. Artur Kalinowski. Zakład Cząstek i Oddziaływań Fundamentalnych Pasteura 5, pokój 4.15
Technologie cyfrowe Artur Kalinowski Zakład Cząstek i Oddziaływań Fundamentalnych Pasteura 5, pokój 4.15 Artur.Kalinowski@fuw.edu.pl Semestr letni 2014/2015 Zadanie algorytmiczne: wyszukiwanie dane wejściowe:
Definicje. Najprostszy schemat blokowy. Schemat dokładniejszy
Definicje owanie i symulacja owanie zastosowanie określonej metodologii do stworzenia i weryfikacji modelu dla danego rzeczywistego Symulacja zastosowanie symulatora, w którym zaimplementowano model, do
Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu
XXVIII Letnia Szkoła Naukowa Metodologii Nauk Empirycznych Zakopane, 12-14.05.2014 Jak pisać publikacje naukowe? Nie o naukowej, a technicznej stronie pisania artykułu Maciej Zaborowicz Instytut Inżynierii
Podstawy programowania. Wykład Funkcje. Krzysztof Banaś Podstawy programowania 1
Podstawy programowania. Wykład Funkcje Krzysztof Banaś Podstawy programowania 1 Programowanie proceduralne Pojęcie procedury (funkcji) programowanie proceduralne realizacja określonego zadania specyfikacja
Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów
Rozdział : Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów W tym rozdziale omówione zostaną dwie najpopularniejsze metody estymacji parametrów w ekonometrycznych modelach nieliniowych,
6.4 Podstawowe metody statystyczne
156 Wstęp do statystyki matematycznej 6.4 Podstawowe metody statystyczne Spóbujemy teraz w dopuszczalnym uproszczeniu przedstawić istotę analizy statystycznej. W szczególności udzielimy odpowiedzi na postawione
Analiza i projektowanie obiektowe 2017/2018. Wykład 3: Model wiedzy dziedzinowej
Analiza i projektowanie obiektowe 2017/2018 Wykład 3: Model wiedzy dziedzinowej Jacek Marciniak Wydział Matematyki i Informatyki Uniwersytet im. Adama Mickiewicza 1 Plan wykładu 1. Model wiedzy dziedzinowej
Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change
Raport 4/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych
REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH
REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH Transport, studia I stopnia rok akademicki 2012/2013 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Adam Wosatko Ewa Pabisek Pojęcie
WHILE (wyrażenie) instrukcja;
INSTRUKCJE ITERACYJNE WHILE, DO WHILE, FOR Instrukcje iteracyjne pozwalają powtarzać daną instrukcję programu określoną liczbę razy lub do momentu osiągnięcia określonego skutku. Pętla iteracyjna while
Jazda autonomiczna Delphi zgodna z zasadami sztucznej inteligencji
Jazda autonomiczna Delphi zgodna z zasadami sztucznej inteligencji data aktualizacji: 2017.10.11 Delphi Kraków Rozwój jazdy autonomicznej zmienia krajobraz technologii transportu w sposób tak dynamiczny,
11 Probabilistic Context Free Grammars
11 Probabilistic Context Free Grammars Ludzie piszą i mówią wiele rzeczy, a ich wypowiedzi mają zawsze jakąś określoną strukture i regularność. Celem jest znalezienie i wyizolowanie tego typu struktur.
Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych)
Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych) Funkcja uwikłana (równanie nieliniowe) jest to funkcja, która nie jest przedstawiona jawnym przepisem, wzorem wyrażającym zależność wartości
Sortowanie Shella Shell Sort
Sortowanie Shella Shell Sort W latach 50-tych ubiegłego wieku informatyk Donald Shell zauważył, iż algorytm sortowania przez wstawianie pracuje bardzo efektywnie w przypadku gdy zbiór jest w dużym stopniu
System bonus-malus z mechanizmem korekty składki
System bonus-malus z mechanizmem korekty składki mgr Kamil Gala Ubezpieczeniowy Fundusz Gwarancyjny dr hab. Wojciech Bijak, prof. SGH Ubezpieczeniowy Fundusz Gwarancyjny, Szkoła Główna Handlowa Zagadnienia
Testowanie modeli predykcyjnych
Testowanie modeli predykcyjnych Wstęp Podczas budowy modelu, którego celem jest przewidywanie pewnych wartości na podstawie zbioru danych uczących poważnym problemem jest ocena jakości uczenia i zdolności
Języki programowania zasady ich tworzenia
Strona 1 z 18 Języki programowania zasady ich tworzenia Definicja 5 Językami formalnymi nazywamy każdy system, w którym stosując dobrze określone reguły należące do ustalonego zbioru, możemy uzyskać wszystkie
Ekstrakcja informacji oraz stylometria na usługach psychologii Część 2
Ekstrakcja informacji oraz stylometria na usługach psychologii Część 2 ws.clarin-pl.eu/websty.shtml Tomasz Walkowiak, Maciej Piasecki Politechnika Wrocławska Grupa Naukowa G4.19 Katedra Inteligencji Obliczeniowej
Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych
Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych Plan wystąpienia Co to jest sztuczna inteligencja? Pojęcie słabej
Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a
TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji
Instytut Informatyki Uniwersytet Wrocławski. Dane w sieciach. (i inne historie) Marcin Bieńkowski
Dane w sieciach (i inne historie) Marcin Bieńkowski Jak przechowywać dane w sieciach (strony WWW, bazy danych, ) tak, żeby dowolne ciągi odwołań do (części) tych obiektów mogły być obsłużone małym kosztem?
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba Cel zadania Celem zadania jest implementacja klasyfikatorów
Pętla for. Matematyka dla ciekawych świata -19- Scilab. for i=1:10... end. for k=4:-1:1... end. k=3 k=4. k=1. k=2
Pętle wielokrotne wykonywanie ciągu instrukcji. Bardzo często w programowaniu wykorzystuje się wielokrotne powtarzanie określonego ciągu czynności (instrukcji). Rozróżniamy sytuacje, gdy liczba powtórzeń
Rozpoznawanie obrazów
Rozpoznawanie obrazów Laboratorium Python Zadanie nr 2 κ-nn i Naive Bayes autorzy: M. Zięba, J.M. Tomczak, A. Gonczarek, S. Zaręba, J. Kaczmar Cel zadania Celem zadania jest implementacja klasyfikatorów
Metody selekcji cech
Metody selekcji cech A po co to Często mamy do dyspozycji dane w postaci zbioru cech lecz nie wiemy które z tych cech będą dla nas istotne. W zbiorze cech mogą wystąpić cechy redundantne niosące identyczną
Cel normalizacji. Tadeusz Pankowski
Plan Normalizacja Tadeusz Pankowski www.put.poznan.pl/~tadeusz.pankowski 1. Cel normalizacji. 2. Klucze schematów relacyjnych atrybuty kluczowe i niekluczowe. 3. 2PN druga postać normalna. 4. 3PN trzecia
Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych
Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych Marcin Deptuła Julian Szymański, Henryk Krawczyk Politechnika Gdańska Wydział Elektroniki, Telekomunikacji i Informatyki Katedra Architektury
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Badania sondażowe. Schematy losowania. Agnieszka Zięba. Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa
Badania sondażowe Schematy losowania Agnieszka Zięba Zakład Badań Marketingowych Instytut Statystyki i Demografii Szkoła Główna Handlowa 1 Próba jako miniatura populacji CELOWA subiektywny dobór jednostek
Oszacowanie umiejętności teta oraz wyskalowanie osi w metodzie IRT dla potrzeb obliczania parametrów zadań
Sławomir Sapanowski Okręgowa Komisja Egzaminacyjna w Łodzi Oszacowanie umiejętności teta oraz wyskalowanie osi w metodzie IRT dla potrzeb obliczania parametrów zadań W ostatnim czasie wśród ekspertów zajmujących
Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )
Statystyka Rozkład prawdopodobieństwa Testowanie hipotez Wykład III (04.01.2016) Rozkład t-studenta Rozkład T jest rozkładem pomocniczym we wnioskowaniu statystycznym; stosuje się go wyznaczenia przedziału