Rozwiązywanie dysambiguacji za pomocą lingwistycznej sieci symantycznych relacji leksykalnych na przykładzie systemu WordNet

Podobne dokumenty
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.

Rozróżnianie sensów polskich słów za pomoca rozwinięcia metody Leska

Priorytetyzacja przypadków testowych za pomocą macierzy

Podstawy Informatyki. Algorytmy i ich poprawność

Open Access w technologii językowej dla języka polskiego

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak

Kryteria oceniania języka angielskiego w Szkole Podstawowej nr 16 w Zespole Szkolno-Przedszkolnym nr 1 w Gliwicach

System wspomagania harmonogramowania przedsięwzięć budowlanych

Internet, jako ocean informacji. Technologia Informacyjna Lekcja 2

Analiza wyników egzaminu gimnazjalnego z języka obcego nowożytnego w roku szkolnym 2014/2015

Uwaga: Akceptowane są wszystkie odpowiedzi merytorycznie poprawne i spełniające warunki zadania.

Wykrywanie twarzy na zdjęciach przy pomocy kaskad

Lokalizacja Oprogramowania

Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych

Praca Magisterska. Automatyczna kontekstowa korekta tekstów na podstawie Grafu Przyzwyczajeń. internetowego dla języka polskiego

0 + 0 = 0, = 1, = 1, = 0.

SQL - Structured Query Language -strukturalny język zapytań SQL SQL SQL SQL

Zacznijmy więc pracę z repozytorium. Pierwsza konieczna rzecz do rozpoczęcia pracy z repozytorium, to zalogowanie się w serwisie:

Systemy organizacji wiedzy i ich rola w integracji zasobów europejskich bibliotek cyfrowych

Metody eksploracji danych w odkrywaniu wiedzy (MED) projekt, dokumentacja końcowa

Wymagania edukacyjne na poszczególne stopnie szkolne z języka angielskiego w klasie VII

EGZAMIN MATURALNY W ROKU SZKOLNYM 2014/2015

REFERAT PRACY DYPLOMOWEJ Temat pracy: SUDOKU - Algorytmy tworzenia i rozwiązywania

Wyszukiwanie informacji

AiSD zadanie trzecie

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

W jakim stopniu uczniowie opanowali umiejętność Wykorzystywania wiedzy w praktyce? Analiza zadań otwartych z arkusza Sprawdzian 2012

EGZAMIN MATURALNY W ROKU SZKOLNYM 2014/2015

ETAPY PROCESU BADAWCZEGO. wg Babińskiego

JĘZYK ANGIELSKI SZKOŁA PODSTAWOWA. Przedmiotowy System Oceniania

JĘZYK NIEMIECKI liceum

Diagramy związków encji. Laboratorium. Akademia Morska w Gdyni

Języki programowania zasady ich tworzenia

Dokumentacja programu. Zoz. Uzupełnianie kodów terytorialnych w danych osobowych związanych z deklaracjami POZ. Wersja

Semantyczne podobieństwo stron internetowych

Wtyczka Crop3D. Wstęp. Implementacja. Sprawozdanie z realizacji projektu Bartłomiej Trzewiczek Kraków,

Skrócona instrukcja obsługi

EGZAMIN MATURALNY W ROKU SZKOLNYM 2017/2018 INFORMATYKA

Klasyfikacja publikacji biomedycznych w konkursie JRS 2012 Data Mining Competition - Szkic koncepcji

Uzupełnij pola tabeli zgodnie z przykładem poniżej,

Heurystyczne metody przeszukiwania

Maciej Piotr Jankowski

PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO W KLASACH I-III SZKOŁY PODSTAWOWEJ

Program warsztatów CLARIN-PL

Wybrane wyniki w zakresie umiejętności matematycznych

; B = Wykonaj poniższe obliczenia: Mnożenia, transpozycje etc wykonuję programem i przepisuję wyniki. Mam nadzieję, że umiesz mnożyć macierze...

Jak przygotować pliki gotowe do publikacji w sieci za pomocą DigitLabu?

EGZAMIN MATURALNY 2012 INFORMATYKA

Wymagania edukacyjne z języka angielskiego dla klasy czwartej

Internet wyszukiwarki internetowe

Przedmiotowy system oceniania z języka angielskiego

Wpływ nowej normy oświetleniowej EN 13201: 2015 na istniejące instalacje oświetleniowe projektów zgodnie z normą PN - EN 13201:2007

Międzyplatformowy interfejs systemu FOLANessus wykonany przy użyciu biblioteki Qt4

PLAN REALIZACJI MATERIAŁU NAUCZANIA Z INFORMATYKI II. Uczeń umie: Świadomie stosować się do zasad regulaminów (P).

WYMAGANIA EDUKACYJNE DLA KLASY II ROK SZKOLNY 2015/2016

Materiały dla finalistów

WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH W KLASIE 4 SZKOŁY PODSTAWOWEJ

plansoft.org Zmiany w Plansoft.org Panel wyszukiwania PLANOWANIE ZAJĘĆ, REZERWOWANIE SAL I ZASOBÓW

BDG.WZP JP Warszawa, 15 lipca 2015 r.

Implementacja filtru Canny ego

Karta pracy do doświadczeń

Korpusomat narzędzie do tworzenia przeszukiwalnych korpusów języka polskiego

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

TEORETYCZNE PODSTAWY INFORMATYKI

Wymagania edukacyjne klasa 1

WYMAGANIA EDUKACYJNE Z JĘZYKA NIEMIECKIEGO DLA KLASY 4 SŁUCHANIE ZE ZROZUMIENIEM: Ocena celująca Uczeń: posiada wiedzę i umiejętności, znacznie

Technologie Internetowe Raport z wykonanego projektu Temat: Internetowy sklep elektroniczny

Programowanie komputerów

SYSTEM OCENIANIA Z JĘZYKÓW OBCYCH.

Otwórz i zamknij kilka dokumentów tekstowych, następnie sprawdź zawartość menu Plik.

PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO KLASY IV-VI SZKOŁA PODSTAWOWA W CHORZEWIE. Spis treści

Interpretacja Raportu badania pracy w Otwartym Systemie Antyplagiatowym (OSA)

Funkcje wymierne. Jerzy Rutkowski. Działania dodawania i mnożenia funkcji wymiernych określa się wzorami: g h + k l g h k.

Bydgoskie Centrum Archiwizacji Cyfrowej sp. z o.o.

Analiza wyników egzaminu gimnazjalnego 2016 r. Test humanistyczny język polski

KIERUNKOWE EFEKTY KSZTAŁCENIA

Rozdział ten zawiera informacje o sposobie konfiguracji i działania Modułu OPC.

Wyszukiwanie informacji w internecie. Nguyen Hung Son

TWIERDZENIE TALESA W PRZESTRZENI

RAPORT Z ZAKRESU UMIEJĘTNOŚCI MATEMATYCZNYCH. przeprowadzonego w Szkole Podstawowej z Oddziałami Integracyjnymi nr 10. im.

Opis metody pracy Komisji podczas Kwalifikacji TestingCup 2017

WYMAGANIA EDUKACYJNE Z JĘZYKA ANGIELSKIEGO DLA KLASY II GIMNAZJUM

Przygotowanie materiału uczącego dla OCR w oparciu o aplikację Wycinanki.

PageRank i HITS. Mikołajczyk Grzegorz

Model referencyjny doboru narzędzi Open Source dla zarządzania wymaganiami

REFERAT PRACY DYPLOMOWEJ Temat pracy: Projekt i realizacja serwisu ogłoszeń z inteligentną wyszukiwarką

Jak statystyka może pomóc w odczytaniu wyników sprawdzianu

EGZAMIN W KLASIE TRZECIEJ GIMNAZJUM W ROKU SZKOLNYM 2015/2016

Spis treści. O autorce. O recenzentach. Wprowadzenie

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

ERGODESIGN - Podręcznik użytkownika. Wersja 1.0 Warszawa 2010

System Korekty Tekstu Polskiego

Tworzenie i obsługa wirtualnego laboratorium komputerowego

zna metody matematyczne w zakresie niezbędnym do formalnego i ilościowego opisu, zrozumienia i modelowania problemów z różnych

EDUKACJA MATEMATYCZNA. uczniów I A 20 91% 19 86% 88,5% I B % 16 94% 97% RAZEM 37 95,5% 35 90% 92,7%

Galileo - encyklopedia internetowa Plan testów

MODELE SIECIOWE 1. Drzewo rozpinające 2. Najkrótsza droga 3. Zagadnienie maksymalnego przepływu źródłem ujściem

Testowanie I. Celem zajęć jest zapoznanie studentów z podstawami testowania ze szczególnym uwzględnieniem testowania jednostkowego.

Zad. 3: Układ równań liniowych

PRZEDMIOTOWY SYSTEM OCENIANIA Z JĘZYKA ANGIELSKIEGO DLA KL. IV

Transkrypt:

Rozwiązywanie dysambiguacji za pomocą lingwistycznej sieci symantycznych relacji leksykalnych na przykładzie systemu WordNet Julian Szymański, Kamila Błaszczyk, Artur Chełmecki 18 marca 2007 1 Wstęp Rozwój informatyki spowodował wkraczanie komputerów i elektronicznego wspomagania działań człowieka w coraz to nowe dziedziny życia. W ramach usprawniania komunikacji i interfejsów między człowiekiem a komputerem coraz bardziej palącą kwestią jest umożliwienie zrozumienia przez tworzone programy sensów zdań. Dotyczy to w głównej mierze translatorów. Do tej pory komputerowe słowniki potrafiły rozpoznać i przetłumaczyć tylko konkretne słowa, nie radziły sobie jednak z ich wieloznacznością. Aby skutecznie wspomagać tłumaczenia konieczne staje się zmuszenie komputera do rozpoznania kontekstu w jakim występuje dane słowo. Jednak nie tylko tłumaczom niezbędne jest rozpoznawanie znaczeń wyrazów na podstawie kontekstu ich użycia. Problem jest aktualny we wszystkich zagadnieniach związanych z szeroko rozumianą eksploracją danych w nieustrukturalizowanych źródłach tekstowych oraz zasobach sieci Internet. Z pewnością dla każdego internauty takie narzędzie rozumiejące sensy wyrazów i całych zdań miałoby niebagatelne znaczenie. Jak często denerwujemy się na ulubioną wyszukiwarkę internetową na miliony odnośników, które nie mają związku z szukaną frazą. Gdyby wyszukiwarka potrafiła wywnioskować znaczenie wyrazu na podstawie znaczeń pozostałych słów znajdujących się we frazie, otrzymalibyśmy wtedy w wyniku tylko te odnośniki, które dokładnie odzwierciedlałyby nasze oczekiwania. Problem dysambiguacji nie jest jednak trywialny i pracuje nad nim wiele grup badawczych. Obecnie dzięki projektowi WordNet, który został rozwinięty przez Cognitive Science Laboratory na Uniwersytecie w Princeton, ogólnie dostępny jest słownik języka angielskiego posiadający wszystkie znaczenia słów. Ponadto znaczenia te zostały usystematyzowane, wzajemnie powiązane i pogrupowane. Umożliwia to łatwe i szybkie wyszukiwanie danego słowa i jego wszystkich znaczeń. Podstawowa struktura WordNetu opiera się na pojęciu synsetu, który reprezentuje konkretne znaczenie konkretnego słowa. Słownik WN jest zbiorem synsetów połączonych relacjami leksykalnymi z wagami - znaczenia które w jakiś 1

sposób się ze sobą wiążą są połączone. Przykładowe relacje łączące rzeczowniki to: - synonimiczna i antonimiczna - homonimia - określająca różne znaczenia słowa o tej samej pisowni - hiponimia - zwana też relacją is mówiąca że jeden wyraz jest bardziej ogólnym opisem innego określenia, np. tree jest hiponimem plant. Odwrotnością hiponimii jest hiperonimia czyli bardziej szczegółowy opis danego określenia. - meronimia - zwana też relacją has a definiująca wyraz jako część innego znacznia np. tire i car. Odwrotnością meronimii jest holonimia. Istnieje również polski odpowiednik WN. Instytut Informatyki Stosowanej na Politechnice Wrocławskiej prowadzi projekt finansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego o nazwie "Automatyczne metody konstrukcji sieci semantycznej leksemów polskich na potrzeby przetwarzania języka naturalnego". Celem tego projektu jest półautomatyczna konstrukcja słowosieci poprzez opracowanie algorytmów automatycznego wykrywania relacji semantycznych języka polskiego, które w połączeniu z pracą lingwistów, dadzą efektywną metodę budowy sieci relacji semantycznych. Oficjalna strona projektu to http://plwordnet.pwr.wroc.pl/main/?lang=pl. 2 Opis rozwiązania Dla celów niniejszego artykułu powstał program, którego zadaniem jest zasymulowanie wyszukiwania najlepiej pasujących do siebie sensów rzeczowników występujących w zdaniu. W projekcie wykorzystana została istniejąca już biblioteka JWNL(Java WordNet Library), która udostępniana jest na zasadzie licencji GPL jako oprogramowanie Open Source. Przygotowany program pobiera na wejściu zdanie w języku angielskim. Zdanie to może być wielokrotnie złożone i może zawierać wszystkie rodzaje znaków przystankowych. W pierwszej fazie analizy usuwane są wszystkie zbędne znaki ze zdania i wyodrębniane zostają pojedyncze słowa. Następnie spośród wyodrębnionych słów wybierane są wszystkie rzeczowniki. Dla każdego z rzeczowników wyszukiwana jest jego forma podstawowa, tj. zmieniana jest liczba mnoga wyrazu na pojedynczą oraz rzeczownik doprowadzany jest do formy mianownikowej. Krok ten jest niezbędny dla prawidłowego wyszukania znaczeń danego wyrazu. Gdy już mamy wszystkie rzeczowniki w formie podstawowej wyszukujemy wszystkie ich znaczenia. Jako wynik tego działania otrzymujemy zbiór znaczeń dla każdego rzeczownika z danego zdania. Teraz chcemy zbadać jak blisko powiązane są ze sobą znaczenia wyrazów. W tym celu musimy wyszukać stopień podobieństwa pomiędzy każdą parą znaczeń dla każdej pary rzeczowników. Oczywiście nie bierzemy pod uwagę par znaczeń pochodzących od tego samego wyrazu. Stopień podobieństwa dwóch znaczeń wyznaczany jest na dwa sposoby. Pierwszy to sposób porównania zaimplementowany przez bibliotekę JWNL, który opiera swoją ocenę bliskości dwóch znaczeń na podstawie obliczenia odległości pomiędzy nimi na grafie powiązań znaczeń stworzonym przez Wordnet. Im mniej kroków potrzebujemy, aby w grafie dojść z jednego punktu do drugiego 2

tym bliższe sobie są oba znaczenia. Drugim sposobem jest porównanie oparte na podstawie algorytmu Leska. Polega on na porównywaniu ilości podobnych słów w definicjach danych znaczeń. Im więcej słów mają wspólnych dwie definicje tym bardziej do siebie są podobne oba znaczenia. Kolejnym krokiem algorytmu jest wybranie dla każdego z wyrazów takiego sensu, aby jego znaczenie było spójne z sensami innych wyrazów w zdaniu. Możemy to osiągnąć dzięki macierzy podobieństwa, która powstała podczas porównywania wszystkich sensów w poprzednim kroku. Macierz ta składa się dwóch wymiarów. Kolejne kolumny i wiersze reprezentują kolejne znaczenia wydobyte z wszystkich rzeczowników ze zdania. Na przecięciu danej kolumny i wiersza znajduje się liczba określająca stopień bliskości obu znaczeń. Im liczba ta jest mniejsza, tym bliższe sobie są opisywane znaczenia. Teraz wystarczy z tej macierzy wybrać najlepszą kombinację sensów, czyli taką która będzie miała najmniejszą sumę liczb w macierzy. Tak wybrana grupa sensów jest wynikiem i rozwiązaniem dysambiguacji. Inną funkcją programu jest wyszukanie znaczenia danego słowa najbardziej zbliżonego do znaczenia znalezionego w innym słowniku. Wyszukiwanie to opiera się podobnie jak algorytm Leska na porównaniu liczby wspólnych wyrazów w obu definicjach. Program posiada interfejs graficzny, który umożliwia swobodne wprowadzanie danych oraz obserwowanie wyników jego działania. 3 Przeprowadzone eksperymenty W celu przetestowania zaimplementowanych rozwiązań wykorzystano 42 pary wyrazów testowych. Wszystkie pary powstawały ze słowa wieloznacznego i drugiego słowa, które uszczegóławiało znaczenie pierwszego słowa. Testy przeprowadzone zostały dla trzech algorytmów. Pierwsze dwa algorytmy to algorytmy zaimplementowane w przygotowanym oprogramowaniu. Pierwszy z nich to algorytm wewnętrzny biblioteki JWNL, drugi to nasza implementacja algorytmu Lesk. Ostatnim z testowanych algorytmów był algorytm udostępniony przez fińską grupę badawczą. Szczegółowe informacje na temat tego algorytmu można uzyskać na stronie www.teamapoint.com. Niestety strona ta napisana jest w języku fińskim i nie byliśmy w stanie doszukać się opisu algorytmu jaki zastosowano do rozwiązywania dysambiguacji. W wyniku przeprowadzonych eksperymentów, lepszym z algorytmów naszego programu okazał się algorytm wewnętrzny biblioteki JWNL. Okazał się on skuteczny w prawie 65% przypadków. Wersja algorytmu Leska okazała się skuteczna zaledwie w połowie przypadków. Zaobserwowaliśmy również bardzo ciekawą sytuację, która nie była błędem działania algorytmu, ale miała miejsce przy analizie tylko dwóch słów.w przypadkach tych algorytmy udzielały sensownych odpowiedzi, ale nie były one zgodne z oczekiwaniami. Przypadek ten został zaobserwowany dla pary słów sister i brother. Przez JWNL słowa te zostały zinterpretowane jako brat i siostra w rozumieniu rodziny, natomiast przez algorytm Lesk jako zakonnik i zakonnica. Bardzo ciekawe wyniki otrzymaliśmy również dla pary słów horse i gym. Okazuje się, że żaden z algorytmów nie potrafił zaklasyfikować tego znaczenia 3

konia jako konia gimnastycznego. Jest to dodatkowo dziwne, że nawet algorytm Lesk badający definicje znaczeń nie potrafił znaleźć wystarczającej liczby wspólnych wyrazów w definicjach obu słów. Ciekawą obserwacją jest fakt, że w ogromnej większości przypadków przynajmniej jeden z algorytmów okazywał się skuteczny. Niewiele przypadków sprawiło trudność obu algorytmom. W poniższej tabelce przedstawione zostały wyrazy, których dysambiguacje były najlepiej wykryte przez algorytmy. Najlepiej rozpoznane znaczenia wyrazów JWNL Lesk słowo procent wykrytych znaczeń słowo procent wykrytych znaczeń club 100% cap 100% goal 100% film 100% net 100% net 66% base 75% horse 66% score 66% score 66% horse 66% date 66% Najgorzej rozpoznane znaczenia wyrazów JWNL Lesk słowo procent wykrytych znaczeń słowo procent wykrytych znaczeń pole 33% space 0% bow 33% bow 0% tree 50% cap 0% terminal 50% pole 33% Jak widać na podstawie załączonych tabel najtrudniej algorytmom uchwycić dokładny sens wyrazu, gdy znaczenia wyrazu są bardzo do siebie zbliżone. Dobrym przykładem jest tutaj słowo bow. Ponieważ jego znaczenia bardzo blisko związane są z różnymi rodzajami łuków, i słowa te należą do bardzo bliskich kategorii, dlatego poszukiwanie odległości pomiędzy dwoma znaczeniami jest utrudnione. Należy zwrócić uwagę, że badane znaczenia posiadały dosyć spore objaśnienia, niemniej brakowało w nich słów kluczowych, na podstawie których algorytm Lesk mógłby skojarzyć odpowiednie sensy wyrazów. Jedynym zewnętrznym algorytmem jaki podlegał analizie był wspomniany algorytm grupy teemapoint. Algorytm ten umożliwia analizę znaczenie tylko rzeczowników, ale i innych części mowy. Spodziewaliśmy się, że będzie on skuteczniejszy od naszej implementacji. Okazało się jednak, że dla naszych danych testowych algorytm ten nie uzyskał nawet 50% poprawności wyników. Było to bardzo zaskakujące. Głębsze analizy doprowadziły do wniosków, że algorytm ten znacznie lepiej sobie radzi gdy dysponuje oprócz rzeczowników również czasownikami i przymiotnikami. Gdy nasze grupy rzeczowników zostały rozwinięte do pełnych zdań okazało się, że wyniki zbliżyły się znacznie do oczekiwanych. Jak widać wpływ powiązań pomiędzy czasownikami a rzeczownikami znacznie wpływa na poprawność generowanych wyników przez ten algorytm. Przeprowadziliśmy również testy dla przykładów składających się większej liczby wyrazów. Pokazały one, że ogólnie wraz ze zrostem liczby wyrazów w 4

zdaniu poprawia się liczba poprawnie wykrywanych znaczeń wyrazów. W szczególności dotyczy to algorytmu Lesk. Jak widać algorytm ten posiadając większą ilość definicji może w lepszy sposób znaleźć najlepsze znaczenia wyrazów. W powyższych testach za poprawną odpowiedź algorytmu uznawaliśmy tylko taką, która podawała poprawną odpowiedź dla wszystkich wyrazów. Jednak gdy będziemy rozpatrywać poprawność wykrywania znaczeń dla poszczególnych wyrazów z osobna wyniki działania algorytmów ulegną diametralnej poprawie. Dla tak ocenianej poprawności otrzymaliśmy następujące wyniki: JWNL 75,61% Lesk 65,85% Teemapoint 68,29% Ciekawostką, jaką udało nam się zaobserwować było, że dla niektórych wyrazów, a konkretnie niektórych znaczeń tych wyrazów, znaczenia badanego wyrazu było poprawnie interpretowane, a wyraz który miał precyzować znaczenie tego słowa był źle interpretowany. Ponadto należy zwrócić uwagę, że dla badanych par wyrazów praktycznie dla żadnej z par nie zaistniała sytuacja, że oba wyrazy zostały źle zinterpretowane. Przeważnie przynajmniej jeden z nich był zawsze dobrze zinterpretowany. Rysunek?? podsumowuje wyniki uzyskane przez nas podczas badania. Rysunek 1: Wyniki eksperymentu Reasumując testy, najlepszym algorytmem okazał się algorytm wyszukiwania bliskości znaczeń zaimplementowany w bibliotece JWNL. Algorytm ten okazał się bezkonkurencyjny w porównaniu do pozostałych. Zwiększenie ilości wyrazów w zdaniu nie zmienił znacząco poprawności wykrywania znaczeń rzeczowników. 5

Miało to miejsce gdy badaliśmy dwa pierwsze algorytmy. Dla algorytmu grupy Teemapoint dodanie do zdania większej liczby wyrazów znacząco pogorszyło jakość wyników. Jeżeli weźmiemy pod uwagę procent poprawności wykrywania znaczeń dla poszczególnych wyrazów w zdaniu, a nie całych zdań, ogólna ocena poprawności wykrywania znaczeń wzrasta. Dla algorytmów z naszego programu stosunek poprawnie wykrywanych znaczeń nie zmienił się. Okazało się jednak, że gdy bierzemy pod uwagę pojedyncze słowa algorytm Teemapoint dorównał algorytmom zastosowanym w programie. Przeprowadzone zostały również testy drugiego narzędzia wyszukującego najlepiej pasujące znaczenie wyrazu na podstawie podanego wyrazu i nowej definicji. W trakcie testów narzędzie to działało bezbłędnie wyświetlając oczekiwane definicje. Zgodnie z oczekiwaniami im więcej słów zostało podanych w nowej definicji słowa tym lepiej dopasowywane były stare definicje. Podsumowując narzędzie działało zgodnie z oczekiwaniami. 4 Wnioski Problem dysambiguacji jest nadal bardzo trudnym i skomplikowanym zagadnieniem. Jak pokazały nasze eksperymenty próba identyfikacji znaczeń wyrazów tylko na podstawie rzeczowników może okazać się niewystarczająca. Osiągnięte wyniki przy analizie tylko rzeczowników dają wyniki poprawności na poziomie 2/3. Naszym zdaniem rozszerzenie analizy znaczeń wyrazów o analizę czasowników i przymiotników powinno w sposób znaczący poprawić skuteczność wykrywania poprawnych znaczeń wyrazów. Dowodem na to jest wynik jaki uzyskała grupa badawcza Teemapoint. Ich narzędzie potrafiące odnajdywać najlepiej pasujące znaczenia w danym kontekście o wiele lepiej radzi sobie dla całych zdań, które posiadają zarówno rzeczowniki jak i przymiotniki. Należy zauważyć, że drugie narzędzie do wyszukiwania najlepiej pasujący znaczeń dla zadanego wyrazu i jego definicji działa bardzo dobrze, osiągając poprawność sięgającą 100%. To drugie z narzędzi może zostać rozwinięte o możliwość rozbudowywania słownika WordNet o nowe znaczenia. Dzięki temu WordNet może zostać uaktualniony o nowe wyrazy i znaczenia pochodzące z innych słowników i encyklopedii. Powstałe narzędzie może stać się dobrą podstawą do rozszerzania jego funkcjonalności w przyszłości, w celu otrzymania dokładniejszych wyników, dodając do niego analizę innych części mowy niż rzeczowniki. 6