Odpowiadanie na pytania w języku polskim

Podobne dokumenty
Odpowiadanie na pytania z użyciem automatycznie zgromadzonej bazy pojęć

Forma. Główny cel kursu. Umiejętności nabywane przez studentów. Wymagania wstępne:

Ekstrakcja informacji o zdarzeniach z tekstów dziedzinowych

Systemy organizacji wiedzy i ich rola w integracji zasobów europejskich bibliotek cyfrowych

AUTOMATYKA INFORMATYKA

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Zastosowanie Wikipedii w przetwarzaniu języka naturalnego

Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.

Program warsztatów CLARIN-PL

CLARIN rozproszony system technologii językowych dla różnych języków europejskich

Wydobywanie reguł na potrzeby ujednoznaczniania morfo-syntaktycznego oraz płytkiej analizy składniowej tekstów polskich

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Wykład V. Rzut okiem na języki programowania. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Analiza danych tekstowych i języka naturalnego

Inteligentne wydobywanie informacji z internetowych serwisów społecznościowych

Text mining w programie RapidMiner Michał Bereta

Elementy modelowania matematycznego

Maszynowe tłumaczenie Polskiego Języka Migowego

Indeksowanie full text search w chmurze

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

Automatyczne wspomaganie tworzenia słowników fleksyjnych jednostek wieloczłonowych

Imagination Is More Important Than Knowledge

EmotiWord, semantyczne powiązanie i podobieństwo, odległość znaczeniowa

Aproksymacja funkcji a regresja symboliczna

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

ALGORYTM RANDOM FOREST

Lokalizacja Oprogramowania

3 grudnia Sieć Semantyczna

Open Access w technologii językowej dla języka polskiego

Narzędzia do automatycznej analizy semantycznej tekstu na poziomach: leksykalnym i struktur

Metody indeksowania dokumentów tekstowych

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

Wpływ automatycznego tłumaczenia na wyniki automatycznej identyfikacji cha- rakteru opinii konsumenckich. 1 Wstęp

k INSTYTUT PODSTAW INFORMATYKI

Rozróżnianie sensów polskich słów za pomoca rozwinięcia metody Leska

Wprowadzenie do multimedialnych baz danych. Opracował: dr inż. Piotr Suchomski

Co wylicza Jasnopis? Bartosz Broda

SPOTKANIE 2: Wprowadzenie cz. I

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Słowem wstępu. Część rodziny języków XSL. Standard: W3C XSLT razem XPath 1.0 XSLT Trwają prace nad XSLT 3.0

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Narzędzia myślenia Słowa - wyobrażenia - pojęcia Wiesław Gdowicz

Przetwarzanie Języka Naturalnego dr inż. Krzysztof Rzecki. Przetwarzanie Języka Naturalnego konspekt (30 godzin) Dr inż.

Data Mining podstawy analizy danych Część druga

Widzenie komputerowe (computer vision)

Wykaz tematów prac magisterskich w roku akademickim 2018/2019 kierunek: informatyka

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Przetwarzanie i analiza danych w języku Python / Marek Gągolewski, Maciej Bartoszuk, Anna Cena. Warszawa, Spis treści

Gramatyka TAG dla języka polskiego

Tester oprogramowania 2014/15 Tematy prac dyplomowych

Pobieranie i przetwarzanie treści stron WWW

Problem ujednoznaczniania sensu w kontekście ekstrakcji relacji semantycznych

Obiekty Badawcze długoterminowe przechowywanie eksperymentów naukowych. Piotr Hołubowicz, Raúl Palma Poznańskie Centrum Superkomputerowo-Sieciowe

Metody systemowe i decyzyjne w informatyce

Kraków, 14 marca 2013 r.

Wstęp do przetwarzania języka naturalnego. Wykład 13 Podsumowanie i spojrzenie w przyszłość

Rozkład materiału nauczania

Metoda Tablic Semantycznych

DOPASOWYWANIE KRZYWYCH

Ontologie, czyli o inteligentnych danych

PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"

Model zaszumionego kanału

Netsprint Search. Koncepcja

SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska

Normalizacja baz danych

WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW

Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.

Nauczanie języków obcych wobec reformy podstawy programowej

Funkcjonalność oprogramowania Bazy Wiedzy i Repozytorium Politechniki Warszawskiej

mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.

SZTUCZNA INTELIGENCJA

Multi-wyszukiwarki. Mediacyjne Systemy Zapytań wprowadzenie. Architektury i technologie integracji danych Systemy Mediacyjne

Semantic Web Internet Semantyczny

Parametry wydajnościowe systemów internetowych. Tomasz Rak, KIA

Transformacja wiedzy w budowie i eksploatacji maszyn

Programowanie deklaratywne

W poszukiwaniu sensu w świecie widzialnym

Interaktywne wyszukiwanie informacji w repozytoriach danych tekstowych

Definicje. Algorytm to:

Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska

Spis treści. I. Czym jest Indeks Haseł 3 II. Wyszukiwanie hasła 4. 1) Alfabetyczna lista haseł 4 2) Wyszukiwarka haseł 4 3) Grupy haseł 6

Metody Kompilacji Wykład 3

Systemy uczące się Lab 4

Propensity Score Matching

Architektury Usług Internetowych. Wyszukiwanie usług w systemie BeesyCluster

Baza danych. Modele danych

Przedstawiona do recenzji rozprawa doktorska Pana mgra inż. Adama Dudka pt. :

Informatyka studia stacjonarne pierwszego stopnia

Systemy uczące się wykład 1

Propozycja rozszerzenia składni zapytań programu Poliqarp o elementy statystyczne

Wstęp do Językoznawstwa

Metody Kompilacji Wykład 1 Wstęp

Programowanie deklaratywne

1 Narzędzia przetwarzania 2 tekſtów hiſtorycznych

PRZEWODNIK PO PRZEDMIOCIE

Field of study: Computer Science Study level: First-cycle studies Form and type of study: Full-time studies. Auditorium classes.

Nie święci garnki lepią. czyli wprowadzenie do programowania

Transkrypt:

Odpowiadanie na pytania w języku polskim Piotr Przybyła IPI PAN 3 czerwca 2013 1 of 39

Plan prezentacji Motywacja Zadanie Istniejące rozwiązania Analiza pytania Project co-financed by European Union within the framework of European Social Fund 2 of 39

Odpowiadanie na pytania (ang. Question Answering, QA, Q&A) zdolność systemu komputerowego do komunikacji z użytkownikiem w jego języku naturalnym prawie nieograniczone zastosowania przy zadawaniu odpowiednich pytań (Gdzie upadnie pocisk?, Czy jutro będzie padać?), główne problemy w obszarze przetwarzania języka naturalnego (NLP) i wyszukiwania informacji tekstowych (IR & IE), poszukiwana informacja uznawana za daną w bazie wiedzy, postrzegane jako oczywista przyszłość komputerów w kulturze popularnej. 3 of 39

Dlaczego? Przetłumaczenie problemu na postać zrozumiałą dla komputera to znaczące obciążenie po stronie użytkownika. PRZYKŁAD: wyszukiwanie w sieci WWW: 3 milliony zapytań dziennie w wyszukiwarce Yandex.ru to pytania [11] (Jak schudnąć? to nr 1), 80% użytkowników nigdy nie stosuje operatorów boole owskich [4]. konieczność przyswojenia nieintuicyjnych reguł, np. stosowanie słów kluczowych, które nie wystąpią na stronach, których nie poszukujemy. Podobne zastosowania: zapytania do baz danych, systemy medyczne, obsługa klienta, etc. = Ułatwienie obsługi ważne dla walki z cyfrowym wykluczeniem. 4 of 39

Specyfikacja zadania Odpowiadania na pytania Zadanie automatycznego wydobywania zwięzłych odpowiedzi w języku naturalnym, na pytania sformułowane w języku naturalnym, opierając się na zbiorze tekstów w języku naturalnym. skupiamy się na rozumieniu języka (polskiego), trudny problem, zaliczany do klasy AI-complete [8]. Przykład Czy żołnierze 6. dywizji zabijali cywilów, zanim wzięto ich do niewoli? 5 of 39

IBM Watson 6 of 39

Pytania Pytania o proste fakty (ang. factoids), tj. pojedyncze byty: osoby, miejsca, nazwy, etc. bez rozumowania lub obliczeń (Jaki jest największy kraj spośród tych, które wydają więcej niż 10% PKB na zbrojenia?), poprawne składniowo pytania w języku polskim, odpowiedzi zawarte są (być może przeformułowane) w bazie wiedzy, nie oczekujemy definicji, wyjaśnień czy innych rozbudowanych odpowiedzi (Czym jest globalne ocieplenie?). Niekoniecznie tylko byty nazwane (ang. named entities)! Jeden z dziesięciu Jak nazywa się wzgórze w Paryżu na którym zbudowano bazylikę Sacré-Cœur? Kim zajmuje się wiktymologia? W którym kabarecie występuje Katarzyna Pakosińska? Która roślina w Inwokacji Pana Tadeusza Adama Mickiewicza pałała panieńskim rumieńcem? Jak nazywał się niemiecki teolog, który ogłosił 95 tez, krytykując sprzedawanie odpustów na rzecz budowy bazyliki Św. Piotra? Jak długo trwa prezydencja państwa w Unii Europejskiej? Co jest stolicą Tajwanu? 7 of 39

Baza wiedzy Obszerna baza tekstów w języku polskim, ze wszystkich dziedzin wiedzy (ang. open-domain). sieć WWW wymaga specjalnego traktowania, oznakowane polskie korpusy - skromne jako zasób wiedzy, artykuły prasowe - dużo wiedzy, ograniczenia prawne. Na początek: polska Wikipedia: ponad 900.000 artykułów, ok. 140M segmentów, fakty ze wszystkich dziedzin wiedzy, łatwy (technicznie i prawnie) dostęp, jakość języka pośrednia między prasą a WWW. 8 of 39

Przykład konfrontacji Kiedy Albert Einstein opublikował ogólną teorię względności? 25 listopada 1915 r. Einstein opublikował swoją najważniejszą pracę: ogólną teorię względności. Kiedy Albert Einstein opublikował szczególną teorię względności? Rok 1905 jest określany jako Annus mirabilis (cudowny rok) Einsteina. Wtedy ten nieznany w środowisku fizyków szwajcarski urzędnik patentowy opublikował kilka prac przełomowych dla fizyki. Jego publikacja Zur Elektrodynamik bewegter Körper ( O elektrodynamice ciał w ruchu ) wprowadza nową teorię, nazwaną później szczególną teorią względności, która... 9 of 39

Odpowiedzi Cztery poziomy udzielania odpowiedzi: 1. Wskazanie dokumentu zawierającego odpowiedź, (Wikipedia:Albert Einstein) 2. Fragment tekstu, (jedno lub więcej zdań, jak w przykładzie) 3. Tylko oczekiwany byt, (25 listopada 1915 r.) 4. Pełne zdanie. (Albert Einstein opublikował ogólną teorię względności 25 listopada 1915 r.) Information Retrieval (IR) vs. Information Extraction (IE). 10 of 39

Ocena jak dotąd tylko jeden sposób, duży zbiór pytań, odpowiedzi i tekstów, pytania - przygotowane ręcznie, teksty - duża istniejąca kolekcja, odpowiedzi - oceniane ręcznie Dla angielskiego - Question Answering competition na Text REtrieval Conference (TREC) w latach 1999-2007. TREC2007 [1]: 445 pytań, 21 uczestników, najlepszy wynik 70%. 11 of 39

Ocena dla języka polskiego 1. Korpus Wikipedii z 3 marca 2013, 900.000 artykułów, oznakowany: 1.1 struktura: własny skrypt Python + WikiExtractor 1.2 analiza morfosyntaktyczna: Morfeusz SGJP 0.82 1.3 tagowanie: PANTERA 0.9 1.4 parsowanie powierzchniowe: Spejd 1.3.2 1.5 byty nazwane: NERF 0.2 2. Pytania z teleturnieju Jeden z dziesięciu 2.1 opublikowane w [6], po 15 pytań z 100 dziedzin, 2.2 pytania uaktualnione, uproszczone i ujednolicone, 2.3 odpowiedzi uaktualnione i skonfrontowane z Wikipedią, 2.4 określone typ pytania, typ bytu i źródło wzorcowe, 3. zasady oceniania odpowiedzi pozostają do opracowania (wyrażenia regularne?). 12 of 39

Schemat typowego systemu QA 13 of 39

Strategie wyboru zdania Jak wybrać zdanie o największym podobieństwie do pytania? 1. Dopasowywanie wzorców [9], bazujące na z góry ustalonym przekształceniu pytania na wzorzec odpowiedzi (np. Kto zabił Johna Kennedy ego? na <NE:PERSON>zabił Johna Kennedy ego.), 2. Dopasowywanie semantyczne [3], używające semantycznego modelu, uwzględniającego zależności między znaczeniami słów w celu odnalezienia dopasowania (np. Zabić(<NE:PERSON>, John F. Kennedy ) jest spełnione przez Być zastrzelonym przez( John F. Kennedy, Lee H. Oswald )), 3. Podejście statystyczne [5], stosujące narzędzi statystyczne do wyboru znaczących wystąpień słów wspólnych dla pytania i potencjalnej odpowiedzi. 14 of 39

Rozwiązania dla języka polskiego Istnieje kilka systemów typu QA, ale żaden nie rozwiązuje zadania zdefiniowanego jak wyżej: 1. Duclaye et al. in 2002 [2] zaproponowali system odpowiadający na pytania z ograniczonej dziedziny: informacji handlowej. 2. Piechociński i Mykowiecka w 2005 [7] przedstawili rozwiązanie silnie bazujące na specyficznej strukturze bazy tekstowej (polska Wikipedia). 3. Walas et al. w 2012 [10] opublikowali kilka eksperymentów polegających na odpowiadaniu na pytania w oparciu o rozumowanie opierające się na zbiorze faktów przygotowanych w bazie danych. 15 of 39

RApid Factoidal Answer Extracting algorithm system odpowiadania na pytania bez ograniczeń dziedziny na podstawie tekstowej bazy wiedzy, opiera się na bazie narzędzi językowych opracowanych wokół NKJP, budowany dla celów badawczych wielowariantowy, w budowie, moduł analizy pytania został zaimplementowany, przetestowany i udokumentowany: 1. Przybyła, Piotr: Issues of Polish Question Answering. In: Information technologies: research and their interdisciplinary applications, IPI PAN, Warszawa 2013, 2. Przybyła, Piotr: Question classification for Polish question answering In: Kłopotek, M. A. and Koronacki, J. and Marciniak, M. and Mykowiecka, A. and Wierzchoń, S. T. (eds): Proceedings of the 20th International Conference of Language Processing and Intelligent Information Systems (LP& IIS 2013), Warszawa 2013, 3. Przybyła, Piotr: Question Analysis for Polish Question Answering. In: Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, Sofia, Bulgaria 2013. 16 of 39

Analiza pytania Konwersja pytania (łańcucha tekstowego) do modelu pytania, który zawiera: 1. Typ pytania, 1.1 Ogólny typ pytania Niezbędna dla przyjęcia odpowiedniej strategii przy odpowiadaniu, 1.2 Typ bytu nazwanego, Ma zastosowanie, jeśli typ ogólny to pojedynczy byt nazwany, wskazuje typ oczekiwanej odpowiedzi, 2. Zapytanie do wyszukiwarki, Wymagane ze względów wydajnościowych - pozwala wskazać dużą liczbę dokumentów potencjalnie zawierających odpowiedź, skierowanych do dalszej analizy. 17 of 39

Ogólny typ pytania weryfikacja Czy Lee Oswald zabił Johna Kennedy ego? wybór opcji Który z nich zabił Johna Kennedy ego: Lance Oswald czy Lee Oswald? byt nazwany Kto zabił Johna Kennedy ego? byt nienazwany Czego użył Lee Oswald, żeby zabić Johna Kennedy ego? inna nazwa danego bytu nazwanego Jakiego pseudonimu używał John Kennedy w trakcie służby wojskowej? wiele bytów nazwanych Którzy prezydenci Stanów Zjednoczonych zostali zabici w trakcie kadencji? 18 of 39

Typ bytu nazwanego miejsce kontynent rzeka jezioro łańcuch górski góra archipelag wyspa morze ciało niebieskie kraj region miejscowość narodowość osoba imię nazwisko 19 of 39 organizacja zespół dynastia firma wydarzenie data wiek rok wielkość okres liczba pojazd zwierzę tytuł utworu

Wybór typu pytania Zadanie klasyfikacji hierarchicznej (byt nazwany miejsce morze). 1. Jednoznaczne schematy pytań (Kto? Kiedy?... ) dopasowywanie wzorców, Kiedy rozpoczęto drugą wojnę światową? data, Uwaga: Kto wywołał drugą wojnę światową? naród, kraj, organizacja, osoba? 2. Niejednoznaczne schematy (Który? Jaki?) wnioskowanie semantyczne, Który holenderski postimpresjonista namalował Słoneczniki? 3. Uniwersalny klasyfikator uczenia maszynowego zastosowany do odpowiednio dobranych cech. Uwaga: Który kompozytor stworzył symfonię Jowiszową? Przez którego kompozytora została stworzona symfonia Jowiszowa? 20 of 39

Dopasowywanie wzorców 176 ręcznie opracowanych wzorców dla (prawie) jednoznacznych schematów: Wyrażenie regularne Zbiór typów ^Czy[,](.*)\?$ TRUEORFALSE ^(.*)[,]czy[,](.*)\?$ WHICH ^(.*[,])?[Ii]le[,](.*)\?$ COUNT,PERIOD,QUANTITY ^(.*[,])?[Kk]omu[,](.*)\?$ PERSON,COUNTRY, COMPANY,BAND,... ^W którym wieku[,](.*)\?$ CENTURY ^Jak ma na imię[,](.*)\?$ NAME ^(.*[,])?[Kk]tórzy[,](.*)\?$ MULTIPLE ^(.*[,])?[Cc]o[,]((?!jest).*)\?$ UNNAMED ENTITY ^()Co (jest)[,](.*)\?$ NAMED ENTITY ^()(Jaki)[,](.*)\?$ NAMED ENTITY ^(.+?[,])(któremu)[,](.*)\?$ NAMED ENTITY 21 of 39

Ujednoznacznianie z użyciem WordNetu Staje się konieczne, gdy zostanie dopasowany wzorzec niejednoznaczny. 1. Interpretacja pytania (Morfeusz+PANTERA+Spejd), 2. Wybór pierwszej grupy nominalnej po zaimku, 3. Poszukiwanie odpowiadającego jej leksemu w plwordnet, 4. Pobranie listy hiperonimów odpowiedniego synsetu, 5. W zależności od zawartości listy: 5.1 Jeśli zawiera synset kojarzony z typem bytu nazwanego XX, zwrócenie NAMED ENTITY:XX, 5.2 W przeciwnym wypadku zwrócenie UNNAMED ENTITY. 22 of 39

Przykład 23 of 39

Problem Jeden leksem może być kojarzony z kilkoma synsetami (problem ujednoznacznienia sensu słów). Każdy z synsetów odpowiadających znaczeniom posiada własną listę hiperonimów, Konieczne połączenie w jedną: przecięcie uwzględnienie hiperonimów wspólnych dla wszystkich znaczeń (malarz), suma uwzględnienie hiperonimów wynikających z którychkolwiek znaczeń (król), głosowanie uwzględnienie hiperonimów wynikających z większości znaczeń (element), wybór pierwszego synsetu często odpowiada najbardziej oczywistemu znaczeniu. 24 of 39

Uczenie maszynowe Wybór cech: wystąpienie wyrazu tekstowego (4920/297 cech), Którzy królowie rządzili Polską w okresie zaborów? wystąpienie leksemu (3537/419 cech), W którym mieście(miasto) odbyły się piąte igrzyska olimpijskie? wystąpienie interpretacji na pozycjach 1-5 (1975/322 cech), Na którym przylądku(subst:sg:loc:m3) stoi latarnia Rozewie? Zastosowane klasyfikatory: drzewa decyzyjne (pełne, przycinane, zatrzymywane), Ze względu na czytelność rezultatów, naiwny klasyfikator bayesowski (z wygładzaniem Laplace a i bez), Bardzo popularny w klasyfikacji tekstów, lasy losowe, Duża dokładność w klasyfikacji danych wielowymiarowych. 25 of 39

Wyniki Wyniki klasyfikacji na zbiorze 1137 pytań (dla uczenia maszynowego 100-krotna walidacja krzyżowa): Klasyfikator Pełność Dokładność Iloczyn dopasowywanie wzorców 36.15% 95.37% 34.48% ujednoznacznianie WordNet 98.33% 84.35% 82.94% drzewo decyzyjne 100% 67.02% 67.02% las losowy 100% 72.91% 72.91% Dokładności dla różnych technik łączenia listy hiperonimów: przecięcie suma głosowanie tylko pierwszy 72.00% 80.95% 79.07% 84.35% 26 of 39

Wyniki - uczenie maszynowe Dokładne wyniki dla różnych klasyfikatorów: ROOT ORTH O+R I+R I+O Drzewa (zatrzymywanie) 57.70% Drzewa (przycinanie) 63.67% Drzewa (pełne) 63.06% Bayes (prosty) 65.00% 69.31% 67.63% 71.33% 67.81% Bayes (z wygładzaniem L.) 56.02% 58.49% 59.01% 61.57% 60.95% Lasy losowe 67.54% 74.05% 27 of 39

Drzewo Najlepsze drzewo decyzyjne: 28 of 39

Problemy rozwiązania proceduralnego 99: brak ujednoznacznienia sensów słów, 55: trudności w rozpoznaniu bytów nazwanych i nienazwanych, Który pies ma najsilniejszy uścisk szczęk? Który pies poleciał w kosmos w 1957 r.? 14: brak reguł dla OTHER NAME, 12: niewystarczające reguły rozpoznawania pytań o wiele bytów, 12: zbyt skomplikowana składnia pytania, Jak się nazywa otwarta w 1928 roku w Warszawie centralna biblioteka państwowa? 11: brakujące wzorce, 10: niewystarczająca lista hiperonimów dla bytu nazwanego, 8: brak związków w WordNecie, synset <przylądek.1> nie posiada hiperonimów (w szczególności <obszar.1>) 6: błędy taggera, Deuter jest izotopem którego pierwiastka? pierwiastka:subst:sg:nom:f 1: błędy parsera powierzchniowego. ((Który łańcuch) górski) stanowi umowną granicę między kontynentami: Europą i Azją? 29 of 39

Generowanie zapytania Zadanie wykorzystania pytania do wygenerowania zapytania do indeksu wyszukiwarki: stosowane tylko i wyłącznie ze względów wydajnościowych, brak dostępu do złożonych narzędzi stosowanych na etapie wyboru zdania, ważniejsza pełność niż dokładność wiele (choć nie wszystkie) dokumentów do dalszej analizy, Zapytanie bazowe powstaje ze słów pytania (niekonstrukcyjnych): 1. Zawężanie zapytania przez usuwanie słów: np. według częstości, kolejności,części mowy, rozpoznanych bytów nazwanych, 2. Rozszerzanie poprzez dodawanie nowych słów: np. odmiany, pochodnych, synonimów. 30 of 39

Rozwiązanie w RAFELu 1/2 Podstawowa to zapytanie OR z przynajmniej jednym dopasowaniem: Która znana Polka została pochowana w Panteonie w Paryżu? (znana polka została pochowana w panteonie w paryżu) 1 Z następującymi wariantami: zapytanie AND jeśli brak wyników, powrót do OR, +znana +polka +została +pochowana +w +panteonie +w +paryżu usuwanie question focus, (została pochowana w panteonie w paryżu) 1 zastąpienie słowa listą synonimów z plwordnetu, (((znany znajomy nieobcy wiadomy) 1) polka ((zostać stać się 2 zmienić się 2 zrobić się 2 pozostać pozostać pozostać) 1) ((pochować pogrzebać poukrywać) 1) w panteon w paryż) 1 31 of 39

Rozwiązanie w RAFELu 2/2 I następującymi rozwiązaniami kwestii bogatej fleksji: pozostawienie form tekstowych, (znana polka została pochowana w panteonie w paryżu) 1 lematyzacja (dostępna dla polskiego w Lucene), (znana polka zostać pochować w panteon w paryż) 1 zapytania rozmyte, rozmycie względne (odległość Levenshteina jest określonym ułamkiem długości słowa), (znana 0.7 polka 0.7 została 0.7 pochowana 0.7 w 0.7 panteonie 0.7 w 0.7 paryżu 0.7) 1 rozmycie bezwględne (stała odległość, niezależna od słowa), (znana 0.4 polka 0.4 została 0.57 pochowana 0.67 w panteonie 0.67 w paryżu 0.5) 1 rozmycie bezwględne z prefiksem (zmiany tylko na końcu słowa). (znana 0.4 polka 0.4 została 0.57 pochowana 0.67 w panteonie 0.67 w 32 of 39 paryżu 0.5) 1

Ocena zapytania Ocena przebiega w następujących krokach: 1. cały korpus Wikipedii zindeksowany przez Lucene 3.6, 2. dla 1057 pytań wskazano ręcznie artykuł zawierający odpowiedź, 3. pytanie poddane analizie przez najlepszy klasyfikator, 4. następnie zapytanie utworzone przez dany generator jest przesyłane do Lucene, 5. otrzymana lista 100 najlepszych (wg. Lucene) konfrontowana jest z sugerowanym źródłem odpowiedzi: 5.1 sprawdzana jest jego obecność na liście, 5.2 jak również pozycja w rankingu. UWAGA: W większości wypadków zapewne istnieje więcej niż jedno źródło danej odpowiedzi. 33 of 39

Wyniki generatorów Dopasowanie Zapytanie Dokładne Lematyzacja Rozmyte proste 69.97% 80.08% 82.19% zapytanie OR 14.32 12.90 12.36 najpierw 57.94% 57.07% 34.84% zapytanie AND 11.36 8.80 7.07 z usuniętym 62.75% 71.99% 73.34% question focus 14.65 14.00 12.84 z synonimami 47.06% 65.64% 58.71% 21.42 15.47 16.00 Dla każdej kombinacji podano pokrycie (udział pytań, dla których zwrócono oczekiwany dokument) oraz średnią pozycję artykułu na liście (tam, gdzie znalazł się on w pierwszej setce). 34 of 39

Wyniki rozmycie Pokrycie w zależności od typu rozmycia (względne, bezwzględne, bezwzględne z stałym prefiksem) i jego stopnia. Dla przedstawienia na jednym wykresie wyników względnych i bezwzględnych do przeliczenia wzięto długość słowa równą 10. 35 of 39

Podsumowanie Dotychczasowe wyniki: opracowane środowisko testowe umożliwiło ocenę wyników, klasyfikator pytań bazujący na wzorcach i WordNecie osiągnął zadowalającą precyzję, najprostszy generator zapytań jest zarazem najlepszy, zamiast słabej lematyzacji lepiej zastosować rozmyte zapytania. Do wykonania: konfrontacja rozpoznanych typów bytów nazwanych z możliwościami narzędzi NER, metoda oceny zdania jako odpowiedzi, zmierzenie się z problemem bytów nienazwanych, procedura ekstrakcji odpowiedzi, ewaluacja systemu jako całości. 36 of 39

Literatura (1) H. T. Dang, D. Kelly, and J. Lin. Overview of the TREC 2007 Question Answering track. In Proceedings of The Sixteenth Text REtrieval Conference, TREC 2007, 2007. F. Duclaye, F. Yvon, and O. Collin. Learning paraphrases to improve a question-answering system. In Proceedings of the 10th Conference of EACL Workshop Natural Language Processing for Question-Answering, 2003. S. Hartrumpf. Question Answering using Sentence Parsing and Semantic Network Matching. In Proceedings of the 5th conference on Cross-Language Evaluation Forum: Multilingual Information Access for Text, Speech and Images CLEF 04ultilingual Information Access for Text, Speech and Images CLEF 04, pages 512 521, 2004. D. Hook. Study of Search Engine Transaction Logs Shows Little Change in How Users use Search Engines. Evidence Based Library and Information Practice, 1(3):88 94, 2006. A. Ittycheriah. A statistical approach for open domain question answering. In T. Strzalkowski and S. M. Harabagiu, editors, Advances in Open Domain Question Answering (Text, Speech and Language Technology), volume 32 of Text, Speech and Language Technology, pages 35 69. Springer Netherlands, 2007. 37 of 39

Literatura (2) 38 of 39 M. Karzewski. Jeden z dziesięciu - pytania i odpowiedzi. Muza SA, 1997. D. Piechociński and A. Mykowiecka. Question answering in Polish using shallow parsing. In R. Garabík, editor, Computer Treatment of Slavic and East European Languages: Proceedings of the Third International Seminar, Bratislava, Slovakia, pages 167 173. VEDA: Vydava- tel stvo Slovenskej akadéme vied, 2005. S. C. Shapiro. Encyclopedia of Artificial Intelligence. John Wiley & Sons, Inc., New York, 1992. M. M. Soubbotin and S. M. Soubbotin. Use of patterns for detection of answer strings: A systematic approach. In Proceedings of The Eleventh Text REtrieval Conference (TREC 2002), volume 11, 2002. M. Walas. How to answer yes/no spatial questions using qualitative reasoning? In A. Gelbukh, editor, 13th International Conference on Computational Linguistics and Intelligent Text Processing, pages 330 341, 2012. Yandex.ru. Report on Yandex.ru queries. Technical report, 2010.

39 of 39?