Wstęp do przetwarzania języka naturalnego. Wykład 13 Podsumowanie i spojrzenie w przyszłość

Podobne dokumenty
Sieci neuronowe i algorytmy uczenia Czyli co i jak andrzej.rusiecki.staff.iiar.pwr.wroc.pl s.

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

KARTA MODUŁU KSZTAŁCENIA

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Kurs MATURA Z INFORMATYKI

Wstęp do sieci neuronowych laboratorium 01 Organizacja zajęć. Perceptron prosty

Uczenie sieci neuronowych i bayesowskich

Widzenie komputerowe (computer vision)

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Wprowadzenie do teorii systemów ekspertowych

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

O badaniach nad SZTUCZNĄ INTELIGENCJĄ

Wstęp do przetwarzania języka naturalnego. Wykład 11 Maszyna Wektorów Nośnych

Wstęp do przetwarzania języka naturalnego

PRZEWODNIK PO PRZEDMIOCIE

ID1SII4. Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) stacjonarne (stacjonarne / niestacjonarne)

KARTA KURSU. Algorytmy, struktury danych i techniki programowania. Algorithms, Data Structures and Programming Techniques

Analiza danych tekstowych i języka naturalnego

Deep Learning na przykładzie Deep Belief Networks

Techniki uczenia maszynowego nazwa przedmiotu SYLABUS

Efekt kształcenia. Wiedza

Zagadnienia optymalizacji i aproksymacji. Sieci neuronowe.

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

PROGRAM KSZTAŁCENIA DLA STUDIÓW PODYPLOMOWYCH: ZINTEGROWANE NAUCZANIE PRZEDMIOTOWO-JĘZYKOWE (JĘZYK ANGIELSKI)

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2012/2013

Web 3.0 Sieć Pełna Znaczeń (Semantic Web) Perspektywy dla branży motoryzacyjnej i finansowej. Przyjęcie branżowe EurotaxGlass s Polska 10 luty 2012

Zadania. Przygotowanie zbiorów danych. 1. Sposób 1: 2. Sposób 2:

Syste t m e y m ek e s k per pe to t w o e w Wykład 8 1

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

Metody Sztucznej Inteligencji II

EGZAMIN GIMNAZJALNY Z JĘZYKA ANGIELSKIEGO KWIECIEŃ 2013

Programowanie współbieżne Wykład 2. Iwona Kochańska

Festiwal Myśli Abstrakcyjnej, Warszawa, Czy SZTUCZNA INTELIGENCJA potrzebuje FILOZOFII?

BIOCYBERNETYKA PROLOG

Egzaminowanie przez Internet założenia i realizacja systemu teleinformatycznego INSPEKTON Tomasz Popis, Bogdan Galwas OKNO - Politechnika Warszawska

[1] [2] [3] [4] [5] [6] Wiedza

Spis treści. Przedmowa... XI. Wprowadzenie i biologiczne bazy danych. 1 Wprowadzenie Wprowadzenie do biologicznych baz danych...

KARTA PRZEDMIOTU. Techniki przetwarzania sygnałów, D1_3

Zastosowanie metod eksploracji danych (data mining) do sterowania i diagnostyki procesów w przemyśle spożywczym

Machine learning Lecture 6

KARTA PRZEDMIOTU. 1. Informacje ogólne. 2. Ogólna charakterystyka przedmiotu. Metody drążenia danych D1.3

1. Historia 2. Podstawy neurobiologii 3. Definicje i inne kłamstwa 4. Sztuczny neuron i zasady działania SSN. Agenda

Sztuczne sieci neuronowe (SNN)

PROGRAM SZKOLENIA. Excel w Analizach danych.

Pattern Classification

Programowanie komputerów

Prof. Stanisław Jankowski

Zastosowanie sieci neuronowych w problemie klasyfikacji wielokategorialnej. Adam Żychowski

Analiza biznesowa a metody agile owe

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Wyrażenie wewnątrz nawiasów jest atomem (rozpatrujemy je jako całość).

Próbny egzamin z języka rosyjskiego z WSiP w trzeciej klasie gimnazjum. Poziom rozszerzony LUTY Analiza wyników

PRÓBNY WEWNĘTRZNY SPRAWDZIAN SZÓSTOKLASISTÓW z CKE GRUDZIEŃ 2014

KARTA PRZEDMIOTU. 17. Efekty kształcenia:

Analiza wyników egzaminu gimnazjalnego z języka obcego

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Inspiracje kognitywne w procesie analizy pozycji szachowej

Poza sztuczną CTO 15 maj, Watson Warsaw Summit 2017

ZESTAWIENIE I ANALIZA WYNIKÓW EGZAMINU Z JĘZYKA NIEMIECKIEGO UCZNIÓW III KLAS GIMNAZJUM IM. JANA PAWŁA II W BUDZOWIE

STANDARDY ICI DLA ADVANCED FUNDAMENTAL COACHING SKILLS ICI

Optymalizacja ciągła

Zastosowania sieci neuronowych

Elementy inteligencji obliczeniowej

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Inżynieria danych I stopień Praktyczny Studia stacjonarne Wszystkie specjalności Katedra Inżynierii Produkcji Dr Małgorzata Lucińska

Kryteria oceniania języka angielskiego w Szkole Podstawowej nr 16 w Zespole Szkolno-Przedszkolnym nr 1 w Gliwicach

WYNIKI EGZAMINU GIMNAZJALNEGO Z JĘZYKA ANGIELSKIEGO ROK SZKOLNY 2016/2017

PROGRAM SZKOLENIA. Excel Średniozaawansowany z wprowadzeniem do tabel przestawnych i makr.

Przedmiotowy system oceniania z języka angielskiego klasy IV - VI w Szkole Podstawowej nr 29

Słowem wstępu. Część rodziny języków XSL. Standard: W3C XSLT razem XPath 1.0 XSLT Trwają prace nad XSLT 3.0

Podstawy programowania.

Algorytm. Krótka historia algorytmów

Aproksymacja funkcji a regresja symboliczna

Analiza wyników egzaminu gimnazjalnego. Test język obcy nowożytny język angielski (poziom podstawowy) Test GA-P1-122

Sztuczna inteligencja i uczenie maszynowe w robotyce i systemach autonomicznych: AI/ML w robotyce, robotyka w AI/ML

Temat: Sieci neuronowe oraz technologia CUDA

WYKŁAD. Jednostka prowadząca: Wydział Techniczny. Kierunek studiów: Elektronika i telekomunikacja. Nazwa przedmiotu: Język programowania C++

S Y L A B U S P R Z E D M I O T U

Jak zadbać o spójność nauczania matematyki między szkołą podstawową a gimnazjum?

Symbol EKO S2A_W01 S2A_W02, S2A_W03, S2A_W03 S2A_W04 S2A_W05 S2A_W06 S2A_W07 S2A_W08, S2A_W09 S2A_W10

Sztuczna inteligencja stan wiedzy, perspektywy rozwoju i problemy etyczne. Piotr Bilski Instytut Radioelektroniki i Technik Multimedialnych

Diagnostyka procesów przemysłowych Kod przedmiotu

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Elementy kognitywistyki II: Sztuczna inteligencja. WYKŁAD X: Sztuczny neuron

PRZEWODNIK PO PRZEDMIOCIE

Opis efektów kształcenia dla modułu zajęć

Wymagania edukacyjne z informatyki w klasie IIIa gimnazjum

Uczenie sieci radialnych (RBF)

16. CO TU PASUJE CZYLI O DOSTRZEGANIU ZWIĄZKÓW, PODOBIEŃSTW I RÓŻNIC, CZ. II

Wstęp do kognitywistyki. Wykład 3: Logiczny neuron. Rachunek sieci neuronowych

Przedstawiona do recenzji rozprawa doktorska Pana mgra inż. Adama Dudka pt. :

SZTUCZNA INTELIGENCJA

Specjalnościowy Obowiązkowy Polski Semestr VI

Projekt i implementacja systemu wspomagania planowania w języku Prolog

biegle i poprawnie posługuje się terminologią informatyczną,

Podstawy Sztucznej Inteligencji (PSZT)

Transkrypt:

Wstęp do przetwarzania języka naturalnego Wykład 13 Podsumowanie i spojrzenie w przyszłość Wojciech Czarnecki 22 stycznia 2014

Section 1

Zarys kursu Wyrażenia regularne

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER)

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością Skuteczne, liniowe modele dyskryminatywne: MaxEnt, SVM

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością Skuteczne, liniowe modele dyskryminatywne: MaxEnt, SVM Konceptualizacja dokumentów

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością Skuteczne, liniowe modele dyskryminatywne: MaxEnt, SVM Konceptualizacja dokumentów LSA, WordNet, algorytm Lesk

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością Skuteczne, liniowe modele dyskryminatywne: MaxEnt, SVM Konceptualizacja dokumentów LSA, WordNet, algorytm Lesk Wektoryzacja dokumentów, schematy SoW, BoW, TfIdf

Zarys kursu Wyrażenia regularne Podstawowy processing tekstu, tokenizacja, stemming, lematyzacja Reprezentacja Bag of Words i Naive Bayes Statystyczne modele języka, n-gramy Tagowanie sekwencji (POS, NER) Modele sekwencyjne: HMM, MEMM, CRF Różnice pomiędzy generatywnością a dyskryminatywnością Skuteczne, liniowe modele dyskryminatywne: MaxEnt, SVM Konceptualizacja dokumentów LSA, WordNet, algorytm Lesk Wektoryzacja dokumentów, schematy SoW, BoW, TfIdf Zaawansowane funkcje jądra, pozwalające na pracę z dokumentami

NLP Zaczęło się na Turingu

NLP I na nim się kończy

ogólna perspektywa Udało się rozwiązać niektóre problemy POS Sentiment analysis Dla części stworzono zadowalające rozwiązania Machine translation Speech recognition Ale wiele wciąż jest otwartych Language representation Language Understanding

dotąd Przez większość kursu, Państwa zadania można było podsumować w nastepujacy sposób: Zapoznać się z problemem Znaleźć dobre przekształcenie φ przenoszące dokumenty w bardziej zrozumiały dla komputera format Dobrać odpowiedni model i nauczyć go na dostepnych danych

dotąd Przez większość kursu, Państwa zadania można było podsumować w nastepujacy sposób: Zapoznać się z problemem Znaleźć dobre przekształcenie φ przenoszące dokumenty w bardziej zrozumiały dla komputera format Dobrać odpowiedni model i nauczyć go na dostepnych danych

Dobra reprezentacja danych Ten problem jest kluczowy w całym NLP i stanowi olbrzymią bolączkę. Mamy ogromne ilości informacji, a mimo to praca z nimi wymaga ręcznego dobierania często złożonych obiektów na chybił trafił. W dodatku jak tylko dostaniemy nowe zadanie stare podejście możemy wyrzucić do kosza (nie liczac jakieś podstawowej formy i naszego doświadczenia).

Co się teraz dzieje w NLP Google Microsoft Stanford

NLP dziś Większość obecnych rozwiązań ML działa dobrze ze względu na inżynieryjną pracą wielu ludzi (dobre zaprojektowanie cech). Cały proces uczenia to jedynie dobieranie wag do tych cech.

NLP dziś - słowo klucz Representation Learning

NLP dziś - representation learning Zamiast ograniczyć uczenie do etapu podjęcia decyzji, uczmy się również spojrzenia na problem. Spojrzenia na świat.tak jak ludzie. Gdy człowiek ma nauczyć się np. odróżniać pozytywne recenzje od negatywnych: Dostaje nieznany, tajemniczy zbiór symboli s i, oraz równie tajemnicze pojęcia Jo i No i ma zbudować sobie jak najlepszy zbiór zasad które z s i podejmuje decyzję o Jo i No? Uczy się przez wiele lat tego czym jest język, jak się nim posługiwać, czym są sentymenty, i bazując na tej bazowej wiedzy dostraja się do rozwiązywania konkretnego zadania.

NLP dziś - representation learning Dlaczego? Tworzenie reprezentacji jest bardzo czasochłonne (kosztowne) Dla każdego zadania trzeba cały proces powtarzać Zasady stworzone przez człowieka są bardzo wrażliwe na wszelkie zmiany, dynamikę języka i specyfikę konkretnych grup/problemów

NLP dziś - representation learning Zamiast atomicznej reprezentacji w psotaci Bag of Words, czy drzew parsingu - bardziej rozproszone, rozmyte reprezentacje. np. reprezentowanie słowa jako konceptu (tzn. Brown clustering, exchange clustering) Redukcja błędu (dependency parsing) o 15% Redukcja błędu (NER) o 23.7%

NLP dziś - representation learning Ogrom informacji dostepnych dla NLP to dane niepoetykietowane. O ile niektóre algorytmy potrafią je zaadoptować (HMM), o tyle w ogólności systemy NLP bazują w zasadzie wyłącznie na poetykietowanych danych.

NLP dziś - reprezentacja wielopoziomowa Kiedy przyjrzymy się temu jak uczy się człowiek, nie znajdziemy jednego, homogenicznego systemu uczenia, jednego obszaru mózgu pt. składnica wiedzy. Nasz proces uczenia jest wielopoziomowy. Budujemy reprezentację na wielu poziomach abstrakcji. Dla NLP, np.: Pojedyncze kleksy na papierze tworzą linie Linie tworzą znaki (litery) Litery (już jako abstrakcyjne obiekty) tworzą słowa Słowa tworzą zdania Zdania tworzą wypowiedzi Wypowiedzi przenoszą sens, informację, wiedzę, poglądy,...

deep representation

deep representation Idea Kompozycyjność Rekurencja Ta sama operacja aplikowana na coraz wyższych poziomach abstrakcji

deep representation

deep representation - Dlaczego teraz? Mamy o wiele potężniejsze komputery (Postęp technologiczny) Lepiej zrozumieliśmy naturę regularyzacji (Machine Learning Theory) Powstały nowe metody uczenia nienadzorowanego (przede wszystkim prace G.Hinton a 2006)

Typowa reprezentacja Set (Bag) of words representation φ(hotel) = [00000...01000] φ(motel) = [00100...00000] sim(φ(hotel), φ(motel)) = 0

Idea: kontekst Słowa są reprezentowane przez ich kontekst

Statystyczny model języka P(w) = P(w n w 1,..., w n 1 ) Dotąd: model ngramowy Obecnie: uczone modele

Statystyczny model języka Mając duży zbiór tekstu możemy zbudować model tego języka, zdolny do wymodelowania P(w) = P(w n w 1,..., w n 1 ) używając ustalonej liczby M stanów ukrytych podobna koncepcja do Ukrytych Modeli Markowa można wykorzystac tzw. rekurencyjne sieci neuronowe (ciekawostka: mają moc obliczeniową maszyny turinga)

Neuronowy model języka W szczególności: Neural Language Model ( Tomas Mikolov - 2010/2012 )

NLP dziś - słowo klucz Deep Learning

deep learning

deep learning Czym są pojedyncze elementy składowe? sieciami neuronowymi (perceptrony) ograniczonymi maszynami Boltzmanna Modelami Markowa

deep learning

deep learning

Co sie dzieje w Microsofcie http://www.youtube.com/watch?v=nu-nlqqfckg

Przyszłość? Deep learning jest wykorzystywany teraz w:

Przyszłość? Deep learning jest wykorzystywany teraz w: Google Translate Wyszukiwaniu głosowym androida Rozpoznawaniu obrazów wykorzystywanym w Google

Czy na pewno test Turinga to dobry test?

Co dalej? dr Igor Podolak - Sieci Neuronowe Podstawowe architektury neuronowe Podstawowe modele i uczenie nienadzorowane Deep learning

Dziękuję Liczę na szczere komentarze w systemie ankietowym USOS

Egzamin Termin: 4 lutego 2014, godz. 15:00 sala: 0094 Co można mieć ze sobą: długopis i głowę pełną wiedzy Forma egzaminu: Dwa proste zadania otwarte (obliczeniowe) 20 pytań testowych (wielokrotnego wyboru) +1/-1pkt 90 minut (acz można go napisac w połowie tego czasu) Ocena z przedmiotu to średnia (arytmetyczna) oceny z egzaminu i ćwiczeń Trzeba zaliczyć obie części (egzamin i ćwiczenia)