Machine learning Lecture 6

Podobne dokumenty
Uczenie maszynowe w zastosowaniu do fizyki cząstek

Machine learning Lecture 5

Pakiet ROOT. prosty generator Monte Carlo. Maciej Trzebiński. Instytut Fizyki Jądrowej Polskiej Akademii Nauki

Dariusz Brzeziński Instytut Informatyki, Politechnika Poznańska

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Deep Learning na przykładzie Deep Belief Networks

Optymalizacja kryteriów selekcji dla rozpadu Λ+c pμ+μza pomocą wielowymiarowej analizy danych

Prof. Stanisław Jankowski

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

Rafał Staszewski. Praktyki studenckie Laboratorium Fizyki Cząstek Elementarnych 7 lipca 2017, IFJ PAN

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

SPOTKANIE 2: Wprowadzenie cz. I

Technologie cyfrowe semestr letni 2018/2019

Wybór / ocena atrybutów na podstawie oceny jakości działania wybranego klasyfikatora.

Systemy agentowe. Sieci neuronowe. Jędrzej Potoniec

Machine learning Lecture 2

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec

Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta

NEURAL NETWORK ) FANN jest biblioteką implementującą SSN, którą moŝna wykorzystać. w C, C++, PHP, Pythonie, Delphi a nawet w środowisku. Mathematica.

Wprowadzenie do sieci neuronowych i zagadnień deep learning

TEORETYCZNE PODSTAWY INFORMATYKI

Projekt Sieci neuronowe

Machine learning Lecture 4







Detekcja punktów zainteresowania

Metody klasyfikacji danych - część 1 p.1/24

Automatyczna predykcja. Materiały/konsultacje. Co to jest uczenie maszynowe? Przykład 6/10/2013. Google Prediction API, maj 2010

Wstęp do głębokich sieci neuronowych. Paweł Morawiecki IPI PAN

Narzędzia geoprzestrzenne Business Intelligence (BI)

Widzenie komputerowe (computer vision)

Rozpoznawanie obiektów z użyciem znaczników

Rozpoznawanie obrazów

8. Drzewa decyzyjne, bagging, boosting i lasy losowe

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

HAŁASU Z UWZGLĘDNIENIEM ZJAWISK O CHARAKTERZE NIELINIOWYM

Podstawy sztucznej inteligencji

Lekcja 5: Sieć Kohonena i sieć ART

Pracownia Eksploatacji Urządzeń i Systemów Mechatronicznych

Sieć przesyłająca żetony CP (counter propagation)

Diagnostyka obrazowa

KATEDRA SYSTEMÓW MULTIMEDIALNYCH. Inteligentne systemy decyzyjne. Ćwiczenie nr 12:

Prognozowanie kierunku ruchu indeksów giełdowych na podstawie danych historycznych.

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

R o g e r A c c e s s C o n t r o l S y s t e m 5

Python : podstawy nauki o danych / Alberto Boschetti, Luca Massaron. Gliwice, cop Spis treści

Oprogramowanie Systemów Obrazowania SIECI NEURONOWE

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Zastosowania sieci neuronowych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Scenariusz lekcji opartej na programie Program nauczania informatyki w gimnazjum DKW /99

Optymalizacja optymalizacji

Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3

Elementy modelowania matematycznego

Metody Sztucznej Inteligencji II

Cel ćwiczenia: Nabycie umiejętności poruszania się w przestrzeni programu Kuka.Sim Pro oraz zapoznanie się z biblioteką gotowych modeli programu.

Ćwiczenie 1 Automatyczna animacja ruchu

Wstęp do przetwarzania języka naturalnego. Wykład 13 Podsumowanie i spojrzenie w przyszłość

Sztuczna inteligencja

SZTUCZNA INTELIGENCJA

Laboratorium - Używanie programu Wireshark do obserwacji mechanizmu uzgodnienia trójetapowego TCP

Syste t m e y m ek e s k per pe to t w o e w Wykład 8 1

Automatyzacja i robotyzacja procesów technologicznych

Rozpoznawanie obrazów

Zastosowania sieci neuronowych

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

2. Empiryczna wersja klasyfikatora bayesowskiego

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Bozon Higgsa prawda czy kolejny fakt prasowy?

Widzenie komputerowe

a) Tworzymy podcast w programie Audacity

Metody systemowe i decyzyjne w informatyce

Inteligentne systemy przeciw atakom sieciowym

Fizyka cząstek elementarnych warsztaty popularnonaukowe

Analiza ilościowa w przetwarzaniu równoległym

Przykładowa analiza danych

Ćwiczenie 1 Wyznaczanie prawidłowej orientacji zdjęcia słonecznej fotosfery, wykonanego teleskopem TAD Gloria.

ALGORYTM RANDOM FOREST

mmontaż oprogramowanie do zarządzania produkcją, montażem wyrobów

Multimedialne Systemy Medyczne

Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych

2. Zarys metody SIFT (Scale Invariant Feature Transform)

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład I dr inż. 2015/2016

Fotografia cyfrowa obsługa programu GIMP. Cz. 18. Tworzenie ramki do zdjęcia. materiały dla osób prowadzących zajęcia komputerowe w bibliotekach

Michał Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (3)

OpenAI Gym. Adam Szczepaniak, Kamil Walkowiak

Badacze zbudowali wiele systemów technicznych, naśladujących w komputerze ludzki mózg. Najbardziej pożyteczne okazały się sieci neuronowe.

i ruchów użytkownika komputera za i pozycjonujący oczy cyberagenta internetowego na oczach i akcjach użytkownika Promotor: dr Adrian Horzyk

Metody systemowe i decyzyjne w informatyce

Relacja: III Seminarium Naukowe "Inżynierskie zastosowania technologii informatycznych"

Profesjonalny monitor CCTV INSTRUKCJA OBSŁUGI LA19DA0N-D / LA22DA0N-D

ZADANIE.03 Routing dynamiczny i statyczny (OSPF, trasa domyślna) 1,5h

Uczenie sieci typu MLP

Pattern Classification

Uczenie sieci neuronowych i bayesowskich

1. Wcześniejsze eksperymenty 2. Podstawowe pojęcia 3. Przypomnienie budowy detektora ATLAS 4. Rozpady bozonów W i Z 5. Tło 6. Detekcja sygnału 7.

Transkrypt:

Machine learning Lecture 6 Marcin Wolter IFJ PAN 11 maja 2017 Deep learning Convolution network Zastosowanie do poszukiwań bozonu Higgsa 1

Deep learning Poszczególne warstwy ukryte uczą się rozpoznawania cech - od najprostszych do coraz bardziej złożonych. 1 5 10 15 20 25 1 Duża waga Mała waga Wysyła silny sygnał, jeśli znajdzie ciemny obszar w lewym górnym rogu. 2

Warstwy trenowane są sekwencyjnie Trenuj tę warstwę Potem ta Potem ta Potem ta Na koniec ta 3

Deep Neural Network działa mniej więcej tak... 4

Convolutional NN Rozpoznawanie obrazu Jak rozwiązać ten problem i uprościć sieć NN? 5

Convolutional NN Połączyć tylko lokalne obszary, np. 10x10 pikseli Duża redukcja liczby parametrów! Tych samych cech można poszukiwać w różnych miejscach => wytrenujmy wiele różnych filtrów cech i przesuwajmy je po obrazie. 6

Pooling Pooling (przeważnie max pooling) polega na zastępowaniu odpowiedzi sieci dla każdej pozycji np. przez maximum (albo średnią) dla zadanego obszaru: Redukcja danych Mniejsza wrażliwość na położenie danej cechy. 7

8

SIFT - scale-invariant feature transform, algorytm opublikowany w 1999 roku przez Davida Lowe a. 9

10

11

12

13

14

Oprogramowanie Biblioteki ConvNet: Cuda-convnet (Alex Krizhevsky, Google) Caffe (Y. Jia, Berkeley, now Google) Torch7 (Idiap, NYU, NEC) Scikit Learn (scikit-learn.org) również umożliwia użycie ConvNets 15

Kilka własności głębokich sieci http://www.deeplearningbook.org 16

http://www.deeplearningbook.org 17

Deep learning Pięknie skaluje się przy dużej liczbie danych. 18

19

Poszukiwanie bozonu Higgsa (symulowane dane CMS) Zmienne niskiego poziomu 22 zmienne (tu pokazujemy kilka) 20

Poszukiwanie Higgsa Fizycy pracują na dobrze dyskryminujących zmiennych wysokiego poziomu są one zbudowane na podstawie zmiennych niskiego poziomu i nie zawierają żadnych dodatkowych informacji (7 zmiennych). 21

Poszukiwanie Higgsa Dane: 2 600 000 przypadków do nauki, 100 000 do walidacji Deep NN: 5 warstw, po 300 elementów w każdej 22

Podsumowanie Deep NN znalazła cechy umożliwiające znalezienie bozonu Higgsa lepiej, niż fizycy. Może pozwoli to w przyszłości na automatyzację analiz fizycznych? Czyżby groziło nam bezrobocie??? 23

Zadanie zaliczeniowe 24

ATLAS Z tau tau selection Dane: mc12/ztautau.root - sygnał Powheg_ttbar.root - tło Wenu.root - tło Wmunu.root - tło Wtaunu.root - tło Zee.root - tło Zmumu.root Zmienne: - tło preselekcja: if(!( evtsel_is_dilepveto > 0 && evtsel_is_tau > 0 && fabs(evtsel_tau_eta) < 2.47 && evtsel_is_conf_lep_veto == 1 && evtsel_tau_numtrack == 1 && evtsel_lep_pt > 26 && fabs(evtsel_lep_eta) < 2.4 && evtsel_transversemass < 70)) continue; if (!( evtsel_is_oppositesign>0 && evtsel_is_mu>0 && evtsel_is_isolep>0 )) continue; 25

ATLAS Z tau tau selection Zmienne użyte do treningu: evtsel_tau_et evtsel_dphisum evtsel_tau_pi0_n evtsel_transversemass sum_cos_dphi Spectator vis_mass Program: TMVAClassificationMW.C i TMVAClassificationMW.h Wykonuje podstawowy trening. 26

ATLAS Z tau tau selection Zainstalować pakiet root i TMVA Ściągnąć dane i przykładowy program: http://nz14-46.4.ifj.edu.pl/cwiczenieatlas/ Uruchomić przykładowy program: root -l.l TMVAClassificationMW.C++ TMVAClassificationMW t t.loop() Zmodyfikować go: Spróbować zoptymalizować parametry wybranej metody Spróbować usunąć jakieś zmienne a może dodać? Spróbować użyć indywidualnych zmiennych wchodzących w skład np. sum_cos_dphi Użyć wszystkich rodzajów tła użyć wag WeightLumi Zaaplikować wyuczony klasyfikator do danych (data12/muons.physcont.grp14.root), można się wzorować na przykładzie TMVAClassificationApplication dostępnym na stronie TMVA oraz załączonym przykładzie TMVAClassificationApplicationMW.C. 27

ATLAS Z tau tau selection Wykonać tego typu rysunek np. dla masy widzialnej 28

ATLAS Z tau tau selection Cięcia zastosowane w analizie polaryzacji tau pochodzących z rozpadu Z taut tau Czy używając uczenia maszynowego udało nam się poprawić wynik? 29