Logistic Regression. Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech

Wielkość: px
Rozpocząć pokaz od strony:

Download "Logistic Regression. Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech"

Transkrypt

1 Logistic Regression Machine Learning CS5824/ECE5424 Bert Huang Virginia Tech

2 Outline Review conditional probability and classification Linear parameterization and logistic function Gradient descent Other optimization methods Regularization

3 Classification and Conditional Probability Discriminative learning: maximize p(y x) Naive Bayes: learn p(x y) and p(y) Today: parameterize p(y x) and directly learn p(y x)

4 Parameterizing p(y x) p(y x) :=f f : R d! [0, ] f (x) := + exp( w > x)

5 Parameterizing p(y x) p(y x) :=f f : R d! [0, ] f (x) := + exp( w > x)

6 Logistic Function (x) = + exp( x)

7 Logistic Function (x) = + exp( x) lim x! (x) = lim x! + exp( x) = =.0 (0) = + exp( 0) = + = 0.5 lim x! (x) = lim x! + exp( x) = 0.0

8 From Features to Probability f (x) := + exp( w > x)

9 <latexit sha_base64="dvgyh+ritwwzhcoashstxgl2os=">aaadznicjvhdihmxgms/vmr7nyvefembfg6wpmvfcehqvvxksvtrsltbdk0kwbokmg5bvbesc38kf8dn/ae/atheedqvibyghc76tl8mjsrycmpvwvbtxsbt7fvo/eu7+z29h7cgzbhjvmzqcxftyohea8eppwim5zkooxn8frdqz9/4sykru5hkfgbpgmleseoegry+jonz60f/oznb/jtesyxhwvlmd/rfvvwhnuy8hnw6udzjqgd+bads9ejcvwce+bzsiktsfflgy9woyjkxdl+d0untbcurtxeyamzdsnl4u0qvacjqjoz7gxfyeizxhiflkxw9qmwg4gjbgrlevenueuzzvm65n0pfzxcdtzy3wr8zdmjngjjlwk8zfcdjkprfzl2nzlcxf7xsvjvgkzkn6r+dsmbgrmqy4erdnwhje8xafzmg0fccabpwgpkjpdpwgxcdwxguwbyppl/duunoknpbzecvnmohacomqvxcnfvhvd3/lhyv6sofpkanphlazlkivjuimgwraln84ezbjhrrgxauxmy46/7fl62xo0fwin8hzi270sht+fnu8/ldfv42eon3uqhf6jy7re3sceoihn8gtyd9obv2o7dqer5ftw4flechwqsa/gx99hm5</latexit> Likelihood Function y 2 {, +} p w (y x) := ( ( + exp( w > x)) if y =+ ( + exp(+w > x)) if y = ( + exp( w > x)) = + exp( w > x) = + exp( w > x) + exp( w > x) + exp( w > x) = exp( w > x) + exp( w > x) = + exp( w > x) exp( w > x) =(+exp(w > x)) = exp( w > x) + exp( w > x) exp( w > x)

10 <latexit sha_base64="dvgyh+ritwwzhcoashstxgl2os=">aaadznicjvhdihmxgms/vmr7nyvefembfg6wpmvfcehqvvxksvtrsltbdk0kwbokmg5bvbesc38kf8dn/ae/atheedqvibyghc76tl8mjsrycmpvwvbtxsbt7fvo/eu7+z29h7cgzbhjvmzqcxftyohea8eppwim5zkooxn8frdqz9/4sykru5hkfgbpgmleseoegry+jonz60f/oznb/jtesyxhwvlmd/rfvvwhnuy8hnw6udzjqgd+bads9ejcvwce+bzsiktsfflgy9woyjkxdl+d0untbcurtxeyamzdsnl4u0qvacjqjoz7gxfyeizxhiflkxw9qmwg4gjbgrlevenueuzzvm65n0pfzxcdtzy3wr8zdmjngjjlwk8zfcdjkprfzl2nzlcxf7xsvjvgkzkn6r+dsmbgrmqy4erdnwhje8xafzmg0fccabpwgpkjpdpwgxcdwxguwbyppl/duunoknpbzecvnmohacomqvxcnfvhvd3/lhyv6sofpkanphlazlkivjuimgwraln84ezbjhrrgxauxmy46/7fl62xo0fwin8hzi270sht+fnu8/ldfv42eon3uqhf6jy7re3sceoihn8gtyd9obv2o7dqer5ftw4flechwqsa/gx99hm5</latexit> Likelihood Function y 2 {, +} p w (y x) := ( ( + exp( w > x)) if y =+ ( + exp(+w > x)) if y = =(+exp( yw > x)) ny L(w) = ( + exp( y i w > x i )) i= log L(w) = log( + exp( y i w > x i )) i=

11 Likelihood Function log L(w) = log( + exp( y i w > x i )) i= ŵ argmin w i= log( + exp( y i w > x i )) := nll(w) negative log likelihood r w nll = y i x i i= + exp( y i w > x i )

12 <latexit sha_base64="+g8etahcwk5tcp0vtdlfp8jlaxm=">aaadqxicfzhpaxnbfmcn669af6v69diyhlsssksfvrqkxsrthaytznnldjkbhti/lpm3tckwf5x49+6f4e3emyjopiskjfxbmf++n/d4m++lheawwvblk7hx89btot3t+/df/dwuxvn8ynvpafsqlxq5iwllgmu2aa4chzwgezkkthponb89mlzizx6hgwbrtjmle845sat5j2fob7olaltbw/ikpzhwpbmujiodoeul6ex+d6xgxedhulhopzeqy6wpoe7bueorjwyc57oiaecdpd8j+uay8kajgdfatr8lo62m8rsutaevxnphfbywcsqap4jv23fpwuholezy0etfjlmjtxxjhz97z4wzbfxrgjfuaouj0tqfth2mjjdbq6w2r2oqy3+hyqnzm5hjqiibkxr5hqwugdsur4/h3dakyuefoyb7b2caez9m8ataa2kzzf8l9v6cis3lvsbjnthk3ju7bsqq3ful9b4mofqkykau5iyiesqcreumcggtt3ggydccmnbuozxmvk/v8qzyu/9ojqijffyct+9kofftjvhl5vr+fnqjnqisi9bodonfoca0qrz/rd/ql/q4+bv+db8h3y9sgdq8qwsr/pwdnrytya==</latexit> <latexit sha_base64="qh792ymfy03oc8th9ca82zg9k=">aaade3icfzfnixnbeiy749e6fmx6kuxcnkfw4wkircw4eu8rbdzxcjeoadtk2nsh0n3jdkwzs/w7v/wpig30av/xs7scmlglwj65x2qqo6qtjdcyrj+6gsxll+5em3r+vanm7du3+nu3d2prqchtxiy09t5kakdumukog0smbukueknbc8pn3yj0w+ggxbywvm2qrcc7qw0n3xt59rgnxqqqs+h9vtnyqob9yntfmu8vekhf07ne7nlyimmou3rpeymm3v44cjugmyjqry+0czjsdd7he8nlbrq5zm6nordaccusci6h3o5lbwxjmzafkzeakxdjqvlktr96z0izy/3rsbt3tajiyrmfsn2mypi7i2xp/othrv6grivmz8ev0ewjopn5g7jsujr0ouw6ery4youxjfvhv0f5zizj6ee+srltf8lzvmhix3tuwxxymbvwd0dtwkv7v3beyu8sebgkaynvczsvaldv7epwdi0djngucbccixqvs2vn6vy2f+rpk/90qolk94ux48h0znb+ozp7+bu/4tcp88ih0skwfkglwih2rioplivpef5gfwifgufam+nqcgnbbmhlml4ptvgzacrq==</latexit> ŵ r w nll = argmin w i= i= log( + exp( y i w > x i )) := nll(w) + exp( y i w > x i ) r w + exp( y i w > x i ) 0 exp( y i w > x i )y i x i exp( yi w > x i )y i x i r w nll = i= + exp( y i w > x i ) exp( yi w > x i ) + + exp( yi w > x i ) = y i x i = y i x i i= + exp( y i w > x i ) i= + exp( y i w > x i ) r w nll = y i x i = ( p w (y i x i )) y i x i := g i= + exp( y i w > x i ) i=

13 Gradient Descent w t+! w t t g t 2.5 e.g., t = t t = p t t = Image from Murphy Ch. 8

14 Gradient Descent w t+! w t t g t 2.5 e.g., t = t t = p t t = Image from Murphy Ch. 8

15 Line Search t = argmin nll(w g) nll(w g)

16 Line Search 3 exact line searching 2.5 t = argmin nll(w g) nll(w g) Image from Murphy Ch. 8

17

18 Momentum Heavy ball method s t g t + t s t w t w t + t s t Momentum term retains velocity from previous steps Avoids sharp turns

19 Second-Order Optimization Newton s method Approximate function with quadratic and minimize quadratic exactly Requires computing Hessian (matrix of second derivatives) Various approximation methods (e.g., L-BFGS)

20 Regularization ny L(w) =p(w) ( + exp( y i w > x i )) posterior i= p(w) =N 0, I prior log L(w) = 2 w > w + log( + exp( y i w > x i )) neg log posterior i= (regularized nll) r w nll = w y i x i gradient + exp( y i w > x i ) i=

21 Summary Review conditional probability and classification Linear parameterization and logistic function Gradient descent Other optimization methods Regularization

tum.de/fall2018/ in2357

tum.de/fall2018/ in2357 https://piazza.com/ tum.de/fall2018/ in2357 Prof. Daniel Cremers From to Classification Categories of Learning (Rep.) Learning Unsupervised Learning clustering, density estimation Supervised Learning learning

Bardziej szczegółowo

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab

Linear Classification and Logistic Regression. Pascal Fua IC-CVLab Linear Classification and Logistic Regression Pascal Fua IC-CVLab 1 aaagcxicbdtdbtmwfafwdgxlhk8orha31ibqycvkdgpshdqxtwotng2pxtvqujmok1qlky5xllzrnobbediegwcap4votk2kqkf+/y/tnphdschtadu/giv3vtea99cfma8fpx7ytlxx7ckns4sylo3doom7jguhj1hxchmy/irhrlgh67lxb5x3blis8jjqynmedqujiu5zsqqagrx+yjcfpcrydusshmzeluzsg7tttiew5khhcuzm5rv0gn1unw6zl3gbzlpr3liwncyr6aaqinx4wnc/rpg6ix5szd86agoftuu0g/krjxdarph62enthdey3zn/+mi5zknou2ap+tclvhob9sxhwvhaqketnde7geqjp21zvjsfrcnkfhtejoz23vq97elxjlpbtmxpl6qxtl1sgfv1ptpy/yq9mgacrzkgje0hjj2rq7vtywnishnnkzsqekucnlblrarlh8x8szxolrrxkb8n6o4kmo/e7siisnozcfvsedlol60a/j8nmul/gby8mmssrfr2it8lkyxr9dirxxngzthtbaejv

Bardziej szczegółowo

Bayesian graph convolutional neural networks

Bayesian graph convolutional neural networks Bayesian graph convolutional neural networks Mark Coates Collaborators: Soumyasundar Pal, Yingxue Zhang, Deniz Üstebay McGill University, Huawei Noah s Ark Lab February 13, 2019 Montreal 2 / 36 Introduction

Bardziej szczegółowo

Previously on CSCI 4622

Previously on CSCI 4622 More Naïve Bayes aaace3icbvfba9rafj7ew423vr998obg2gpzkojyh4rcx3ys4lafzbjmjifdototmhoilml+hf/mn3+kl+jkdwtr64gbj+8yl2/ywklhsfircg/dvnp33s796mhdr4+fdj4+o3fvywvorkuqe5zzh0oanjakhwe1ra5zhaf5xvgvn35f62rlvtcyxpnm50awundy1hzwi46jbmgprbtrrvidrg4jre4g07kak+picee6xfgiwvfaltorirucni64eeigkqhpegbwaxglabftpyq4gjbls/hw2ci7tr2xj5ddfmfzwtazj6ubmyddgchbzpf88dmrktfonct6vazputos5zakunhfweow5ukcn+puq8m1ulm7kq+d154pokysx4zgxw4nwq6dw+rcozwnhbuu9et/tgld5cgslazuci1yh1q2ynca/u9ais0kukspulds3xxegvtyfycu8iwk1598e0z2xx/g6ef94ehbpo0d9ok9yiowsvfskh1ix2zcbpsdvaxgww7wj4zdn+he2hogm8xz9s+e7/4cuf/ata==

Bardziej szczegółowo

Hard-Margin Support Vector Machines

Hard-Margin Support Vector Machines Hard-Margin Support Vector Machines aaacaxicbzdlssnafiyn9vbjlepk3ay2gicupasvu4iblxuaw2hjmuwn7ddjjmxm1bkcg1/fjqsvt76fo9/gazqfvn8y+pjpozw5vx8zkpvtfxmlhcwl5zxyqrm2vrg5zw3vxmsoezi4ogkr6phieky5crvvjhriqvdom9l2xxftevuwcekj3lktmhghgniauiyutvrwxtvme34a77kbvg73gtygpjsrfati1+xc8c84bvraowbf+uwnipyehcvmkjrdx46vlykhkgykm3ujjdhcyzqkxy0chur6ax5cbg+1m4bbjptjcubuz4kuhvjoql93hkin5hxtav5x6yyqopnsyuneey5ni4keqrxbar5wqaxbik00icyo/iveiyqqvjo1u4fgzj/8f9x67bzmxnurjzmijtlybwfgcdjgfdtajwgcf2dwaj7ac3g1ho1n4814n7wwjgjmf/ys8fenfycuzq==

Bardziej szczegółowo

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 9: Inference in Structured Prediction TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 9: Inference in Structured Prediction 1 intro (1 lecture) Roadmap deep learning for NLP (5 lectures) structured prediction

Bardziej szczegółowo

Maximum A Posteriori Chris Piech CS109, Stanford University

Maximum A Posteriori Chris Piech CS109, Stanford University Maximum A Posteriori Chris Piech CS109, Stanford University Previously in CS109 Game of Estimators Estimators Maximum Likelihood Non spoiler alert: this didn t happen in game of thrones aaab7nicbva9swnbej2lxzf+rs1tfomqm3anghywarvlcoydkjpsbfasjxt7x+6cei78cbslrwz9pxb+gzfjfzr4yodx3gwz84jecoou++0u1ty3nrek26wd3b39g/lhucveqwa8ywiz605adzdc8sykllytae6jqpj2ml6d+e0nro2i1qnoeu5hdkhekbhfk7u7j1lvne/75ypbc+cgq8tlsqvynprlr94gzmneftjjjel6boj+rjukjvm01esntygb0yhvwqpoxi2fzc+dkjordegya1skyvz9pzhryjhjfnjoiolilhsz8t+vm2j47wdcjslyxralwlqsjmnsdziqmjoue0so08lestiiasrqjlsyixjll6+s1kxnc2ve/wwlfpphuyqtoiuqehafdbidbjsbwrie4rxenmr5cd6dj0vrwclnjuepnm8fuskpig==

Bardziej szczegółowo

Gradient Coding using the Stochastic Block Model

Gradient Coding using the Stochastic Block Model Gradient Coding using the Stochastic Block Model Zachary Charles (UW-Madison) Joint work with Dimitris Papailiopoulos (UW-Madison) aaacaxicbvdlssnafj3uv62vqbvbzwarxjsqikaboelgzux7gcaeywtsdp1mwsxeaepd+ctuxcji1r9w5984bbpq1gmxdufcy733bcmjutn2t1fawl5zxsuvvzy2t7z3zn29lkwyguktjywrnqbjwigntuuvi51uebqhjlsdwfxebz8qiwnc79uwjv6mepxgfcoljd88uiox0m1hvlnzwzgowymjn7tjyzertmvpareju5aqkndwzs83thawe64wq1j2httvxo6eopirccxnjekrhqae6wrkuuykl08/gmnjryqwsoqurubu/t2ro1jkyrzozhipvpz3juj/xjdt0ywxu55mina8wxrldkoetukairuekzbubgfb9a0q95fawonqkjoez/7lrdi6trzbcm7pqvwrio4yoarh4aq44bzuwq1ogcba4be8g1fwzjwzl8a78tfrlrnfzd74a+pzb2h+lzm=

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering

Machine Learning for Data Science (CS4786) Lecture 11. Spectral Embedding + Clustering Machine Learning for Data Science (CS4786) Lecture 11 Spectral Embedding + Clustering MOTIVATING EXAMPLE What can you say from this network? MOTIVATING EXAMPLE How about now? THOUGHT EXPERIMENT For each

Bardziej szczegółowo

Inverse problems - Introduction - Probabilistic approach

Inverse problems - Introduction - Probabilistic approach Inverse problems - Introduction - Probabilistic approach Wojciech Dȩbski Instytut Geofizyki PAN debski@igf.edu.pl Wydział Fizyki UW, 13.10.2004 Wydział Fizyki UW Warszawa, 13.10.2004 (1) Plan of the talk

Bardziej szczegółowo

Horseshoe Priors for Bayesian Neural Networks

Horseshoe Priors for Bayesian Neural Networks Horseshoe Priors for Bayesian Neural Networks Soumya Ghosh Jiayu Yao Finale Doshi-Velez IBM Research Harvard Harvard MIT-IBM Watson AI lab 1 aaacbxicbzdlssnafiyn9vbrlepsf4nfqagleue3qtgnywr2am0ik+mkhtqzctmtmyru3pgqblwo4tz3cofbogmz0oopax//oyc55w9irpv2nc+rtlc4tlxsxq2srw9sbtnbo20leoljcwsmzddaijdksuttzug3lgrfasodyhyv1zt3rcoq+k1oy+jfamhpsdhsxvlt/rrewjhfj5aeycsyzqr2fwspirdued+uonvnkvgx3akqofdttz/7a4gtihcngvkq5zqx9jikncwmtcr9rjey4teakp5bjikivgx6xqqegmcaqyhn4xpo3z8tgyqusqpadobbqvlabv5x6yu6ppcyyunee45nh4ujg1rapbi4ojjgzvidcetqdov4hctc2grxmsg48yf/hfzj3tv8c1ptxbzxlmeeoaa14iiz0adxoalaaimh

Bardziej szczegółowo

deep learning for NLP (5 lectures)

deep learning for NLP (5 lectures) TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 6: Finish Transformers; Sequence- to- Sequence Modeling and AJenKon 1 Roadmap intro (1 lecture) deep learning for NLP (5

Bardziej szczegółowo

Learning to find good correspondences

Learning to find good correspondences Learning to find good correspondences K.M. Yi, E. Trulls, Y. Ono, V. Lepetit, M. Salzmann, P. Fua CVPR 2018 (Salt Lake City, UT, USA) Local features matter Keypoints provide us with a robust way to match

Bardziej szczegółowo

reinforcement learning through the optimization lens Benjamin Recht University of California, Berkeley

reinforcement learning through the optimization lens Benjamin Recht University of California, Berkeley reinforcement learning through the optimization lens Benjamin Recht University of California, Berkeley trustable, scalable, predictable Control Theory! Reinforcement Learning is the study of how to use

Bardziej szczegółowo

SPOTKANIE 3: Regresja: Regresja liniowa

SPOTKANIE 3: Regresja: Regresja liniowa Wrocław University of Technology SPOTKANIE 3: Regresja: Regresja liniowa Adam Gonczarek Studenckie Koło Naukowe Estymator adam.gonczarek@pwr.wroc.pl 22.11.2013 Rozkład normalny Rozkład normalny (ang. normal

Bardziej szczegółowo

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 8: Structured PredicCon 2

TTIC 31210: Advanced Natural Language Processing. Kevin Gimpel Spring Lecture 8: Structured PredicCon 2 TTIC 31210: Advanced Natural Language Processing Kevin Gimpel Spring 2019 Lecture 8: Structured PredicCon 2 1 Roadmap intro (1 lecture) deep learning for NLP (5 lectures) structured predic+on (4 lectures)

Bardziej szczegółowo

Neural Networks (The Machine-Learning Kind) BCS 247 March 2019

Neural Networks (The Machine-Learning Kind) BCS 247 March 2019 Neural Networks (The Machine-Learning Kind) BCS 247 March 2019 Neurons http://biomedicalengineering.yolasite.com/neurons.php Networks https://en.wikipedia.org/wiki/network_theory#/media/file:social_network_analysis_visualization.png

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis

Machine Learning for Data Science (CS4786) Lecture11. Random Projections & Canonical Correlation Analysis Machine Learning for Data Science (CS4786) Lecture11 5 Random Projections & Canonical Correlation Analysis The Tall, THE FAT AND THE UGLY n X d The Tall, THE FAT AND THE UGLY d X > n X d n = n d d The

Bardziej szczegółowo

Klasyfikacja naiwny Bayes

Klasyfikacja naiwny Bayes Klasyfikacja naiwny Bayes LABORKA Piotr Ciskowski NAIWNY KLASYFIKATOR BAYESA wyjaśnienie Naiwny klasyfikator Bayesa żródło: Internetowy Podręcznik Statystyki Statsoft dane uczące 2 klasy - prawdopodobieństwo

Bardziej szczegółowo

TTIC 31190: Natural Language Processing

TTIC 31190: Natural Language Processing TTIC 31190: Natural Language Processing Kevin Gimpel Spring 2018 Lecture 17: Machine TranslaDon; SemanDcs Roadmap words, morphology, lexical semandcs text classificadon simple neural methods for NLP language

Bardziej szczegółowo

MATLAB Neural Network Toolbox przegląd

MATLAB Neural Network Toolbox przegląd MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study

Bardziej szczegółowo

Nonlinear data assimilation for ocean applications

Nonlinear data assimilation for ocean applications Nonlinear data assimilation for ocean applications Peter Jan van Leeuwen, Manuel Pulido, Jacob Skauvold, Javier Amezcua, Polly Smith, Met Ades, Mengbin Zhu Comparing observations and models Ensure they

Bardziej szczegółowo

Wprowadzenie do sieci neuronowych i zagadnień deep learning

Wprowadzenie do sieci neuronowych i zagadnień deep learning Wprowadzenie do sieci neuronowych i zagadnień deep learning Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Deep learning Anna Sztyber 1 / 28 Deep learning

Bardziej szczegółowo

Wprowadzenie do uczenia maszynowego. Jakub Tomczak

Wprowadzenie do uczenia maszynowego. Jakub Tomczak Wprowadzenie do uczenia maszynowego Jakub Tomczak 2014 ii Rozdział 1 Pojęcia podstawowe 1.1 Wprowadzenie. Zmienne losowe ˆ Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez

Bardziej szczegółowo

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych

Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych Zrównoleglona optymalizacja stochastyczna na dużych zbiorach danych mgr inż. C. Dendek prof. nzw. dr hab. J. Mańdziuk Politechnika Warszawska, Wydział Matematyki i Nauk Informacyjnych Outline 1 Uczenie

Bardziej szczegółowo

DEFINING REGIONS THAT CONTAIN COMPLEX ASTRONOMICAL STRUCTURES

DEFINING REGIONS THAT CONTAIN COMPLEX ASTRONOMICAL STRUCTURES KATY MCKEOUGH XIAO-LI MENG, VINAY KASHYAP, ANETA SIEMIGINOWSKA, DAVID VAN DYK, SHIHAO YANG, LUIS CAMPOS, DEFINING REGIONS THAT CONTAIN COMPLEX ASTRONOMICAL STRUCTURES INTRODUCTION SCIENTIFIC MOTIVATION

Bardziej szczegółowo

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 4 Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie autor: Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification):

Bardziej szczegółowo

The Lorenz System and Chaos in Nonlinear DEs

The Lorenz System and Chaos in Nonlinear DEs The Lorenz System and Chaos in Nonlinear DEs April 30, 2019 Math 333 p. 71 in Chaos: Making a New Science by James Gleick Adding a dimension adds new possible layers of complexity in the phase space of

Bardziej szczegółowo

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba

Wrocław University of Technology. Uczenie głębokie. Maciej Zięba Wrocław University of Technology Uczenie głębokie Maciej Zięba UCZENIE GŁĘBOKIE (ang. deep learning) = klasa metod uczenia maszynowego, gdzie model ma strukturę hierarchiczną złożoną z wielu nieliniowych

Bardziej szczegółowo

Symmetry and Geometry of Generalized Higgs Sectors

Symmetry and Geometry of Generalized Higgs Sectors Symmetry and Geometry of Generalized Higgs Sectors Ryo Nagai Tohoku University in collaboration with M. Tanabashi (Nagoya U.), Y. Uchida (Nagoya U.), and K. Tsumura (Kyoto U.) PPP2018 @ YITP, Aug. 6-10,

Bardziej szczegółowo

Metody systemowe i decyzyjne w informatyce

Metody systemowe i decyzyjne w informatyce Metody systemowe i decyzyjne w informatyce Laboratorium ZALICZENIE Zadanie nr 3 Rozpoznawanie ręcznie pisanych cyfr autorzy: A. Gonczarek, P. Klukowski, J.M. Tomczak, S. Zaręba, M. Zięba Cel zadania Celem

Bardziej szczegółowo

Wprowadzenie do programu RapidMiner Studio 7.6, część 9 Modele liniowe Michał Bereta

Wprowadzenie do programu RapidMiner Studio 7.6, część 9 Modele liniowe Michał Bereta Wprowadzenie do programu RapidMiner Studio 7.6, część 9 Modele liniowe Michał Bereta www.michalbereta.pl Modele liniowe W programie RapidMiner mamy do dyspozycji kilka dyskryminacyjnych modeli liniowych

Bardziej szczegółowo

Physics-Based Animation 4 Mass-spring systems

Physics-Based Animation 4 Mass-spring systems COL865: Special Topics in Computer Applications Physics-Based Animation 4 Mass-spring systems Particle systems Consider n point masses in R 3 ith particle has mass m i, position x i, velocity v i External

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 7 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout

Machine Learning for Data Science (CS4786) Lecture 24. Differential Privacy and Re-useable Holdout Machine Learning for Data Science (CS4786) Lecture 24 Differential Privacy and Re-useable Holdout Defining Privacy Defining Privacy Dataset + Defining Privacy Dataset + Learning Algorithm Distribution

Bardziej szczegółowo

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna

SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Wrocław University of Technology SPOTKANIE 4: Klasyfikacja: Regresja logistyczna Szymon Zaręba Studenckie Koło Naukowe Estymator 179226@student.pwr.wroc.pl 23.11.2012 Rozkład dwupunktowy i dwumianowy Rozkład

Bardziej szczegółowo

Krzysztof Trajkowski. Przegląd pakietów do optymalizacji nieliniowej

Krzysztof Trajkowski. Przegląd pakietów do optymalizacji nieliniowej Krzysztof Trajkowski Przegląd pakietów do optymalizacji nieliniowej 2012 1. Wprowadzenie W tym opracowaniu będą przedstawione wybrane algorytmy do optymalizacji nieliniowej które są dostępne w środowisku

Bardziej szczegółowo

Machine Learning for Data Science (CS4786) Lecture 8. Kernel PCA & Isomap + TSNE

Machine Learning for Data Science (CS4786) Lecture 8. Kernel PCA & Isomap + TSNE Machie Learig for Data Sciece (CS4786) Lecture 8 Kerel PCA & Isomap + TSNE LINEAR PROJECTIONS X d W = Y K d K Works whe data lies i a low dimesioal liear sub-space KERNEL TRICK ( ) ( ) We have have ice

Bardziej szczegółowo

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej

Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Seminarium Poznań 2016 Predykcja i selekcja zmiennych w klasyfikacji z wieloma etykietami przy użyciu łańcuchów klasyfikatorów i sieci elastycznej Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan

Bardziej szczegółowo

Learning about Language with Normalizing Flows Graham Neubig Language Technologies Institute, Carnegie Mellon University

Learning about Language with Normalizing Flows Graham Neubig Language Technologies Institute, Carnegie Mellon University Learning about Language with Normalizing Flows Graham Neubig Language Technologies Institute, Carnegie Mellon University Chunting Zhou Junxian He Di Wang, Xuezhe Ma, Daniel Spokoyny, Taylor Berg-Kirkpatrick

Bardziej szczegółowo

Materiaªy do zaawans. ekon. Z10

Materiaªy do zaawans. ekon. Z10 Faculty of Economic Sciences, University of Warsaw Warsaw, 23-04-2012 Probit wiczenie 1. Moshe Ben-Akiva and Steven Lerman, Discrete Choice Analysis, Theory and Application to Travel Demand, MIT Press,

Bardziej szczegółowo

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak 1 Wprowadzenie. Zmienne losowe Podczas kursu interesować nas będzie wnioskowanie o rozpatrywanym zjawisku. Poprzez wnioskowanie rozumiemy

Bardziej szczegółowo

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber

Drzewa decyzyjne. Inteligentne Obliczenia. Wydział Mechatroniki Politechniki Warszawskiej. Anna Sztyber Drzewa decyzyjne Inteligentne Obliczenia Wydział Mechatroniki Politechniki Warszawskiej Anna Sztyber INO (IAiR PW) Drzewa decyzyjne Anna Sztyber / Drzewa decyzyjne w podstawowej wersji algorytm klasyfikacji

Bardziej szczegółowo

MONAA: a Tool for Timed Pattern Matching with Automata-Based Acceleration

MONAA: a Tool for Timed Pattern Matching with Automata-Based Acceleration https://github.com/maswag/monaa MONAA: a Tool for Timed Pattern Matching with Automata-Based Acceleration Masaki Waga 1, Ichiro Hasuo 1, and Kohei Suenaga 2 National Institute of Informatics 1 and Kyoto

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Laboratorium Python Zadanie nr 3 Regresja logistyczna autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, M. Zięba, J. Kaczmar Cel zadania Celem zadania jest zaimplementowanie modelu

Bardziej szczegółowo

Arrays -II. Arrays. Outline ECE Cal Poly Pomona Electrical & Computer Engineering. Introduction

Arrays -II. Arrays. Outline ECE Cal Poly Pomona Electrical & Computer Engineering. Introduction ECE 114-9 Arrays -II Dr. Z. Aliyazicioglu Electrical & Computer Engineering Electrical & Computer Engineering 1 Outline Introduction Arrays Declaring and Allocation Arrays Examples Using Arrays Passing

Bardziej szczegółowo

WYKŁAD 2. Problem regresji - modele liniowe

WYKŁAD 2. Problem regresji - modele liniowe Wrocław University of Technology WYKŁAD 2 Problem regresji - modele liniowe Maciej Zięba Politechnika Wrocławska Regresja Regresja (ang. Regression): Dysponujemy obserwacjami z odpowiadającymi im wartościami

Bardziej szczegółowo

3.7 Novelty & Diversity

3.7 Novelty & Diversity 3.7 Novelty & Diversity Redundancy in returned results (e.g., near duplicates) has a negative effect on retrieval effectiveness No benefit in showing relevant yet redundant results Bernstein and Zobel

Bardziej szczegółowo

Stability of Tikhonov Regularization Class 07, March 2003 Alex Rakhlin

Stability of Tikhonov Regularization Class 07, March 2003 Alex Rakhlin Stability of Tikhonov Regularization 9.520 Class 07, March 2003 Alex Rakhlin Plan Review of Stability Bounds Stability of Tikhonov Regularization Algorithms Uniform Stability Review notation: S = {z 1,...,

Bardziej szczegółowo

archivist: Managing Data Analysis Results

archivist: Managing Data Analysis Results archivist: Managing Data Analysis Results https://github.com/pbiecek/archivist Marcin Kosiński 1,2, Przemysław Biecek 2 1 IT Research and Development Grupa Wirtualna Polska 2 Faculty of Mathematics, Informatics

Bardziej szczegółowo

Projekt: Mikro zaprogramowane na sukces!

Projekt: Mikro zaprogramowane na sukces! Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Projekt: Mikro zaprogramowane na sukces! Opis autoryzowanych szkoleń Oracle planowanych do realizacji w ramach

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład II bogumil.konopka@pwr.edu.pl 2017/2018 Określenie rzeczywistej dokładności modelu Zbiór treningowym vs zbiór testowy Zbiór treningowy

Bardziej szczegółowo

Klasyfikacja Support Vector Machines

Klasyfikacja Support Vector Machines Klasyfikacja Support Vector Machines LABORKA Piotr Ciskowski przykład 1 KLASYFIKACJA KWIATKÓW IRYSA przykład 1. klasyfikacja kwiatków irysa (versicolor-virginica) żródło: pomoc MATLABa: http://www.mathworks.com/help/stats/svmclassify.html

Bardziej szczegółowo

Uczenie ze wzmocnieniem

Uczenie ze wzmocnieniem Uczenie ze wzmocnieniem Maria Ganzha Wydział Matematyki i Nauk Informatycznych 2018-2019 Przypomnienia (1) Do tych czas: stan X t u, gdzie u cel aktualizacji: MC : X t G t TD(0) : X y R t+1 + γˆv(x t,

Bardziej szczegółowo

ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL

ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL Read Online and Download Ebook ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA JEZYKOWA) BY DOUGLAS KENT HALL DOWNLOAD EBOOK : ARNOLD. EDUKACJA KULTURYSTY (POLSKA WERSJA Click link bellow and free register

Bardziej szczegółowo

Elementy inteligencji obliczeniowej

Elementy inteligencji obliczeniowej Elementy inteligencji obliczeniowej Paweł Liskowski Institute of Computing Science, Poznań University of Technology 9 October 2018 1 / 19 Perceptron Perceptron (Rosenblatt, 1957) to najprostsza forma sztucznego

Bardziej szczegółowo

Bayesian Phylogenetics

Bayesian Phylogenetics See also 20 & 27 June 2018 at http://phyloseminar.org/recorded.html Bayesian Phylogenetics Workshop on Molecular Evolution Woods Hole, Massachusetts 4 Aug 2019 Paul O. Lewis Department of Ecology & Evolutionary

Bardziej szczegółowo

Counting Rules. Counting operations on n objects. Sort, order matters (perms) Choose k (combinations) Put in r buckets. None Distinct.

Counting Rules. Counting operations on n objects. Sort, order matters (perms) Choose k (combinations) Put in r buckets. None Distinct. Probability Review Counting Rules Counting operations on n objects Sort, order matters (perms) Choose k (combinations) Put in r buckets Distinct n! Some Distinct n! n 1!n 2!... n k Distinct = n! k!(n k)!

Bardziej szczegółowo

Label-Noise Robust Generative Adversarial Networks

Label-Noise Robust Generative Adversarial Networks Label-Noise Robust Generative Adversarial Networks Training data rcgan Noisy labeled Conditioned on clean labels Takuhiro Kaneko1 Yoshitaka Ushiku1 Tatsuya Harada1, 2 1The University of Tokyo 2RIKEN Talk

Bardziej szczegółowo

Supervised Hierarchical Clustering with Exponential Linkage. Nishant Yadav

Supervised Hierarchical Clustering with Exponential Linkage. Nishant Yadav Supervised Hierarchical Clustering with Exponential Linage Nishant Yadav Ari Kobren Nicholas Monath Andrew McCallum At train time, learn A :2 X! Y Supervised Clustering aaab8nicbvdlssnafl2pr1pfvzdugvwvrirdfl147kcfuabymq6aydozslmjvbcp8onc0xc+jxu/bsnbrbaemdgcm69zlntaq36hnftmltfwnzq7xd2dnd2z+ohh61juo1zs2qhnldbgmugqt5chyn9gmxkfgnxbyl/udj6ynv/irpwlyjkspokuojv6/zjgmbkr3cwg1zpx9+zwv4lfbouaa6qx/2homnmjfjbjon5xojbrjryktis08nswidbhrwspjzeyqzspp3dordn1iafsunp190zgymomcwgn84hm2cvf/7xeitf1hgzpmgxxwupcjf5eb3u0ouguuxtyrqzw1wl46jjhrtsxvbgr988ippx9r9yx8ua43boo4ynmapnimpv9cae2hccygoeizxehpqexheny/fampdo7hd5zph3bqvc=

Bardziej szczegółowo

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017

Metody eksploracji danych 2. Metody regresji. Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Metody eksploracji danych 2. Metody regresji Piotr Szwed Katedra Informatyki Stosowanej AGH 2017 Zagadnienie regresji Dane: Zbiór uczący: D = {(x i, y i )} i=1,m Obserwacje: (x i, y i ), wektor cech x

Bardziej szczegółowo

Lecture 20. Fraunhofer Diffraction - Transforms

Lecture 20. Fraunhofer Diffraction - Transforms Lecture 20 Fraunhofer Diffraction - Transforms Fraunhofer Diffraction U P ' &iku 0 2 zz ) e ik PS m A exp ' &iku 0 2 zz ) e ik PS exp ik 2z a [x 2 m % y 2 m ]. m A exp ik 2z a & x m ) 2 % (y 0 & y m )

Bardziej szczegółowo

Towards Stability Analysis of Data Transport Mechanisms: a Fluid Model and an Application

Towards Stability Analysis of Data Transport Mechanisms: a Fluid Model and an Application Towards Stability Analysis of Data Transport Mechanisms: a Fluid Model and an Application Gayane Vardoyan *, C. V. Hollot, Don Towsley* * College of Information and Computer Sciences, Department of Electrical

Bardziej szczegółowo

Model Perturb-and-MAP Uczenie rozkładów Gibbsa

Model Perturb-and-MAP Uczenie rozkładów Gibbsa Model Perturb-and-MAP Uczenie rozkładów Gibbsa Jakub M. Tomczak Instytut Informatyki Politechnika Wrocławska jakub.tomczak@pwr.wroc.pl 27 VI 2014 Wstęp Papandreou G., Perturb-and-MAP Random Fields, NIPS

Bardziej szczegółowo

Entropia Renyi ego, estymacja gęstości i klasyfikacja

Entropia Renyi ego, estymacja gęstości i klasyfikacja Entropia Renyi ego, estymacja gęstości i klasyfikacja Wojciech Czarnecki Jacek Tabor 6 lutego 2014 1 / Wojciech Czarnecki, Jacek Tabor Renyi s Multithreshold Linear Classifier 1/36 36 2 / Wojciech Czarnecki,

Bardziej szczegółowo

Trening: Modyfikacja potencjału elektrycznego rejestrowanego na powierzchni skóry, a pochodzącego od aktywności neuronów kory mózgowej (protokół)

Trening: Modyfikacja potencjału elektrycznego rejestrowanego na powierzchni skóry, a pochodzącego od aktywności neuronów kory mózgowej (protokół) Neurofeedback-EEG Metoda terapeutyczna polegająca na podawaniu pacjentowi sygnałów zwrotnych o zmianach stanu aktywności elektrycznej mózgu, dzięki czemu może on nauczyć się świadomie modyfikować funkcje,

Bardziej szczegółowo

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec

Systemy agentowe. Uczenie ze wzmocnieniem. Jędrzej Potoniec Systemy agentowe Uczenie ze wzmocnieniem Jędrzej Potoniec Uczenie ze wzmocnieniem (ang. Reinforcement learning) dane Środowisko, w którym można wykonywać pewne akcje, które są nagradzane lub karane, ale

Bardziej szczegółowo

Tuber radio BT MA407. Instrukcja obsługi User s Manual

Tuber radio BT MA407. Instrukcja obsługi User s Manual Tuber radio BT MA407 Instrukcja obsługi User s Manual User s Manual MA407 INSTRUCTIONS...4 BASIC...4 TROUBLESHOOTING...5 DATA TRANSFERRING / CHARGING VIA USB CABLE...5 INTERFACES...5 SPECIFICATIONS...6

Bardziej szczegółowo

Efficient data transmission over dynamical complex networks. Giacomo Baggio Virginia Rutten Guillaume Hennequin Sandro Zampieri

Efficient data transmission over dynamical complex networks. Giacomo Baggio Virginia Rutten Guillaume Hennequin Sandro Zampieri Efficient data transmission over dynamical complex networks Giacomo Baggio Virginia Rutten Guillaume Hennequin Sandro Zampieri Richly structured transients in M Motor cortex dynamics: fromet al, Neuro

Bardziej szczegółowo

Probabilistic Methods and Statistics. Computer Science 1 st degree (1st degree / 2nd degree) General (general / practical)

Probabilistic Methods and Statistics. Computer Science 1 st degree (1st degree / 2nd degree) General (general / practical) MODULE DESCRIPTION Module code Module name Metody probabilistyczne i statystyka Module name in English Probabilistic Methods and Statistics Valid from academic year 2012/2013 MODULE PLACEMENT IN THE SYLLABUS

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2

Bardziej szczegółowo

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA

STRATEGIA DOBORU PARAMETRÓW SIECI NEURONOWEJ W ROZPOZNAWANIU PISMA ZESZYTY NAUKOWE POLITECHNIKI ŚLĄSKIEJ 2016 Seria: ORGANIZACJA I ZARZĄDZANIE z. 96 Nr kol. 1963 Wiktor WALENTYNOWICZ wiktorwalentynowicz@hotmail.com Ireneusz J. JÓŹWIAK Politechnika Wrocławska Wydział Informatyki

Bardziej szczegółowo

Selekcja zmiennych w klasyfikacji z wieloma etykietami

Selekcja zmiennych w klasyfikacji z wieloma etykietami Seminarium IPIPAN, Maj 2016 Selekcja zmiennych w klasyfikacji z wieloma etykietami Paweł Teisseyre Instytut Podstaw Informatyki PAN Plan prezentacji Klasyfikacja z wieloma etykietami. Selekcja zmiennych

Bardziej szczegółowo

Šukasz Zaniewicz. Support Vector Machines for Uplift Modeling. PhD dissertation. Supervisor: dr hab. in». Szymon Jaroszewicz

Šukasz Zaniewicz. Support Vector Machines for Uplift Modeling. PhD dissertation. Supervisor: dr hab. in». Szymon Jaroszewicz Šukasz Zaniewicz Support Vector Machines for Uplift Modeling PhD dissertation Supervisor: dr hab. in». Szymon Jaroszewicz Institute of Computer Science Polish Academy of Sciences Warsaw, January 2018 Research

Bardziej szczegółowo

Z-ZIP Równania Różniczkowe. Differential Equations

Z-ZIP Równania Różniczkowe. Differential Equations MODULE DESCRIPTION Module code Z-ZIP-1002 Module name Równania Różniczkowe Module name in English Differential Equations Valid from academic year 2016/2017 A. MODULE PLACEMENT IN THE SYLLABUS Field of

Bardziej szczegółowo

Nonconvex Variance Reduced Optimization with Arbitrary Sampling

Nonconvex Variance Reduced Optimization with Arbitrary Sampling Nonconvex Variance Reduced Optimization with Arbitrary Sampling Samuel Horváth Peter Richtárik Empirical Risk Minimization nx min x2r d f(x) := 1 n i=1 f i (x) Empirical Risk Minimization nx min x2r d

Bardziej szczegółowo

TSBB15 Computer Vision

TSBB15 Computer Vision TSBB15 Computer Vision Lecture 10 Recap. of TSBB06, Maximum Likelihood and RANSAC!1 Prelude to Project 2 Image credit: Bundler home page http://www.cs.cornell.edu/~snavely/bundler/ Project 2: Start with

Bardziej szczegółowo

Zastosowanie uogólnionych modeli liniowych i uogólnionych mieszanych modeli liniowych do analizy danych dotyczacych występowania zębiniaków

Zastosowanie uogólnionych modeli liniowych i uogólnionych mieszanych modeli liniowych do analizy danych dotyczacych występowania zębiniaków Zastosowanie uogólnionych modeli liniowych i uogólnionych mieszanych modeli liniowych do analizy danych dotyczacych występowania zębiniaków Wojciech Niemiro, Jacek Tomczyk i Marta Zalewska Uniwersytet

Bardziej szczegółowo

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład III 2016/2017 Systemy pomiarowo-diagnostyczne Metody uczenia maszynowego wykład III bogumil.konopka@pwr.edu.pl 2016/2017 Wykład III - plan Regresja logistyczna Ocena skuteczności klasyfikacji Macierze pomyłek Krzywe

Bardziej szczegółowo

TRANSCOMP XIV INTERNATIONAL CONFERENCE COMPUTER SYSTEMS AIDED SCIENCE, INDUSTRY AND TRANSPORT

TRANSCOMP XIV INTERNATIONAL CONFERENCE COMPUTER SYSTEMS AIDED SCIENCE, INDUSTRY AND TRANSPORT TRANSCOMP XIV INTERNATIONAL CONFERENCE COMPUTER SYSTEMS AIDED SCIENCE, INDUSTRY AND TRANSPORT Roman KRÓL 1 Metoda dystorsji wirtualnych, MES, algorytm Levenberga-Marquardta optymalizacja,konstrukcje kratownicowe

Bardziej szczegółowo

Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac

Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac Kombinacja jądrowych estymatorów gęstości w klasyfikacji kontynuacja prac Mateusz Kobos, 25.03.2009 Seminarium Metody Inteligencji Obliczeniowej 1/26 Spis treści Opis algorytmu Testy wersji z optymalizacją

Bardziej szczegółowo

Paired and unpaired image translation with GANs

Paired and unpaired image translation with GANs Paired and unpaired image translation with GANs Phillip Isola, MIT 6/16/19 [Cartoon: The Computer as a Communication Device, Licklider & Taylor 1968] Image-to-Image Translation Apple 苹果 Apfel Pomme Image-to-Image

Bardziej szczegółowo

Rozpoznawanie obrazów

Rozpoznawanie obrazów Rozpoznawanie obrazów Ćwiczenia lista zadań nr 5 autorzy: A. Gonczarek, J.M. Tomczak Przykładowe problemy Klasyfikacja binarna Dla obrazu x zaproponowano dwie cechy φ(x) = (φ 1 (x) φ 2 (x)) T. Na obrazie

Bardziej szczegółowo

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING

METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING UCZENIE GŁĘBOKIE I GŁĘBOKIE SIECI NEURONOWE DEEP LEARNING AND DEEP NEURAL NETWORKS Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki,

Bardziej szczegółowo

Machine learning techniques for sidechannel. Annelie Heuser

Machine learning techniques for sidechannel. Annelie Heuser Machine learning techniques for sidechannel analysis Annelie Heuser Outline Side-channel analysis and its terminology Dictionary: Side-channel to Machine learning When can machine learning be helpful?

Bardziej szczegółowo

THE RATE OF GW CAPTURE OF STELLAR-MASS BHS IN NUCLEAR STAR CLUSTERS. Alexander Rasskazov & Bence Kocsis Eotvos University

THE RATE OF GW CAPTURE OF STELLAR-MASS BHS IN NUCLEAR STAR CLUSTERS. Alexander Rasskazov & Bence Kocsis Eotvos University THE RATE OF GW CAPTURE OF STELLAR-MASS BHS IN NUCLEAR STAR CLUSTERS Alexander Rasskazov & Bence Kocsis Eotvos University Merger rate density of events with e>0.1 in the LIGO band (>10 Hz), Gpc -3 yr -1

Bardziej szczegółowo

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej Porównanie modeli logicznej regresji z klasycznymi modelami regresji liniowej i logistycznej Instytut Matematyczny, Uniwersytet Wrocławski Małgorzata Bogdan Instytut Matematyki i Informatyki, Politechnika

Bardziej szczegółowo

OpenPoland.net API Documentation

OpenPoland.net API Documentation OpenPoland.net API Documentation Release 1.0 Michał Gryczka July 11, 2014 Contents 1 REST API tokens: 3 1.1 How to get a token............................................ 3 2 REST API : search for assets

Bardziej szczegółowo

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne Wrocław University of Technology WYKŁAD 3 Klasyfikacja: modele probabilistyczne Maciej Zięba Politechnika Wrocławska Klasyfikacja Klasyfikacja (ang. Classification): Dysponujemy obserwacjami z etykietami

Bardziej szczegółowo

Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski

Przegląd metod optymalizacji numerycznej. Krzysztof Malczewski Przegląd metod optymalizacji numerycznej Krzyszto Malczewski Numeryczne metody optymalizacji Deterministyczne (klasyczne) * bez ograniczeń: - bezgradientowe: + simpleks Neldera-Meada, + spadku względem

Bardziej szczegółowo

Probability definition

Probability definition Probability Probability definition Probability of an event P(A) denotes the frequency of it s occurrence in a long (infinite) series of repeats P( A) = A Ω Ω A 0 P It s s represented by a number in the

Bardziej szczegółowo

Sztuczna inteligencja przyszłość czy. teraźniejszość? Emil Dąbrowski

Sztuczna inteligencja przyszłość czy. teraźniejszość? Emil Dąbrowski Sztuczna inteligencja przyszłość czy teraźniejszość? Emil Dąbrowski emil.dabrowski@itexpertgroup.eu 13.10.2016 Materiały dodatkowe Materiały na Meetup: http://www.emildabrowski.pl Meetup Lub https://sites.google.com/emildabrowski.pl/www/meetup

Bardziej szczegółowo

Barbara Adamczyk. Dzieci ulicy. w Polsce i na świecie. Definicja. typologia etiologia

Barbara Adamczyk. Dzieci ulicy. w Polsce i na świecie. Definicja. typologia etiologia Barbara Adamczyk Dzieci ulicy w Polsce i na świecie Definicja typologia etiologia Akademia Ignatianum Wydawnictwo WAM Kraków 2015 Spis treści Wstęp 13 Rozdział 1 Pojęciowe i kategorialne ustalenia fenomenu

Bardziej szczegółowo

Algorytm FIREFLY. Michał Romanowicz Piotr Wasilewski

Algorytm FIREFLY. Michał Romanowicz Piotr Wasilewski Algorytm FIREFLY Michał Romanowicz Piotr Wasilewski Struktura prezentacji 1. Twórca algorytmu 2. Inspiracja w przyrodzie 3. Algorytm 4. Zastosowania algorytmu 5. Krytyka algorytmu 6. Porównanie z PSO Twórca

Bardziej szczegółowo

Formularz recenzji magazynu. Journal of Corporate Responsibility and Leadership Review Form

Formularz recenzji magazynu. Journal of Corporate Responsibility and Leadership Review Form Formularz recenzji magazynu Review Form Identyfikator magazynu/ Journal identification number: Tytuł artykułu/ Paper title: Recenzent/ Reviewer: (imię i nazwisko, stopień naukowy/name and surname, academic

Bardziej szczegółowo

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE Joanna Sawicka Plan prezentacji Model Poissona-Gamma ze składnikiem regresyjnym Konstrukcja optymalnego systemu Bonus- Malus Estymacja

Bardziej szczegółowo

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE.

Wstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka ADALINE. Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka ADALINE. Maja Czoków, Jarosław Piersa, Andrzej Rutkowski Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 218-1-15/22 Projekt pn.

Bardziej szczegółowo

WYKORZYSTANIE MODELU LOGITOWEGO DO ANALIZY BEZROBOCIA WŚRÓD OSÓB NIEPEŁNOSPRAWNYCH W POLSCE W 2010 ROKU

WYKORZYSTANIE MODELU LOGITOWEGO DO ANALIZY BEZROBOCIA WŚRÓD OSÓB NIEPEŁNOSPRAWNYCH W POLSCE W 2010 ROKU STUDIA I PRACE WYDZIAŁU NAUK EKONOMICZNYCH I ZARZĄDZANIA NR 31 Beata Bieszk-Stolorz Uniwersytet Szczeciński WYKORZYSTANIE MODELU LOGITOWEGO DO ANALIZY BEZROBOCIA WŚRÓD OSÓB NIEPEŁNOSPRAWNYCH W POLSCE W

Bardziej szczegółowo

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska

WYKŁAD 2 i 3. Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne. autor: Maciej Zięba. Politechnika Wrocławska Wrocław University of Technology WYKŁAD 2 i 3 Podstawowe pojęcia związane z prawdopodobieństwem. Podstawy teoretyczne autor: Maciej Zięba Politechnika Wrocławska Pojęcie prawdopodobieństwa Prawdopodobieństwo

Bardziej szczegółowo

Lecture 18 Review for Exam 1

Lecture 18 Review for Exam 1 Spring, 2019 ME 323 Mechanics of Materials Lecture 18 Review for Exam 1 Reading assignment: HW1-HW5 News: Ready for the exam? Instructor: Prof. Marcial Gonzalez Announcements Exam 1 - Wednesday February

Bardziej szczegółowo