Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni

Podobne dokumenty
Konferencja Statystyka Matematyczna Wisła 2013

Metody klasyfikacji dla nielicznej próbki wektorów o wielkim wymiarze

ESTYMACJA BŁĘDU PREDYKCJI I JEJ ZASTOSOWANIA

Rozpoznawanie obrazów

Mikroekonometria 14. Mikołaj Czajkowski Wiktor Budziński

Natalia Neherbecka. 11 czerwca 2010

Statystyczna analiza danych 1

Techniki Optymalizacji: Stochastyczny spadek wzdłuż gradientu I

Metody systemowe i decyzyjne w informatyce

ZJAZD 4. gdzie E(x) jest wartością oczekiwaną x

Porównanie modeli regresji. klasycznymi modelami regresji liniowej i logistycznej

Testy własności składnika losowego Testy formy funkcyjnej. Diagnostyka modelu. Część 2. Diagnostyka modelu

Drzewa decyzyjne i lasy losowe

Statystyka opisowa. Wykład V. Regresja liniowa wieloraka

Monte Carlo, bootstrap, jacknife

Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Ekonometria. Wprowadzenie do modelowania ekonometrycznego Estymator KMNK. Jakub Mućk. Katedra Ekonomii Ilościowej

Zastosowanie modelu regresji logistycznej w ocenie ryzyka ubezpieczeniowego. Łukasz Kończyk WMS AGH

Metoda najmniejszych kwadratów

Wprowadzenie do analizy korelacji i regresji

Porównanie błędu predykcji dla różnych metod estymacji współczynników w modelu liniowym, scenariusz p bliskie lub większe od n

ALGORYTM RANDOM FOREST

Weryfikacja hipotez statystycznych

Metody klasyfikacji danych - część 1 p.1/24

Stanisław Cichocki. Natalia Nehrebecka

Stosowana Analiza Regresji

Wprowadzenie do teorii ekonometrii. Wykład 1 Warunkowa wartość oczekiwana i odwzorowanie liniowe

Wojciech Skwirz

Opis wykonanych badań naukowych oraz uzyskanych wyników

Rozdział 2: Metoda największej wiarygodności i nieliniowa metoda najmniejszych kwadratów

Regresja liniowa w R Piotr J. Sobczyk

WSTĘP DO REGRESJI LOGISTYCZNEJ. Dr Wioleta Drobik-Czwarno

Ekonometria. Ćwiczenia nr 3. Jakub Mućk. Katedra Ekonomii Ilościowej

METODY STATYSTYCZNE W BIOLOGII

Ekonometria egzamin 02/02/ W trakcie egzaminu wolno używać jedynie długopisu o innym kolorze atramentu niż czerwony oraz kalkulatora.

Systemy pomiarowo-diagnostyczne. Metody uczenia maszynowego wykład II 2017/2018

Optymalizacja ciągła

Wstęp do Metod Systemowych i Decyzyjnych Opracowanie: Jakub Tomczak

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Własności estymatorów regresji porządkowej z karą LASSO

Budowa modelu i testowanie hipotez

Kombinacja jądrowych estymatorów gęstości w klasyfikacji wstępne wyniki

Stanisław Cichocki. Natalia Nehrebecka

METODY INŻYNIERII WIEDZY

Zadanie 1 Zakładając liniową relację między wydatkami na obuwie a dochodem oszacować MNK parametry modelu: y t. X 1 t. Tabela 1.

Testowanie modeli predykcyjnych

Problem równoczesności w MNK

Ćwiczenie 5 PROGNOZOWANIE

Narzędzia statystyczne i ekonometryczne. Wykład 1. dr Paweł Baranowski

3. Modele tendencji czasowej w prognozowaniu

Ekonometria. Prognozowanie ekonometryczne, ocena stabilności oszacowań parametrów strukturalnych. Jakub Mućk. Katedra Ekonomii Ilościowej

JEDNORÓWNANIOWY LINIOWY MODEL EKONOMETRYCZNY

Zastosowanie optymalizacji rojem cząstek (PSO) w procesie uczenia wielowarstwowej sieci neuronowej w problemie lokalizacyjnym, kontynuacja badań

Stosowana Analiza Regresji

Estymacja gęstości prawdopodobieństwa metodą selekcji modelu

Rozpoznawanie obrazów

Szacowanie optymalnego systemu Bonus-Malus przy pomocy Pseudo-MLE. Joanna Sawicka

Testowanie hipotez statystycznych

Estymatory regresji rangowej oparte na metodzie LASSO

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Ekonometryczne modele nieliniowe

Regresja logistyczna (LOGISTIC)

Spis treści Wstęp Estymacja Testowanie. Efekty losowe. Bogumiła Koprowska, Elżbieta Kukla

Metody systemowe i decyzyjne w informatyce

Właściwości testu Jarque-Bera gdy w danych występuje obserwacja nietypowa.

Ekonometria. Modele regresji wielorakiej - dobór zmiennych, szacowanie. Paweł Cibis pawel@cibis.pl. 1 kwietnia 2007

Wykład 4 Wybór najlepszej procedury. Estymacja parametrów re

Wprowadzenie. { 1, jeżeli ˆr(x) > 0, pozatym. Regresja liniowa Regresja logistyczne Jądrowe estymatory gęstości. Metody regresyjne

Metoda najmniejszych kwadratów

STATYSTYKA MAŁYCH OBSZARÓW I. WPROWADZENIE

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Idea. θ = θ 0, Hipoteza statystyczna Obszary krytyczne Błąd pierwszego i drugiego rodzaju p-wartość

SPOTKANIE 2: Wprowadzenie cz. I

Stanisław Cichocki. Natalia Nehrebecka

Hierarchiczna analiza skupień

Ekonometria. Weryfikacja liniowego modelu jednorównaniowego. Jakub Mućk. Katedra Ekonomii Ilościowej

Stosowana Analiza Regresji

Wprowadzenie. Data Science Uczenie się pod nadzorem

Metody oparte na logicznej regresji. zastosowaniu do wykrywania interakcji SNPów

Statystyka i Analiza Danych

Regresyjne metody łączenia klasyfikatorów

Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska

Modelowanie glikemii w procesie insulinoterapii

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji


Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

WIELKA SGH-OWA POWTÓRKA ZE STATYSTYKI REGRESJA LINIOWA

Zależność. przyczynowo-skutkowa, symptomatyczna, pozorna (iluzoryczna),

Metody systemowe i decyzyjne w informatyce

Uogolnione modele liniowe

TEST STATYSTYCZNY. Jeżeli hipotezę zerową odrzucimy na danym poziomie istotności, to odrzucimy ją na każdym większym poziomie istotności.

Edward Sawiłow Analiza dokładności określenia jednostkowej wartości nieruchomości metodą korygowania ceny średniej

Mikroekonometria 5. Mikołaj Czajkowski Wiktor Budziński

Ekonometria egzamin 07/03/2018

Adam Kirpsza Zastosowanie regresji logistycznej w studiach nad Unią Europejska. Anna Stankiewicz Izabela Słomska

Statystyka od podstaw Janina Jóźwiak, Jarosław Podgórski

Ekonometria. Regresja liniowa, współczynnik zmienności, współczynnik korelacji liniowej, współczynnik korelacji wielorakiej

Heteroscedastyczność. Zjawisko heteroscedastyczności Uogólniona Metoda Najmniejszych Kwadratów Stosowalna Metoda Najmniejszych Kwadratów

Quick Launch Manual:

Transkrypt:

Selekcja modelu liniowego i predykcja metodami losowych podprzestrzeni Paweł Teisseyre Instytut Podstaw Informatyki, Polska Akademia Nauk Paweł Teisseyre Selekcja modelu liniowego i predykcja 1 / 29

Plan prezentacji 1 Wysoko-wymiarowy model regresji liniowej. 2 Dwustopniowe procedury wyboru modelu. 3 Metoda Losowych Podprzestrzeni (RSM). 4 Metoda RSM + kryteria informacyjne. Paweł Teisseyre Selekcja modelu liniowego i predykcja 2 / 29

Motywacja Motywacja- modele 1 Regresja liniowa to najpopularniejszy model w sytuacji, gdy zmienna odpowiedzi jest ilościowa. 2 Wybrane obszary zastosowań: bioinformatyka (dane mikro-macierzowe, QTL, GWAS, QSAR), finanse, nauki społeczne i ekonomiczne (modelowanie wskaźników makro i mikro-ekonomicznych), analiza danych tekstowych (przewidywanie cech osób na podstawie wypowiedzi), i wiele innych... Paweł Teisseyre Selekcja modelu liniowego i predykcja 3 / 29

Motywacja Motywacja- wybór modelu Dlaczego selekcja modelu (u nas: pewnego podzbioru zmiennych objaśniających) jest ważna? odkrycie nieznanej zależności funkcyjnej na podstawie dostępnych danych, wybór modelu o dobrych własnościach predykcyjnych, ocena istotności zmiennych objaśniających. Paweł Teisseyre Selekcja modelu liniowego i predykcja 4 / 29

Wysoko-wymiarowy model regresji liniowej. Model regresji liniowej Obiekty opisane parą (x, y), gdzie: y R - zmienna odpowiedzi, x R p - wektor atrybutów. W modelu liniowym zakładamy, że: gdzie: y = x β + ε, β R p jest wektorem parametrów, ε błędem losowym o rozkładzie N(0, σ 2 ). Uwaga: Dopuszczamy sytuację: p n. Paweł Teisseyre Selekcja modelu liniowego i predykcja 5 / 29

Wysoko-wymiarowy model regresji liniowej. Selekcja zmiennych Minimalny model prawdziwy: t := {k : β k 0}, t.j. dla regresji liniowej: minimalny model taki, że E(y x) = x tβ t, gdzie: dolny indeks t oznacza wybór współrzędnych odpowiadających modelowi t. Cel: Identyfikacja zbioru t na podstawie niezależnych obserwacji (x i, y i ), i = 1,..., n. Paweł Teisseyre Selekcja modelu liniowego i predykcja 6 / 29

Dwustopniowe procedury wyboru modelu. Procedury dwustopniowe wyboru modelu 1 Zmienne {1,..., p} są porządkowane wg pewnej miary istotności: W i1 W i2... W ip. 2 Wybieramy model z zagnieżdżonej rodziny: M nested := {{0}, {i 1 }, {i 1, i 2 },..., {i 1,..., i p }} Uwaga: W drugim kroku sprawdzamy p + 1 modeli zamiast 2 p (przy pełnym przeszukiwaniu). Paweł Teisseyre Selekcja modelu liniowego i predykcja 7 / 29

Dwustopniowe procedury wyboru modelu. Procedura Zhenga i Loha dla modelu liniowego 1 Dopasuj model liniowy zawierający wszystkie zmienne 1,..., p. 2 Zmienne {1,..., p} są porządkowane wg kwadratu statystyki T : T 2 i 1 T 2 i 2... T 2 i p. 3 Wybieramy model z zagnieżdżonej rodziny: M nested := {{0}, {i 1 }, {i 1, i 2 },..., {i 1,..., i p }}. Uwagi: Użycie w drugim kroku Bayesowskiego kryterium wybory zmiennych (BIC) prowadzi do zgodnej procedury selekcji. Procedura nie może być zastosowana gdy p n. Paweł Teisseyre Selekcja modelu liniowego i predykcja 8 / 29

Metoda Losowych Podprzestrzeni (RSM). Metoda RSM dla klasyfikacji Metoda zaproponowana w pracy: T. K. Ho, The Random Subspace Method for Constructing Decision Forests, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL. 20, NO. 8, 1998. Budowa komitetu klasyfikatorów na bazie losowo wybranych podzbiorów atrybutów. Efektywne narzędzie w przypadku dużego wymiaru przestrzeni cech. Paweł Teisseyre Selekcja modelu liniowego i predykcja 9 / 29

Metoda Losowych Podprzestrzeni (RSM). Metoda RSM dla modelu liniowego Algorytm RSM 1 Wejście: Dane (Y, X), liczba symulacji B, wielkość podprzestrzeni m < min(p, n). 2 Powtarzaj procedurę dla k = 1,..., B z C i,0 = 0 dla każdego i. Wylosuj zbiór zmiennych m = {i1,..., i m } z przestrzeni cech. Dopasuj model y x m i oblicz wagi w n(i, m ) 0 dla zmiennych i m. Ustaw w n(i, m ) = 0 jeżeli i / m. C i,k = C i,k 1 + I {i m }. 3 Dla wszystkich zmiennych i oblicz końcowe wagi: Wi = 1 w n(i, m ). C i,b m :i m 4 Posortuj zmienne wg końcowych wag W i : W i 1 W i 2... W i p. 5 Wyjście: uporządkowana lista zmiennych {i 1,..., i p}. Paweł Teisseyre Selekcja modelu liniowego i predykcja 10 / 29

Metoda Losowych Podprzestrzeni (RSM). Metoda RSM dla modelu liniowego m << p B random subsets attributes model 1 weights of attributes p attributes m << p attributes model 2 weights of attributes final scores of attributes......... m << p attributes model B weights of attributes Paweł Teisseyre Selekcja modelu liniowego i predykcja 11 / 29

Metoda Losowych Podprzestrzeni (RSM). Czas obliczeń dla p = 1000, n = 100, m = 50. Elapsed time Elapsed time [sec] 0 50 100 150 200 250 300 1 slave 2 slaves 4 slaves 8 slaves 16 slaves 32 slaves 5 6 7 8 9 10 11 log(b) Rysunek : Maszyna:2x Intel(R) Xeon(R) CPU E5-2630L @ 2.00GHz (6 cores, 12 threads) - 24 logical cores in total, 64 GB RAM Paweł Teisseyre Selekcja modelu liniowego i predykcja 12 / 29

Metoda Losowych Podprzestrzeni (RSM). Metoda RSM- wybór wag w n (i, m) Wybór wag: w n (i, m) := T 2 i,m, gdzie T i,m oznacza statystykę T dla zmiennej i, obliczoną na podstawie dowolnego podmodelu m. Zauważmy, że: T 2 i,m n m = (R2 m Rm\{i} 2 ) }{{} istotność zm. i 1 1 Rm 2, }{{} dopasowanie modelu m gdzie R 2 m jest współczynnikiem determinacji dla modelu m. Paweł Teisseyre Selekcja modelu liniowego i predykcja 13 / 29

Metoda Losowych Podprzestrzeni (RSM). Asymptotyczna postać wag końcowych W i Można pokazać asymptotyczną równoważność: W i 1 M i, m MSEP(m \ {i}) MSEP(m) MSEP(m) m M i, m, M i, m to liczba modeli o liczności m które zawierają zmienną i, Błąd predykcji dla modelu m: MSEP(m) := lim n n 1 E[ Y X m ˆβ m 2 X], gdzie Y = Xβ + ε, ε niezależna kopia ε. Paweł Teisseyre Selekcja modelu liniowego i predykcja 14 / 29

Metoda Losowych Podprzestrzeni (RSM). Procedura wyboru modelu: 1 Dane (Y, X) dzielone na część treningową: (Y t, X t ) oraz walidacyjną (Y v, X v ). 2 Procedura RSM jest realizowana na części treningowej. Zmienne są porządkowane wg. wag końcowych: W i 1..., W i p. 3 Z zagnieżdżonej listy modeli {{0}, {i 1 }, {i 1, i 2 },..., {i 1,..., i min(n,p) 1 }} wybieramy model m opt dla którego błąd na próbie walidacyjnej n 1 Y v X v ˆβ mopt 2 jest najmniejszy. (tutaj: ˆβ mopt - estymator ML oparty na modelu m opt, obliczony na próbie (Y t, X t )). Paweł Teisseyre Selekcja modelu liniowego i predykcja 15 / 29

Metoda Losowych Podprzestrzeni (RSM). Procedura wyboru modelu validation set final scores of attributes ranking of attributes selection on hierarchical list of models Final model Paweł Teisseyre Selekcja modelu liniowego i predykcja 16 / 29

Metoda RSM + kryteria informacyjne. Kryteria Informacyjne Wada procedury opisanej powyżej: konieczność wydzielenia próby walidacyjnej (duży problem w sytuacji małej liczby obserwacji). Kryterium Bayesowskie: BIC(m) = 2l(ˆβ m ) + log(n) m min, }{{}}{{} dopasowanie modelu kara za liczbę parametrów gdzie: l( ) to funkcja log-wiarogodności, m to liczba parametrów w modelu m. Procedura oparta na BIC: z zagnieżdżonej rodziny {{0}, {i 1 }, {i 1, i 2 },..., {i 1,..., i min(n,p) 1 }} wyznaczonej na podstawie metody RSM wybieramy model które minimalizuje BIC. Paweł Teisseyre Selekcja modelu liniowego i predykcja 17 / 29

Metoda RSM + kryteria informacyjne. Kryteria Informacyjne- problem Model 2 BIC 200 0 200 400 600 BIC FIT PENALTY 0 20 40 60 80 100 Variables Rysunek : Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 3 zmienne). Paweł Teisseyre Selekcja modelu liniowego i predykcja 18 / 29

Metoda RSM + kryteria informacyjne. Kryteria Informacyjne- problem Model 3 BIC 200 0 200 400 600 BIC FIT PENALTY 0 20 40 60 80 100 Variables Rysunek : Problem: BIC działa niepoprawnie gdy liczba zmiennych jest duża w porównaniu z n (model prawdziwy t zawiera 10 zmiennych). Paweł Teisseyre Selekcja modelu liniowego i predykcja 19 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji- metody Metoda lasso. Metoda RSM + BIC. Metoda WRSM + BIC. Metoda Univariate + BIC. Metoda CAR + BIC [CAR = corr(y, P 1/2 X std ), P- correlation matrix of attributes]. Punkt odcięcia: Sztywny punkt odcięcia: (n 1)/2. 5% spermutowanych kopii originalnych zmiennych ma większą korelacje z y niż zmienne oryginalne. Paweł Teisseyre Selekcja modelu liniowego i predykcja 20 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji- miary oceny (CS): pstwo wyboru modelu t: P(ˆt = t), (PSR): E( ˆt t / t ), (FDR): E( ˆt \ t / ˆt ), (PE): Błąd predykcji na niezależnym zbiorze testowym. (CO): pstwo poprawnego uporządkowania w pierwszym kroku procedury dwustopniowej: P[max i t Ti,f 2 < min i t Ti,f 2 ]. Paweł Teisseyre Selekcja modelu liniowego i predykcja 21 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji Model 10 1.0 1.5 2.0 2.5 3.0 3.5 4.0 4.5 lasso rsmbic wrsmbic unibic carbic Rysunek : Błędy predykcji dla wybranego modelu (model prawdziwy t zawiera 50 zmiennych). Paweł Teisseyre Selekcja modelu liniowego i predykcja 22 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji Model 1 miejsce 2 miejsce 3 miejsce 4 miejsce 5 miejsce 1 lasso carbic unibic rsmbic wrsmbic 2 rsmbic unibic carbic lasso wrsmbic 3 wrsmbic rsmbic carbic unibic lasso 4 rsmbic carbic unibic wrsmbic lasso 5 wrsmbic rsmbic lasso carbic unibic 6 wrsmbic lasso rsmbic unibic carbic 7 wrsmbic rsmbic lasso carbic unibic 8 carbic unibic rsmbic wrsmbic lasso 9 wrsmbic rsmbic lasso carbic unibic 10 wrsmbic lasso rsmbic carbic unibic Tabela : Ranking badanych metod ze względu na błąd predykcji. Paweł Teisseyre Selekcja modelu liniowego i predykcja 23 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji- PSR Model t lasso rsmbic wrsmbic unibic carbic Max. PSR 1 1 0.000 0.367 0.433 0.467 0.467 UNI, CAR 2 3 1.000 1.000 1.000 1.000 1.000 wszystkie 3 10 1.000 1.000 1.000 1.000 1.000 wszystkie 4 5 1.000 1.000 1.000 1.000 1.000 wszystkie 5 15 0.996 0.838 0.973 0.816 0.829 lasso 6 15 0.998 0.769 0.940 0.731 0.733 lasso 7 20 1.000 0.982 0.995 0.963 0.967 lasso 8 8 0.854 0.817 0.888 0.829 0.833 WRSM 9 50 0.995 0.922 0.979 0.845 0.870 lasso 10 50 1.000 0.960 0.991 0.893 0.908 lasso Tabela : Wskaźniki PSR. Paweł Teisseyre Selekcja modelu liniowego i predykcja 24 / 29

Metoda RSM + kryteria informacyjne. Wyniki symulacji- FDR Model lasso rsmbic wrsmbic unibic carbic Min. FDR 1 1.000 0.954 0.980 0.926 0.931 UNI 2 0.124 0.021 0.608 0.033 0.025 RSM 3 0.410 0.290 0.074 0.384 0.358 WRSM 4 0.329 0.069 0.454 0.123 0.109 RSM 5 0.216 0.179 0.199 0.203 0.220 RSM 6 0.297 0.260 0.156 0.231 0.191 WRSM 7 0.271 0.217 0.018 0.312 0.260 WRSM 8 0.111 0.074 0.467 0.050 0.059 WRSM 9 0.419 0.208 0.100 0.233 0.198 WRSM 10 0.427 0.327 0.097 0.302 0.275 WRSM Tabela : Wskaźniki FDR. Paweł Teisseyre Selekcja modelu liniowego i predykcja 25 / 29

Wnioski RSM- wnioski WRSM zazwyczaj działa lepiej niż konkurencyjne metody (biorąc pod uwagę PE). FDR jest zazwyczaj mniejsze dla RSM niż dla metody lasso oraz metody univariate. Stosując metodę RSM otrzymujemy mniej złożone modele (jest to potwierdzone przez eksperymenty na zbiorach rzeczywistych). Zastosowanie wersji ważonej (WRSM) pozwala zmniejszyć liczbę symulacji i w ten sposób zredukować koszt obliczeniowy. Paweł Teisseyre Selekcja modelu liniowego i predykcja 26 / 29

Wnioski RSM- plany Zastosowanie metody RSM dla innych modeli (n.p. modelu logistycznego). Połączenie metody RSM i metod wyboru zmiennych wykorzystujących kryteria informacyjne (zastosowanie innych kryteriów informacyjnych, modyfikacja metody znajdującej punkt odcięcia). Nowe warianty metody WRSM (n.p. użycie wag końcowych RSM jako wag zmiennych w WRSM). Dopracowanie pakietu zawierającego implementacje równoległą. Paweł Teisseyre Selekcja modelu liniowego i predykcja 27 / 29

Literatura Literatura 1 J. Mielniczuk, P. Teisseyre Using Random Subspace Method for Prediction and Variable Importance Assessment in Linear Regression, Computational Statistics and Data Analysis, http://www.sciencedirect.com/science/article/pii/s0167947312003477. 2 T. K. Ho, The Random Subspace Method for constructing decision forests, IEEE Trans. Pattern Anal. Machine Intell., Vol. 20, No. 8, pages 832 844, 1998. 3 L. Breiman, Random forests, Machine Learning, Vol. 45, No. 1, pages 5 32, 2001. 4 C. Lai, M. J. T. Reinders, L. Wessels, Random Subspace Method for multivariate feature selection, Pattern Recognition Letters, Vol. 27, pages 1067-1076, 2006. 5 M. Draminski et. al. Monte carlo feature selection for supervised classification, BIOINFORMATICS, 24(1):110-117, 2008. Paweł Teisseyre Selekcja modelu liniowego i predykcja 28 / 29

Dziękuje za uwagę! Dziękuje za uwagę! Paweł Teisseyre Selekcja modelu liniowego i predykcja 29 / 29