Spam or Not Spam That is the question

Podobne dokumenty
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18

Klasyfikacja metodą Bayesa

Elementy modelowania matematycznego

Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV

Data Mining Wykład 6. Naiwny klasyfikator Bayes a Maszyna wektorów nośnych (SVM) Naiwny klasyfikator Bayesa.

Agnieszka Nowak Brzezińska Wykład III

Metody probabilistyczne klasyfikatory bayesowskie

Agnieszka Nowak Brzezińska Wykład III

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

KLASYFIKACJA. Słownik języka polskiego

SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006

Wnioskowanie bayesowskie

Algorytmy, które estymują wprost rozkłady czy też mapowania z nazywamy algorytmami dyskryminacyjnymi.

Aproksymacja funkcji a regresja symboliczna

Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,

PODYPLOMOWE STUDIA ZAAWANSOWANE METODY ANALIZY DANYCH I DATA MINING W BIZNESIE

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Analiza danych. TEMATYKA PRZEDMIOTU

Testowanie hipotez statystycznych.

WYKŁAD 4. Podejmowanie decyzji dla modeli probabilistycznych Modelowanie Gaussowskie. autor: Maciej Zięba. Politechnika Wrocławska

Rozpoznawanie obrazów

Wykład 2 Hipoteza statystyczna, test statystyczny, poziom istotn. istotności, p-wartość i moc testu

1 Klasyfikator bayesowski

Agnieszka Nowak Brzezińska

w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.

POLITYKA ANTYSPAMOWA. załącznik do Ramowego Regulaminu Usługi HotSender.pl [ link ]

Metody systemowe i decyzyjne w informatyce

Wprowadzenie. Data Science Uczenie się pod nadzorem

Błędy przy testowaniu hipotez statystycznych. Decyzja H 0 jest prawdziwa H 0 jest faszywa

Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner

Testowanie modeli predykcyjnych

Konstrukcja biortogonalnych baz dyskryminacyjnych dla problemu klasyfikacji sygnałów. Wit Jakuczun

Prawdopodobieństwo czerwonych = = 0.33

Systemy uczące się wykład 2

ALGORYTM RANDOM FOREST

Algorytmy klasyfikacji

Mail: Pokój 214, II piętro

Rozpoznawanie obrazów

Klasyfikacja LDA + walidacja

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

0 + 0 = 0, = 1, = 1, = 0.

Uwaga: szarych kropek po pokolorowaniu nie uwzględniaj w klasyfikowaniu kolejnych szarych.

Wnioskowanie statystyczne i weryfikacja hipotez statystycznych

A Zadanie

WYKŁADY ZE STATYSTYKI MATEMATYCZNEJ wykład 9 i 10 - Weryfikacja hipotez statystycznych

Teoretyczne podstawy programowania liniowego

Metody systemowe i decyzyjne w informatyce

Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji


Klasyfikacja bayesowska

Regresyjne metody łączenia klasyfikatorów

Wykład 4. Plan: 1. Aproksymacja rozkładu dwumianowego rozkładem normalnym. 2. Rozkłady próbkowe. 3. Centralne twierdzenie graniczne

LABORATORIUM 8 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI

Optymalizacja ciągła

Statystyka matematyczna Testowanie hipotez i estymacja parametrów. Wrocław, r

Techniki Optymalizacji: Optymalizacja wypukła

Metody systemowe i decyzyjne w informatyce

Testowanie hipotez statystycznych

Hipotezy statystyczne

WYKŁAD 3. Klasyfikacja: modele probabilistyczne

), którą będziemy uważać za prawdziwą jeżeli okaże się, że hipoteza H 0

Metody Sztucznej Inteligencji II

Hipotezy statystyczne

Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory

Data Mining Wykład 5. Indukcja drzew decyzyjnych - Indeks Gini & Zysk informacyjny. Indeks Gini. Indeks Gini - Przykład

VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15

Elementy inteligencji obliczeniowej

Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji

System bonus-malus z mechanizmem korekty składki

Wstęp do sieci neuronowych, wykład 04. Skierowane sieci neuronowe. Algorytmy konstrukcyjne dla sieci skierowanych

REGRESJA LINIOWA Z UOGÓLNIONĄ MACIERZĄ KOWARIANCJI SKŁADNIKA LOSOWEGO. Aleksander Nosarzewski Ekonometria bayesowska, prowadzący: dr Andrzej Torój

Ważne rozkłady i twierdzenia

Wstęp do metod numerycznych Uwarunkowanie Eliminacja Gaussa. P. F. Góra

Testowanie hipotez statystycznych. Wnioskowanie statystyczne

Metody klasyfikacji danych - część 1 p.1/24

Fuzja sygnałów i filtry bayesowskie

Algorytmy metaheurystyczne Wykład 11. Piotr Syga

Statystyka Matematyczna Anna Janicka

Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS

1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie

Statystyka. #5 Testowanie hipotez statystycznych. Aneta Dzik-Walczak Małgorzata Kalbarczyk-Stęclik. rok akademicki 2016/ / 28

Drzewa decyzyjne i lasy losowe

Testowanie hipotez statystycznych. Wprowadzenie

Klasyfikacja obiektów Drzewa decyzyjne (drzewa klasyfikacyjne)

komputery? Andrzej Skowron, Hung Son Nguyen Instytut Matematyki, Wydział MIM, UW

Metody systemowe i decyzyjne w informatyce

Statystyka. Rozkład prawdopodobieństwa Testowanie hipotez. Wykład III ( )

2. Empiryczna wersja klasyfikatora bayesowskiego

Statystyczna analiza Danych

Algorytm do rozpoznawania człowieka na podstawie dynamiki użycia klawiatury. Paweł Kobojek, prof. dr hab. inż. Khalid Saeed

5. Analiza dyskryminacyjna: FLD, LDA, QDA

5. WNIOSKOWANIE PSYCHOMETRYCZNE

Algorytmy MCMC (Markowowskie Monte Carlo) dla skokowych procesów Markowa

SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.

Statystyczna analiza danych w programie STATISTICA (wykład 2) Dariusz Gozdowski

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

Klasyfikacja naiwny Bayes

Stanisław Cichocki. Natalia Nehrebecka. Wykład 9

Sieć przesyłająca żetony CP (counter propagation)

Statystyka matematyczna i ekonometria

Transkrypt:

or Not That is the question 4 maja 2006

Zwięzła definicja spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? to nadmiar informacji zbędnych dla odbiorcy przekazu.

Definicji poszerzona Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? jest określany również: UCE unsolicited commercial email (niezamawiany komercyjny email)

Definicji poszerzona Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? jest określany również: UCE unsolicited commercial email (niezamawiany komercyjny email) UBE unsolicited bulk email (niezamawiany wielokrotny email)

Definicji poszerzona Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? jest określany również: UCE unsolicited commercial email (niezamawiany komercyjny email) UBE unsolicited bulk email (niezamawiany wielokrotny email) to takie informacje lub przesyłki, których odbiorca sobie nie zażyczył ani wcześniej na nie się nie zgodził. Najczęściej do niczego mu niepotrzebne, powodujące nieekonomiczne wykorzystanie użytych do przesyłki zasobów, często wywołujące irytację.

Standardowa definicji spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Elektroniczna wiadomość, jest spamem, jeżeli: 1 treść i kontekst wiadomości są niezależne od tożsamości odbiorcy, ponieważ ta sama treść może być skierowana do wielu innych potencjalnych odbiorców,

Standardowa definicji spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Elektroniczna wiadomość, jest spamem, jeżeli: 1 treść i kontekst wiadomości są niezależne od tożsamości odbiorcy, ponieważ ta sama treść może być skierowana do wielu innych potencjalnych odbiorców, 2 jej odbiorca nie wyraził uprzedniej, możliwej do weryfikacji, zamierzonej, wyraźnej i zawsze odwoływalnej zgody na otrzymanie tej wiadomości,

Standardowa definicji spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Elektroniczna wiadomość, jest spamem, jeżeli: 1 treść i kontekst wiadomości są niezależne od tożsamości odbiorcy, ponieważ ta sama treść może być skierowana do wielu innych potencjalnych odbiorców, 2 jej odbiorca nie wyraził uprzedniej, możliwej do weryfikacji, zamierzonej, wyraźnej i zawsze odwoływalnej zgody na otrzymanie tej wiadomości, 3 treść wiadomości daje odbiorcy podstawę do przypuszczeń, iż nadawca wskutek jej wysłania może odnieść korzyści nieproporcjonalne w stosunku do korzyści odbiorcy wynikających z jej odebrania.

Wybrane typy spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Wsród spamu można m.in. wyróżnić następujące typu: hoax czyli fałszywka, plotka rozpowszechniana przez kogoś dla uciechy; głupi dowcip, który bardzo wielu ludziom zabiera dużo czasu,

Wybrane typy spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Wsród spamu można m.in. wyróżnić następujące typu: hoax czyli fałszywka, plotka rozpowszechniana przez kogoś dla uciechy; głupi dowcip, który bardzo wielu ludziom zabiera dużo czasu, zombie

Wybrane typy spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Wsród spamu można m.in. wyróżnić następujące typu: hoax czyli fałszywka, plotka rozpowszechniana przez kogoś dla uciechy; głupi dowcip, który bardzo wielu ludziom zabiera dużo czasu, zombie nigeryjski szwindel

Wybrane typy spamu Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Wsród spamu można m.in. wyróżnić następujące typu: hoax czyli fałszywka, plotka rozpowszechniana przez kogoś dla uciechy; głupi dowcip, który bardzo wielu ludziom zabiera dużo czasu, zombie nigeryjski szwindel joe-job

Trochę statystyk Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Bill Gates otrzymuje 4 miliony wiadomości spamowych rocznie (11/2004), to:

Trochę statystyk Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Bill Gates otrzymuje 4 miliony wiadomości spamowych rocznie (11/2004), to: 11 tys. wiadomości dziennie

Trochę statystyk Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Bill Gates otrzymuje 4 miliony wiadomości spamowych rocznie (11/2004), to: 11 tys. wiadomości dziennie 456 wiadomości na godzinę

Trochę statystyk Czym jest spam? Typy spamu Kto dostaje najwięcej spamu? Bill Gates otrzymuje 4 miliony wiadomości spamowych rocznie (11/2004), to: 11 tys. wiadomości dziennie 456 wiadomości na godzinę Jef Poskanzer zarządzający domeną (i firmą) acme.com otrzymuje: o.k. 1 miliona wiadomości spamowych dziennie

Metody niestatystyczne Metody statystyczne Metody niestatystyczne walki ze spamem Do zwalczania spamu stosowane są często następujące metody: black list (czarne listy), white list (białe listy), Vipul (znakowanie listów), Challenge-Response, filters that Fight Back (filtry rewanżujące się).

Metody statystyczne i uczące się Metody niestatystyczne Metody statystyczne Lepsze rezultaty w walce z spamem można uzyskać stosując metody, które uczą się m.in.: decision trees (drzewa decyzyjne),

Metody statystyczne i uczące się Metody niestatystyczne Metody statystyczne Lepsze rezultaty w walce z spamem można uzyskać stosując metody, które uczą się m.in.: decision trees (drzewa decyzyjne), neural network (sieci neuronowe),

Metody statystyczne i uczące się Metody niestatystyczne Metody statystyczne Lepsze rezultaty w walce z spamem można uzyskać stosując metody, które uczą się m.in.: decision trees (drzewa decyzyjne), neural network (sieci neuronowe), k nearest neighbors (k najbliższych sąsiadów),

Metody statystyczne i uczące się Metody niestatystyczne Metody statystyczne Lepsze rezultaty w walce z spamem można uzyskać stosując metody, które uczą się m.in.: decision trees (drzewa decyzyjne), neural network (sieci neuronowe), k nearest neighbors (k najbliższych sąsiadów), naive bayes,

Metody statystyczne i uczące się Metody niestatystyczne Metody statystyczne Lepsze rezultaty w walce z spamem można uzyskać stosując metody, które uczą się m.in.: decision trees (drzewa decyzyjne), neural network (sieci neuronowe), k nearest neighbors (k najbliższych sąsiadów), naive bayes, support vector machines.

Twierdzenie Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Twierdzenie P(T X ) = P(X T )P(T ) P(X ) = P(X T )P(T ) P(X T )P(T )+P(X T c )P(T c ) X obserwacja, T jedna z hipotez, P(X ) obserwowane prawdopodobieństwo X, P(X T ) prawdopodobieństwo, że X nastąpi według teorii T, P(T ) prawdopodobieństwo, że teoria T jest prawdziwa, P(T X ) prawdopodobieństwo, że teoria T jest prawdziwa, jeśli zaobserwowano X.

Dowód twierdzenia Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech X będzie pewnym zdarzeniem, T pewną teorią. Załóżmy, że P(X ) 0 i P(T ) 0, mamy: P(X T ) = P(T )P(X T )

Dowód twierdzenia Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech X będzie pewnym zdarzeniem, T pewną teorią. Załóżmy, że P(X ) 0 i P(T ) 0, mamy: P(X T ) = P(T )P(X T ) P(X T ) = P(X )P(T X )

Dowód twierdzenia Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech X będzie pewnym zdarzeniem, T pewną teorią. Załóżmy, że P(X ) 0 i P(T ) 0, mamy: P(X T ) = P(T )P(X T ) P(X T ) = P(X )P(T X ) P(T )P(X T ) = P(X )P(T X )

Dowód twierdzenia Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech X będzie pewnym zdarzeniem, T pewną teorią. Załóżmy, że P(X ) 0 i P(T ) 0, mamy: P(X T ) = P(T )P(X T ) P(X T ) = P(X )P(T X ) P(T )P(X T ) = P(X )P(T X ) P(T X ) = P(T )P(X T ) P(X )

Dowód twierdzenia Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech X będzie pewnym zdarzeniem, T pewną teorią. Załóżmy, że P(X ) 0 i P(T ) 0, mamy: P(X T ) = P(T )P(X T ) P(X T ) = P(X )P(T X ) P(T )P(X T ) = P(X )P(T X ) P(T X ) = P(T )P(X T ) P(X ) P(X ) = P(X T ) + P(X T c )

Przykład Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Weźmy dwie równie prawdopodobne hipotezy: T 1, T 2, P(T i ) = 1 2. Zbieramy dane zaobserwowaliśmy X. Jeśli zaobserwowanie X jest bardziej prawdopodobne dla T 1, P(X T 1 ) > P(X T 2 ), to T 1 jest (teraz, pod dokonaniu badania) bardziej prawdopodobne.

Klasy Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska W celu klasyfikacji wiadomości, wprowadzamy dwie grupy (klasy): S dla oznaczenia spamu,

Klasy Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska W celu klasyfikacji wiadomości, wprowadzamy dwie grupy (klasy): S dla oznaczenia spamu, L dla oznaczenia prawidłowej wiadomości email.

Klasy Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska W celu klasyfikacji wiadomości, wprowadzamy dwie grupy (klasy): S dla oznaczenia spamu, L dla oznaczenia prawidłowej wiadomości email. Interesuje nas wyznaczenie, do której z grup należy dana wiadomość (email). Tak, więc korzystając z twierdzenia Bayesa mamy: Klasyfikacja gdzie c {L, S}. P(c x) = P(x c)p(c) P(x) = P(x c)p(c) P(x S)P(S)+P(x L)P(L)

Opis klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Zwykle znane są wartości dla P(c) (prawdopodobieństwo, że losowa wiadomość jest z tej klasy) oraz P(c x) (np. możemy założyć, że słowo BUY nigdy nie wystąpi w prawidłowej wiadomości email, wtedy prawdopodobieństwo otrzymanie wiadomości zawierającej słowo BUY z kategorii L jest równe zero). Toteż korzystając z wcześniejszego wzoru można wyznaczyć prawdopodobieństwo z jakim dana wiadomość należy do jednej z klas L, S.

Reguła klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Korzystając z wcześniejszego wzoru, daną wiadomość klasyfikujemy według następującej zasady: jeśli P(S x) > P(L x) (czyli prawdopodobieństwo a-posteriori, że x jest spamem jest większe niż prawdopodobieństwo a-posteriori, że x nie jest spamem) wtedy x klasyfikujemy jako spam (S),

Reguła klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Korzystając z wcześniejszego wzoru, daną wiadomość klasyfikujemy według następującej zasady: jeśli P(S x) > P(L x) (czyli prawdopodobieństwo a-posteriori, że x jest spamem jest większe niż prawdopodobieństwo a-posteriori, że x nie jest spamem) wtedy x klasyfikujemy jako spam (S), w przeciwnym wypadku klasyfikujemy x jako prawidłową wiadomość (L).

Reguła klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Korzystając z wcześniejszego wzoru, daną wiadomość klasyfikujemy według następującej zasady: jeśli P(S x) > P(L x) (czyli prawdopodobieństwo a-posteriori, że x jest spamem jest większe niż prawdopodobieństwo a-posteriori, że x nie jest spamem) wtedy x klasyfikujemy jako spam (S), w przeciwnym wypadku klasyfikujemy x jako prawidłową wiadomość (L). Powyższa reguła jest znana jako MAP (maximum a-posteriori probability).

Przekształcenie reguły Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Używając twierdzenia Bayesa, przekształcamy wcześniejszą reguła klasyfikacji do postaci: Jeśli P(x S) P(x L) > P(L) P(S) sklasyfikuj x jako spam, wpp x sklasyfikuj jako prawidłowa wiadomość (nie spam). Dla wygody oznaczmy przez Λ(x) wyrażenie: P(x S) P(x L).

Dalsze oznaczenia Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech L(c 1, c 2 ) oznacza koszt (ryzyko) nieprawidłowego sklasyfikowania obiektu klasy c 1 jako należący do klasy c 2.

Dalsze oznaczenia Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech L(c 1, c 2 ) oznacza koszt (ryzyko) nieprawidłowego sklasyfikowania obiektu klasy c 1 jako należący do klasy c 2. W naszym przypadku oczywiście L(S, S) = L(L, L) = 0.

Dalsze oznaczenia Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Niech L(c 1, c 2 ) oznacza koszt (ryzyko) nieprawidłowego sklasyfikowania obiektu klasy c 1 jako należący do klasy c 2. W naszym przypadku oczywiście L(S, S) = L(L, L) = 0. Wtedy spodziewane ryzyko zaklasyfikowania wiadomości x do klasy c wynosi: R(c x) = L(S, c)p(s x) + L(L, c)p(l x)

Zasada klasyfikacji Bayesa Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Oczywiście chcemy, aby nasza klasyfikacja miała małe spodziewane ryzyko dla dowolnej wiadomości, więc naturalnie jest użyć następującej reguły: Zasada klasyfikacji Bayesa Jeśli R(S x) < R(L(x)) sklasyfikuj x jako spam, wpp sklasyfikuj jako prawidłową wiadomość. Powyższa zasada minimalizuje całościowe spodziewane ryzyko (średnie ryzyko).

Ostateczna wersja zasady klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ostatecznie możemy zapisać naszą zasada klasyfikacji jako: Λ(x) S L λ P(L) P(S) gdzie λ = L(L,S) L(S,L) oznacza jak niebezpieczne jest sklasyfikowanie prawidłowej wiadomości jako spam.

Ostateczna wersja zasady klasyfikacji Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ostatecznie możemy zapisać naszą zasada klasyfikacji jako: Λ(x) S L λ P(L) P(S) gdzie λ = L(L,S) L(S,L) oznacza jak niebezpieczne jest sklasyfikowanie prawidłowej wiadomości jako spam. Aby filtr miał sens interesuje nas, aby takie sytuacje w ogóle nie zachodziły lub zdarzały się bardzo rzadko, odwrotna sytuacja jest mniej groźna i dopuszczalne jest jej wystąpienie (wzięcie spamu za prawidłową wiadomość).

Praktyczny algorytm Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Aby skonstruować klasyfikator Bayesowski musimy móc wyznaczyć prawdopodobieństwa: P(x c) i P(c) dla każdych x i c. Dokładna wartość tych prawdopodobieństw nie jest znana, lecz można jest przybliżać na podstawie danych treningowych.

Praktyczny algorytm Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Aby skonstruować klasyfikator Bayesowski musimy móc wyznaczyć prawdopodobieństwa: P(x c) i P(c) dla każdych x i c. Dokładna wartość tych prawdopodobieństw nie jest znana, lecz można jest przybliżać na podstawie danych treningowych. Dla przykładu: P(S) możemy przybliżać przez iloraz liczby wiadomości będących spamem, do liczby wszystkich wiadomości

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Trudniejsze do przybliżenia jest P(x c), które zależy od tego, jak wybierzemy wektor cech x dla wiadomości m. Weźmy najprostszy przypadek, gdy wektor cech jest pojedyńczym binarnym atrybutem, oznaczającym wystąpienie słowa w w wiadomości.

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Trudniejsze do przybliżenia jest P(x c), które zależy od tego, jak wybierzemy wektor cech x dla wiadomości m. Weźmy najprostszy przypadek, gdy wektor cech jest pojedyńczym binarnym atrybutem, oznaczającym wystąpienie słowa w w wiadomości. Wtedy wektor cech x w wynosi: 1 jeśli słowo w występuje w wiadomości, 0 jeśli słowo w nie występuje w wiadomości.

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Trudniejsze do przybliżenia jest P(x c), które zależy od tego, jak wybierzemy wektor cech x dla wiadomości m. Weźmy najprostszy przypadek, gdy wektor cech jest pojedyńczym binarnym atrybutem, oznaczającym wystąpienie słowa w w wiadomości. Wtedy wektor cech x w wynosi: 1 jeśli słowo w występuje w wiadomości, 0 jeśli słowo w nie występuje w wiadomości. W takim przypadku przybliżamy prawdopodobieństwo: P(x w = 1 S) #treningowych próbek spamu zawierających słowo w #wszystkich treningowych próbek spamu

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Podsumowując mamy następujący algorytm:

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Podsumowując mamy następujący algorytm: trening 1 oblicz przybliżenie dla P(c), P(x w = 1 c), P(x w = 0 c) dla c {S, L} na podstawie danych treningowych,

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Podsumowując mamy następujący algorytm: trening 1 oblicz przybliżenie dla P(c), P(x w = 1 c), P(x w = 0 c) dla c {S, L} na podstawie danych treningowych, 2 oblicz P(c x w = 0), P(c x w = 1) używając twierdzenia Bayesa,

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Podsumowując mamy następujący algorytm: trening 1 oblicz przybliżenie dla P(c), P(x w = 1 c), P(x w = 0 c) dla c {S, L} na podstawie danych treningowych, 2 oblicz P(c x w = 0), P(c x w = 1) używając twierdzenia Bayesa, 3 oblicz Λ(x w ) dla x w = 0, 1, oblicz λ P(L) P(S), zapamiętaj te 3 wartości.

Praktyczny algorytm c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Podsumowując mamy następujący algorytm: trening 1 oblicz przybliżenie dla P(c), P(x w = 1 c), P(x w = 0 c) dla c {S, L} na podstawie danych treningowych, 2 oblicz P(c x w = 0), P(c x w = 1) używając twierdzenia Bayesa, 3 oblicz Λ(x w ) dla x w = 0, 1, oblicz λ P(L) P(S), zapamiętaj te 3 wartości. klasyfikacja 1 dla wiadomości m wyznacz wektor cech x w, odnajdź zapisaną wartość dla Λ(x w ) i użyj zasady klasyfikacji do zdecydowania, do której kategorii należy wiadomość m.

Ulepszenie algorytmu Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Taka klasyfikacja nie będzie dobra, gdyż opiera się na występowaniu lub nie tylko jednego słowa w wiadomości.

Ulepszenie algorytmu Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Taka klasyfikacja nie będzie dobra, gdyż opiera się na występowaniu lub nie tylko jednego słowa w wiadomości. Aby polepszyć algorytm, wektor cech powinien zawierać więcej danych (atrybutów). Wybierzmy kilka słów: w 1, w 2,..., w m i zdefiniujmy wektor cech dla wiadomości m jako: x = (x 1, x 2,..., x m ) gdzie x i jest równe 1, jeśli słowo w i występuje w wiadomości, wpp 0.

Ulepszenie algorytmu c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Jeśli wykorzystamy poprzednie algorytm, będziemy musieli obliczyć i zapamiętać wartości Λ(x) dla każdego możliwego x (a tych jest 2 m ), jest to niepraktyczne.

Ulepszenie algorytmu c.d... Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Jeśli wykorzystamy poprzednie algorytm, będziemy musieli obliczyć i zapamiętać wartości Λ(x) dla każdego możliwego x (a tych jest 2 m ), jest to niepraktyczne. Toteż zakładamy, że składowe wektora x są niezależne w każdej klasie, czyli wystąpienie słowa w i w wiadomości, nie wpływa na prawdopodobieństwa wystąpienia innych słów. Nie jest to dobre założenie, lecz umożliwia obliczenie wymaganych prawdopodobieństw bez konieczności pamiętania dużej liczby danych: P(x c) = m P(x i c) i=1 Λ(x) = m Λ i (x i ) i=1

Naiwna klasyfikacja Bayesowska Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Słowo naiwna wynika z przyjętego założenia o niezależności składowych wektora cech. W praktyce algorytm spisuje się dobrze i jest jednym z najpopularniejszych rozwiązań używanych w filtrach antyspamowych.

Naiwna klasyfikacja Bayesowska Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Słowo naiwna wynika z przyjętego założenia o niezależności składowych wektora cech. W praktyce algorytm spisuje się dobrze i jest jednym z najpopularniejszych rozwiązań używanych w filtrach antyspamowych. Podsumowując algorytm wygląda następująco:

Naiwna klasyfikacja Bayesowska Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Słowo naiwna wynika z przyjętego założenia o niezależności składowych wektora cech. W praktyce algorytm spisuje się dobrze i jest jednym z najpopularniejszych rozwiązań używanych w filtrach antyspamowych. Podsumowując algorytm wygląda następująco: trening 1 dla każdego w i oblicz i zapamiętaj Λ i (x i ) dla x i = 0, 1, oblicz i zapamiętaj λ P(L) P(S).

Naiwna klasyfikacja Bayesowska Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Słowo naiwna wynika z przyjętego założenia o niezależności składowych wektora cech. W praktyce algorytm spisuje się dobrze i jest jednym z najpopularniejszych rozwiązań używanych w filtrach antyspamowych. Podsumowując algorytm wygląda następująco: trening 1 dla każdego w i oblicz i zapamiętaj Λ i (x i ) dla x i = 0, 1, oblicz i zapamiętaj λ P(L) P(S). klasyfikacja 1 wyznacz x, oblicz Λ(x) przez pomnożenie zapamiętanych wartości Λ i (x i ), użyj zasady klasyfikacji.

Jaki słowa wybrać? Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ciągle należy zdecydować, jakie słowa wybrać do wektora cech. Istnieje kilka rozwiązań:

Jaki słowa wybrać? Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ciągle należy zdecydować, jakie słowa wybrać do wektora cech. Istnieje kilka rozwiązań: wszystkie słowa występujące w treningowych wiadomościach,

Jaki słowa wybrać? Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ciągle należy zdecydować, jakie słowa wybrać do wektora cech. Istnieje kilka rozwiązań: wszystkie słowa występujące w treningowych wiadomościach, jeśli liczba słów jest zbyt duża można:

Jaki słowa wybrać? Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ciągle należy zdecydować, jakie słowa wybrać do wektora cech. Istnieje kilka rozwiązań: wszystkie słowa występujące w treningowych wiadomościach, jeśli liczba słów jest zbyt duża można: odrzucić najpopularniejsze słowa,

Jaki słowa wybrać? Twierdzenie Bayesa Podstawy klasyfikacji Naiwna klasyfikacja Bayesowska Ciągle należy zdecydować, jakie słowa wybrać do wektora cech. Istnieje kilka rozwiązań: wszystkie słowa występujące w treningowych wiadomościach, jeśli liczba słów jest zbyt duża można: odrzucić najpopularniejsze słowa, odrzucić najrzadsze słowa

Wybrane metody walki Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Zostaną porównane ze sobą następujące metody walki ze spamem: naiwna klasyfikacja Bayesa, k najbliższych sąsiadów, artificial neural networks (multilayer perceptron), support vector machine classification (metoda wektorów nośnych).

Kilka słów o metodach Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie K nearest neighbors aby móc sparametryzować liczbę wiadomości poprawnych uznanych za spam, została wprowadzona nastepująca zasada klasyfikacji (zasada l/k): Jeśli l lub więcej wiadomości spośród k sąsiadów x jest spamem, to sklasyfikuj x jako spam, wpp sklasyfikuj jako poprawną wiadomość.

Kilka słów o metodach Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie K nearest neighbors aby móc sparametryzować liczbę wiadomości poprawnych uznanych za spam, została wprowadzona nastepująca zasada klasyfikacji (zasada l/k): Jeśli l lub więcej wiadomości spośród k sąsiadów x jest spamem, to sklasyfikuj x jako spam, wpp sklasyfikuj jako poprawną wiadomość. Support vector machines działa według tej samej idei co perceptron, różnica polega na tym, że nie szukamy jakieś (dowolnej) hiperprzestrzenii dzielącej (separującej), lecz bardzo specyficznej optymalnej płaszczyzny podziału w wielowymiarowej przestrzeni przekształconych zmiennych (maximal margin separating hyperplane); metoda uwzględnia skomplikowane, nieliniowe zależności między badanym cechami.

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos,

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem,

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem, zbiór jest podzielony na 10 część (9 zostanie wykorzystanych jako treningowe a 1 jako testowa),

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem, zbiór jest podzielony na 10 część (9 zostanie wykorzystanych jako treningowe a 1 jako testowa), wiadomości w zbiorze podlegały wcześniejszemu przetworzeniu:

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem, zbiór jest podzielony na 10 część (9 zostanie wykorzystanych jako treningowe a 1 jako testowa), wiadomości w zbiorze podlegały wcześniejszemu przetworzeniu: odrzucono załączniki, znaczniki HTML i nagłówek listu (poza tematem),

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem, zbiór jest podzielony na 10 część (9 zostanie wykorzystanych jako treningowe a 1 jako testowa), wiadomości w zbiorze podlegały wcześniejszemu przetworzeniu: odrzucono załączniki, znaczniki HTML i nagłówek listu (poza tematem), słowa zostały zakodowane jako liczby,

Wykorzystane dane Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie wykorzystane dane pochodzą ze zbioru PU1, który utworzył Ion Androutsopoulos, zbiór zawiera 1099 wiadomości, z czego 481 jest spamem, zbiór jest podzielony na 10 część (9 zostanie wykorzystanych jako treningowe a 1 jako testowa), wiadomości w zbiorze podlegały wcześniejszemu przetworzeniu: odrzucono załączniki, znaczniki HTML i nagłówek listu (poza tematem), słowa zostały zakodowane jako liczby, każdy wektor cech zawiera 21700 atrybutów (tyle różnych słów jest w wiadomościach).

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby),

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby), 2 każde słowo zostaje zastąpione formą bazową (tematem, bez końcówek),

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby), 2 każde słowo zostaje zastąpione formą bazową (tematem, bez końcówek), 3 stop-list, 100 najpopularniejszych słów zostaje usuniętych z każdej wiadomości,

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby), 2 każde słowo zostaje zastąpione formą bazową (tematem, bez końcówek), 3 stop-list, 100 najpopularniejszych słów zostaje usuniętych z każdej wiadomości, 4 połączenie dwóch poprzednich wersji.

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby), 2 każde słowo zostaje zastąpione formą bazową (tematem, bez końcówek), 3 stop-list, 100 najpopularniejszych słów zostaje usuniętych z każdej wiadomości, 4 połączenie dwóch poprzednich wersji. wstępne wykazały, że najlepsze rezultaty dają dane w wersji 4 i na nich tylko dalsze testy są przeprowadzane.

Wersje danych Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Cały zbiór zawiera cztery wersje każdej wiadomości: 1 oryginalną (słowa są zakodowane przez liczby), 2 każde słowo zostaje zastąpione formą bazową (tematem, bez końcówek), 3 stop-list, 100 najpopularniejszych słów zostaje usuniętych z każdej wiadomości, 4 połączenie dwóch poprzednich wersji. wstępne wykazały, że najlepsze rezultaty dają dane w wersji 4 i na nich tylko dalsze testy są przeprowadzane. Należy zauważyć, że ten zbiór nie odzwierciedla rzeczywistej sytuacji, gdyż najbardziej miarodajne wyznaczniki spamu: nagłówek i znaczniki HTML nie są brane pod uwagę. Można więc uznać, że przy ich uwzględnieniu wyniki byłby lepsze.

Oznaczenia Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie N = 1099 oznacza liczbę wszystkich wiadomości, N S L liczbę wiadomości będących spamem uznanych za niespam, N L S liczbę wiadomości poprawnych uznanych za spam, N S = 481 liczba wiadomości będących spamem, N L = 618 liczba prawidłowych wiadomości ( niespam ).

Miary efektowności Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Współczynnik błędu określamy następująco: precyzje: legitimate fallout: E = N S L+N L S N P = 1 E spam fallout: F L = N L S N L F S = N S L N S

Miary efektywności c.d... Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Należy zauważyć, że błąd i precyzja powinny być względne do przypadku gdy klasyfikacja nie występuje. Bez klasyfikacji mamy trywialnie zagwarantowane, że N L N w naszym przypadku będzie zawsze większe od 50%.

Miary efektywności c.d... Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Należy zauważyć, że błąd i precyzja powinny być względne do przypadku gdy klasyfikacja nie występuje. Bez klasyfikacji mamy trywialnie zagwarantowane, że N L N w naszym przypadku będzie zawsze większe od 50%. Tak więc wprowadzamy miarę wzrostu precyzji: G = P N L /N = N N S L N L S N L

Jakość metod Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Wcześniej przedstawione metody na opisanych danych, osiągły następujące wyniki: Metoda N L S N S L P F L F S G Naive Bayes (λ = 1) 0 138 87.4% 0.0% 28.7% 1.56 k-nn (k = 51) 68 33 90.8% 11.0% 6.9% 1.61 Perceptron 8 8 98.5% 1.3% 1.7% 1.75 SVM 10 11 98.1% 1.6% 2.3% 1.74

Jakość metod c.d.. Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Aby zmniejszyć (do zera) liczbę wiadomości poprawnych uznawanych za spam, zmodyfikowano odpowiednie współczynniki. Jako, że perceptron nie daje możliwości takich ustawień, nie jest on dalej testowany. Metoda N L S N S L P F L F S G Naive Bayes (λ = 8) 0 140 87.3% 0.0% 29.1% 1.55 l/k-nn (k = 51,l = 35) 0 337 69.3% 0.0% 70.0% 1.23 SVM soft margin(0.3) 0 101 90.8% 0.0% 21.0% 1.61

Połączona klasyfikacja Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Niech f i g oznaczają dwa filtry spamowe, oba o bardzo mały prawdopodobieństwie wzięcia wiadomości prawidłowej za spam. Można stworzyć filtr o lepszej precyzji stosując poniższą regułę klasyfikacji:

Połączona klasyfikacja Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Niech f i g oznaczają dwa filtry spamowe, oba o bardzo mały prawdopodobieństwie wzięcia wiadomości prawidłowej za spam. Można stworzyć filtr o lepszej precyzji stosując poniższą regułę klasyfikacji: Sklasyfikuj wiadomość x jako spam jeśli f lub g sklasyfikowało x jako spam, wpp (jeśli f (x) = g(x) = L) sklasyfikuj x jako poprawną wiadomość.

Połączona klasyfikacja Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Niech f i g oznaczają dwa filtry spamowe, oba o bardzo mały prawdopodobieństwie wzięcia wiadomości prawidłowej za spam. Można stworzyć filtr o lepszej precyzji stosując poniższą regułę klasyfikacji: Sklasyfikuj wiadomość x jako spam jeśli f lub g sklasyfikowało x jako spam, wpp (jeśli f (x) = g(x) = L) sklasyfikuj x jako poprawną wiadomość. Metoda N L S N S L P F L F S G N.B SVM s.m. 0 61 94.4% 0.0% 12.7% 1.68

Połączona klasyfikacja c.d... Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Niech h będzie klasyfikatorem z wysoką precyzją (np. perceptron lub SVM), możemy użyć następującej klasyfikacji: Jeśli f (x) = g(x) = c klasyfikujemy x do klasy c, jeśli klasyfikatory f i g dają inne wyniki, nie klasyfikujemy natychmiastowo x jako spam, lecz wykorzystujemy h jako klasyfikator (z racji jego wysokiej precyzji) i klasyfikujemy x według niego.

Połączona klasyfikacja c.d... Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Niech h będzie klasyfikatorem z wysoką precyzją (np. perceptron lub SVM), możemy użyć następującej klasyfikacji: Jeśli f (x) = g(x) = c klasyfikujemy x do klasy c, jeśli klasyfikatory f i g dają inne wyniki, nie klasyfikujemy natychmiastowo x jako spam, lecz wykorzystujemy h jako klasyfikator (z racji jego wysokiej precyzji) i klasyfikujemy x według niego. Metoda N L S N S L P F L F S G 2-z-3 0 62 94.4% 0.0% 12.9% 1.68

Podsumowanie Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Naiwna klasyfikacja Bayesa mimo naiwnego założenia o niezależności poszczególnych słów od siebie, jest jedną z najlepszych metod filtracji spamu. Obecnie jest szeroko wykorzystywana w wielu produktach, z racji wysokiej skuteczności. Często też jest jedną z linii obrony przeciw spamowi, współpracującą z innymi zabezpieczeniami antyspamowymi.

Bibliografia Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Machine Learning Techniques in Filtering, Konstantin Tretyakov, Institute of Computer Science, University of Tartu. or Not? That is the question, Ravi Kiran and Indriyati Atmosukarto. A Neural Network Classifier for Junk E-Mail, Ian Stuart, Sung-Hyuk Cha, and Charles Tappert. http://nospam-pl.net/

Koniec Wybrane metody Dane testowe i treningowe Otrzymane wyniki Podsumowanie Dziękuję za uwagę!