Sieci neuronowe - projekt
|
|
- Helena Jakubowska
- 7 lat temu
- Przeglądów:
Transkrypt
1 Sieci neuronowe - projekt Maciej Barański, Kamil Dadel 15 stycznia 2015 Streszczenie W ramach projektu został zrealizowany algorytm kompresji stratnej bazujący na działaniu samoorganizującej się sieci Kohonena. Algorytm został zaimplementowany w środowisku Matlab oraz porównany z działaniem algorytmu Vector Quantization. Spis treści 1 Wstęp teoretyczny Wektoryzacja Transformata cosinusowana Filtr dolnoprzepustowy Kwantyzacja Kwantyzacja wektorowa Samoorganizują się sieć neuronowa Kodowanie Eksperymenty Pierwszy eksperyment - Lena Drugi eksperyment - kwiat Porównanie działania dwóch metod Wnioski 8 4 Instrukcja Nauka sieci Kompresja obrazu Uwagi
2 1 Wstęp teoretyczny Kompresja obrazów jest ważną dziedziną przetwarzania obrazów. W informatyce jest wszechobecna - każda grafika komputerowa zawiera w sobie pewien poziom kompresji, który pozwala pogodzić ilość potrzebnej przestrzeni (bądź potrzebnego transferu) oraz jakość obrazu. Rysunek 1: Schemat kompresji obrazów Na schemacie 1 przedstawiono jeden ze schematów kompresji obrazów. Oryginalny obraz zostaje zamieniony na postać macierzową. Następnie dokonywana jest transformata cosinusowa ze względu na pożądane cechy (łatwo zniwelować wysokie częstotliwości, które nie są widoczne dla ludzkiego oka w obrazie). Następnie wysokie częstotliwości są niwelowane filtrem dolnoprzepustowym. Następnie dokonywana jest kwantyzacja, która pozwala na przybliżenie wartości za pomocą słów zdefiniowanych w słowniku. Dzięki temu otrzymywane są indeksy (które zajmują mniej pamięci niż odpowiadające im wartości). Następnie indeksy te są odpowiednio kodowane w celu zmniejszenia potrzebnej pamięci. Tak przygotowany obraz jest skompresowany. Należy zaznaczyć, że strata informacji następuje w filtrze oraz w kwantyzacji. Odtwarzanie obrazu polega na wstępnym zdekodowaniu indeksów, odtworzenie wartości częstotliwości oraz przeprowadzenie odwrotnej transformaty cosinusowej. Rysunek 2: Schemat kompresji obrazów z samoorganizującą się siecią w projekcie zostanie porównanie działanie schematu 1 oraz 2. Jedyna różnica w działaniu polega na sposobie kwantyzacji: w pierwszym jest stosowana kwantyzacja wektorowa, zaś w drugim kwantyzacja za pomocą samoorganizującej się sieci neuronowej. 2
3 1.1 Wektoryzacja Istnieje wiele różnych przestrzeni barw: RGB,CMYK oraz HSV. W projekcie założono stosowanie tylko odcieni szarości. Dzięki temu obraz jest zamieniany na postać macierzową. 1.2 Transformata cosinusowana Dyskretna transformata kosinusowa (DCT z ang. discrete cosine transform) jest stosowana w kompresji danych ze względu na to, że większość jej współczynników jest bliska 0. Dzięki temu po kwantyzacji będą się zerować, co pozwoli na ich zapis za pomocą mniejszej ilości bitów przy niedużej stracie jakości. Transformata ta jest stosowana w kompresji JPEG oraz MPEG. 1.3 Filtr dolnoprzepustowy Po transformacie cosinusowej istotne, niskie częstotliwości znajdują się w lewym, górnym rogu, zaś wysokie częstotliwości w prawym, dolnym rogu. Będą one eliminowane, ponieważ nie są istotne z punktu widzenia jakości obrazu. 1.4 Kwantyzacja Kwantyzacja będzie polegać na zamianie wartości na te, które są zdefiniowane w słowniku. Liczba wartości w słowników jest zazwyczaj dużo mniejsza niż liczba możliwych wartości. Ponadto dzięki zdefiniowaniu słownika po kwantyzacji nie są istotne już same wartości, lecz indeksy tych wartości w słowniku Kwantyzacja wektorowa Kwantyzacja wektorowa będzie polegać na zamianie przestrzeni wektorowej R k na przestrzeń wektorową Y = {y i : i = 1,..., N}. Każdy wektor y i jest nazywany słowem w zbiorze Y nazywanym słownikiem. Ponadto każdemu słowu w słowniku jest zdefiniowany region przynależności (z ang. Voronoi region) zdefiniowany następująco: V i = {x V k : x y i x y j, j i} (1) Kwantyzacja wektorowa bazuje na pojęciu odległości - zazwyczaj definiowanej jako norma euklidesowa. Region przynależności do danego słowa to wszystkie wektory, które są najbliższe (w sensie zdefiniowanej normy) danemu słowu. Jak działa enkoder? Dekoder kwantyzacji dla wektora wejściowego oblicza wszystkie odległości tego wektora do wszystkich słów w słowniku. Następnie zwraca indeks tego słówa, dla którego obliczona odległość jest najmniejsza. Jak działa dekorer? słowniku. Mając dany słownik oraz indeks wystarczy odnaleźć wartość słowa, który ma dany indeks w Jaki jest algorytm powstawania słownika? 1. Ustalić rozmiar słownika N. 2. Wybrać losowo N słów - będzie to słownik początkowy. 3. Ustalić regiony przynależności - dla wszystkich wektorów wejściowych ustalić do którego słowa w słowniku należą na podstawie ustalonej miary 4. Ustalić nowe słowa w słowniku za pomocą wzoru y i = 1 m m j=1 x ij, gdzie m jest ilością wektorów należących do słowa, a i jest kolejnym wymiarem wektora Samoorganizują się sieć neuronowa Samoorganizująca się sieć neuronowa jest nazywana także siecią Kohonena. Uczy się bez nadzoru (z ang. unsupervised learning). Wyjściem sieci jest zdyskretyzowana reprezentacja przestrzeni wejściowej zwana mapą. Sieć Kohonena zachowuje właściwości przestrzeni wejściowej. Nauka sieci polega ciągłym przetwarzaniu za pomocą sieci wektorów wejściowych. Każdy wektor jest porównywany z wszystkimi neuronami (za pomocą normy) i wybierany jest zwycięzca, który ma największą normę. Współczynik wagi zwycięskiego neuronu zostaje zmieniony. Istnieje możliwość wprowadzenia sąsiedztwa, które zmienia również neurony sąsiadujące ze zwycięskim. 3
4 Rysunek 3: Topologia samoorganizującej się sieci neuronowej Sieć w naszym wypadku działa bardzo podobnie do kwantyzacji wektorowej, w związku z tym zastosowano ją do schematu kompresji danych. 1.5 Kodowanie W projekcie zostało zaimplementowane kodowanie różnicowe oraz kodowanie Huffmana. Kodowanie różnicowe Mając dany ciąg danych d 1,..., d N kodowanie różnicowe poleca na zamianie ciągu na nowy ˆd 1,..., ˆd N, w którym pierwszy element ˆd 1 pozostaje taki sam, zaś każdy następny jest zdefiniowany następująco: Dekodowanie polega na odwrotnej transformacji zdefiniowanej następująco: Kodowanie Huffmana 1. Określ prawdopodobieństwo każdego symbolu ˆd i = d i d i 1 (2) d i = d i 1 + ˆd i (3) 2. Stwórz listę drzew binarnych, które na początku posiada tylko korzeń składający się z pary: symbol i prawdopodobieństwo. 3. Dopóki na liście nie zostanie tylko jedno drzewo należy: (a) usunąć dwa drzewa o najmniejszym prawdopodobieństwie w korzeniu (b) wstawić nowe drzewo, którego korzeń jest sumą prawdopodobieństw usuniętych drzew, zaś one same stają się lewym i prawym poddrzewem. Powstałe drzewo nazywamy drzewem Huffmana. 4
5 2 Eksperymenty W ramach projektu zostały przeprowadzone dwa eksperymenty mające na celu porównanie działania kwantyzacji wektorowej oraz sieci samoorganizującej się. 2.1 Pierwszy eksperyment - Lena Pierwszy eksperyment polegał na wytrenowaniu sieci neuronowej oraz na stworzeniu słownika do kwantyzacji wektorowej przy pomocy znanego obrazu Lena. Rysunek 4: Lena - obraz wejściowy Poniżej przedstawiono wynik działania kwantyzacji wektorowej oraz sieci Kohonena. Rysunek 5: Wynik działania kwantyzacji wektorowej Rysunek 6: Wynik działania samoorganizującej się sieci Nie istnieje jednoznaczna miara pozwalająca na określenie jakości kompresji. W obu przypadkach ustawiono ten sam stopień kompresji Wobec tego decydujące znaczenie ma, który z tych obrazów wynikowych bardziej przypomina obraz wejściowy dla ludzkiego oka. W tym przypadku widać, że nieznacznie lepszy wynik dała sieć neuronowa. 2.2 Drugi eksperyment - kwiat Drugi eksperyment polegał na kompresji obrazu przedstawionego poniżej: 5
6 Rysunek 7: Kwiat - obraz wejściowy Jednak w tym wypadku kwantyzacja została przeprowadzona na słowniku i na sieci wytrenowanej za pomocą obrazu Lena. Rysunek 8: Wynik działania kwantyzacji wektorowej Rysunek 9: Wynik działania samoorganizującej się sieci Jak widać obie metody uzyskały gorszą jakość. Oceniając subiektywnie sieć Kohonena również w tym przypadku uzyskała lepszy wynik. 2.3 Porównanie działania dwóch metod W tej części rozdziału przedstawiono obiektywne porównania działania samoorganizującej się sieci (SOM) oraz kwantyzacji wektorowej (VQ). Na początek przedstawiono czas wykonywania się wspólnych etapów kompresji dla obu metod. Tablica 1: Czas działania etapów wspólnych dla obu metod Czas [s] Lena SOM Kwiat SOM DCT Filtr dolnoprzepustowy Kodowanie roznicowe Kodowanie Hoffmana Dekodowanie Hoffmana Dekodowanie roznicowe Odwrotne DCT
7 W następnych dwóch tabelkach przedstawiono czasy wykonywania się etapów kodowania oraz nauki. Tablica 2: Porównanie czasów kodowania Lena SOM Kwiat SOM Lena VQ Kwiat VQ Czas kodowania [s] Tablica 3: Porównanie czasu powstawania słownika oraz trenowania sieci neuronowej SOM VQ Czas powstawania slownika [s] W ostatniej tabelce przedstawiono parametry będące przybliżeniem jakości obrazu, która jest zauważalna dla ludzkiego oka. Pierwszy parametr MSE jest zwyczajnym błędem średniokwadratowym dwóch obrazów (A - obrazem po kompresji, B - obrazem referencyjnym): MSE = M N i=1 j=1 (A(i, j) B(i, j)) 2 (4) Drugi parametr PSNR (z ang. peak signal-to-noise) jest stosunkiem sygnału do szumu. Im większy parametr tym lepsza jakość obrazu. PSNR = 10 log 255 MSE (5) Tablica 4: Porównanie parametrów obrazów wynikowych Lena SOM Kwiat SOM Lena VQ Kwiat VQ PSNR [db] MSE
8 3 Wnioski Podczas innych eksperymentów z algorytmami zauważono, że działają one tylko dla niezbyt skompresowanych obrazów. Wielokrotna kompresja obrazów sprawia, że tracone są istotne częstotliwości i nie jest możliwa rekonstrukcja obrazu. Kodowanie Huffmana można zastąpić kodowaniem UVLC, które ze względu na to, że jest zmiennej długości i dostosowywuje się do rozkładu danych wejściowych będzie lepiej przystosowane do zastosowanych algorytmów. W algorytmach zastosowaną prostą kompresję bez podziału obrazów na okna. Modyfikacja algorytmu uwzględniająca podział obrazu na okna pozwoli na istotne zwiększenie efektywności kompresji. Sieć Kohonena można z powodzeniem stosować zamiast kwantyzacji wektorowej. Pozwala ona na osiągnięcie lepszych wyników. Niestety działanie sieci jest o wiele dłuższe od działania algorytmu kwantyzacji wektorowej. 8
9 4 Instrukcja 4.1 Nauka sieci 1. Dokonaj wektoryzacji obrazu lena.jpg 2. Przeprowadź dyskretną transformatę cosinusową 3. Stwórz i naucz sieć Kohonena dla niskich częstotliwości 4. Zbadaj czas uczenia się sieci 5. Zdefiniuj nowy słownik Huffmana 4.2 Kompresja obrazu 1. Dokonaj wektoryzacji obrazu lena.jpg 2. Przeprowadź dyskretną transformatę cosinusową 3. Użyj filtru dolnoprzepustowego 4. Wykorzystaj sieć Kohonena nauczonej na obrazie lena.jpg 5. Przeprowadź kodowanie różnicowe i kodowanie Huffmana 6. Zbadaj czasy wykonywania się poszczególnych etapów 7. Wyznacz parametr MSE dla obrazów wynikowych i referencyjnych 8. Zbadaj rezultaty przeprowadzanych operacji 4.3 Uwagi Przydatne funkcje: 1. rgb2gray 2. dct2 3. selforgmap 4. train 5. huffmandict 6. diff_coding 7. huffmanenco Zaleca się użycie interfejsu graficznego do tworzenia i trenowania sieci neuronowej, który jest uruchamiany za pomocą polecenia nnstart. Umożliwia on wygenerowanie skryptu, który zawiera instrukcje pozwalające na powtórzenie działania interfejsu. 4.4 Zadanie dodatkowe Działanie kompresji można ulepszyć poprzez podział obrazu na okna i kodowanie całych okien DCT zamiast poszczególnych wartości. Ponadto istnieje możliwość zamiany kodowania Huffmana na efektywniejszy (na przykład UVLC). 9
Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335
Sztuczne sieci neuronowe Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335 Wykład 10 Mapa cech Kohonena i jej modyfikacje - uczenie sieci samoorganizujących się - kwantowanie wektorowe
Bardziej szczegółowoKodowanie transformacyjne. Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG
Kodowanie transformacyjne Plan 1. Zasada 2. Rodzaje transformacji 3. Standard JPEG Zasada Zasada podstawowa: na danych wykonujemy transformacje która: Likwiduje korelacje Skupia energię w kilku komponentach
Bardziej szczegółowoKompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Bardziej szczegółowoWedług raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j
Kompresja transformacyjna. Opis standardu JPEG. Algorytm JPEG powstał w wyniku prac prowadzonych przez grupę ekspertów (ang. Joint Photographic Expert Group). Prace te zakończyły się w 1991 roku, kiedy
Bardziej szczegółowoObliczenia inteligentne Zadanie 4
Sieci SOM Poniedziałek, 10:15 2007/2008 Krzysztof Szcześniak Cel Celem zadania jest zaimplementowanie neuronowej samoorganizującej się mapy wraz z metodą jej nauczania algorytmem gazu neuronowego. Część
Bardziej szczegółowoZałożenia i obszar zastosowań. JPEG - algorytm kodowania obrazu. Geneza algorytmu KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
Założenia i obszar zastosowań KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Plan wykładu: Geneza algorytmu Założenia i obszar zastosowań JPEG kroki algorytmu kodowania obrazu Założenia: Obraz monochromatyczny
Bardziej szczegółowoPolitechnika Świętokrzyska. Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 6. Transformata cosinusowa. Krótkookresowa transformata Fouriera.
Politechnika Świętokrzyska Laboratorium Cyfrowe przetwarzanie sygnałów Ćwiczenie 6 Transformata cosinusowa. Krótkookresowa transformata Fouriera. Cel ćwiczenia Celem ćwiczenia jest zapoznanie studentów
Bardziej szczegółowoTransformata Fouriera
Transformata Fouriera Program wykładu 1. Wprowadzenie teoretyczne 2. Algorytm FFT 3. Zastosowanie analizy Fouriera 4. Przykłady programów Wprowadzenie teoretyczne Zespolona transformata Fouriera Jeżeli
Bardziej szczegółowoLekcja 5: Sieć Kohonena i sieć ART
Lekcja 5: Sieć Kohonena i sieć ART S. Hoa Nguyen 1 Materiał Sieci Kohonena (Sieć samo-organizująca) Rysunek 1: Sieć Kohonena Charakterystyka sieci: Jednowarstwowa jednokierunkowa sieć. Na ogół neurony
Bardziej szczegółowoInżynieria obrazów cyfrowych. Ćwiczenie 5. Kompresja JPEG
Doc. dr inż. Jacek Jarnicki Instytut Informatyki, Automatyki i Robotyki Politechniki Wrocławskiej jacek.jarnicki@pwr.wroc.pl Inżynieria obrazów cyfrowych Ćwiczenie 5 Kompresja JPEG Zadaniem ćwiczenia jest
Bardziej szczegółowoJoint Photographic Experts Group
Joint Photographic Experts Group Artur Drozd Uniwersytet Jagielloński 14 maja 2010 1 Co to jest JPEG? Dlaczego powstał? 2 Transformata Fouriera 3 Dyskretna transformata kosinusowa (DCT-II) 4 Kodowanie
Bardziej szczegółowoTransformaty. Kodowanie transformujace
Transformaty. Kodowanie transformujace Kodowanie i kompresja informacji - Wykład 10 10 maja 2009 Szeregi Fouriera Każda funkcję okresowa f (t) o okresie T można zapisać jako f (t) = a 0 + a n cos nω 0
Bardziej szczegółowoDef. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne
Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu
Bardziej szczegółowoKOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG
KOMPRESJA OBRAZÓW STATYCZNYCH - ALGORYTM JPEG Joint Photographic Expert Group - 1986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoKompresja bezstratna. Entropia. Kod Huffmana
Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)
Bardziej szczegółowoKwantyzacja wektorowa. Kodowanie różnicowe.
Kwantyzacja wektorowa. Kodowanie różnicowe. Kodowanie i kompresja informacji - Wykład 7 12 kwietnia 2010 Kwantyzacja wektorowa wprowadzenie Zamiast kwantyzować pojedyncze elementy kwantyzujemy całe bloki
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia dzienne Wykład 9,
1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej
Bardziej szczegółowoS O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Bardziej szczegółowoKompresja Kodowanie arytmetyczne. Dariusz Sobczuk
Kompresja Kodowanie arytmetyczne Dariusz Sobczuk Kodowanie arytmetyczne (lata 1960-te) Pierwsze prace w tym kierunku sięgają początków lat 60-tych XX wieku Pierwszy algorytm Eliasa nie został opublikowany
Bardziej szczegółowoKompresja dźwięku w standardzie MPEG-1
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 7, strona 1. Kompresja dźwięku w standardzie MPEG-1 Ogólne założenia kompresji stratnej Zjawisko maskowania psychoakustycznego Schemat blokowy
Bardziej szczegółowoWybrane metody kompresji obrazów
Wybrane metody kompresji obrazów Celem kodowania kompresyjnego obrazu jest redukcja ilości informacji w nim zawartej. Redukcja ta polega na usuwaniu informacji nadmiarowej w obrazie, tzw. redundancji.
Bardziej szczegółowoKompresja obrazów w statycznych - algorytm JPEG
Kompresja obrazów w statycznych - algorytm JPEG Joint Photographic Expert Group - 986 ISO - International Standard Organisation CCITT - Comité Consultatif International de Téléphonie et Télégraphie Standard
Bardziej szczegółowoCo to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Bardziej szczegółowo0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
Bardziej szczegółowoTemat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Bardziej szczegółowoMicha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2)
Micha Strzelecki Metody przetwarzania i analizy obrazów biomedycznych (2) Prezentacja multimedialna współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie Innowacyjna
Bardziej szczegółowoNierówność Krafta-McMillana, Kodowanie Huffmana
Nierówność Krafta-McMillana, Kodowanie Huffmana Kodowanie i kompresja informacji - Wykład 2 1 marca 2010 Test na jednoznaczna dekodowalność Kod a jest prefiksem kodu b jeśli b jest postaci ax. x nazywamy
Bardziej szczegółowoSztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Bardziej szczegółowoCyfrowe przetwarzanie i kompresja danych
Cyfrowe przetwarzanie i kompresja danych dr inż.. Wojciech Zając Wykład 5. Dyskretna transformata falkowa Schemat systemu transmisji danych wizyjnych Źródło danych Przetwarzanie Przesył Przetwarzanie Prezentacja
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych klasyfikacja LABORKA Piotr Ciskowski zadanie 1. klasyfikacja zwierząt sieć jednowarstwowa żródło: Tadeusiewicz. Odkrywanie własności sieci neuronowych, str. 159 Przykład
Bardziej szczegółowoKlasyfikacja metod kompresji
dr inż. Piotr Odya Klasyfikacja metod kompresji Metody bezstratne Zakodowany strumień danych po dekompresji jest identyczny z oryginalnymi danymi przed kompresją, Metody stratne W wyniku kompresji część
Bardziej szczegółowoKompresja danych DKDA (7)
Kompresja danych DKDA (7) Marcin Gogolewski marcing@wmi.amu.edu.pl Uniwersytet im. Adama Mickiewicza w Poznaniu Poznań, 22 listopada 2016 1 Kwantyzacja skalarna Wprowadzenie Analiza jakości Typy kwantyzatorów
Bardziej szczegółowoKompresja video (MPEG)
mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 8, strona 1. Kompresja video (MEG) Zasadniczy schemat kompresora video Typy ramek przy kompresji czasowej Analiza ramek przez syntezę Sposób detekcji
Bardziej szczegółowoGrafika Komputerowa Wykład 2. Przetwarzanie obrazów. mgr inż. Michał Chwesiuk 1/38
Wykład 2 Przetwarzanie obrazów mgr inż. 1/38 Przetwarzanie obrazów rastrowych Jedna z dziedzin cyfrowego obrazów rastrowych. Celem przetworzenia obrazów rastrowych jest użycie edytujących piksele w celu
Bardziej szczegółowoKwantowanie sygnałów analogowych na przykładzie sygnału mowy
Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze
Bardziej szczegółowoKodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11,
1 Kwantyzacja skalarna Kodowanie i kompresja Streszczenie Studia Licencjackie Wykład 11, 10.05.005 Kwantyzacja polega na reprezentowaniu dużego zbioru wartości (być może nieskończonego) za pomocą wartości
Bardziej szczegółowoSpośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.
Filtracja nieliniowa może być bardzo skuteczną metodą polepszania jakości obrazów Filtry nieliniowe Filtr medianowy Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy
Bardziej szczegółowoPython: JPEG. Zadanie. 1. Wczytanie obrazka
Python: JPEG Witajcie! Jest to kolejny z serii tutoriali uczący Pythona, a w przyszłości być może nawet Cythona i Numby Jeśli chcesz nauczyć się nowych, zaawansowanych konstrukcji to spróbuj rozwiązać
Bardziej szczegółowoKodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości
Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry
Bardziej szczegółowoZastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner. rok akademicki 2014/2015
Zastosowanie metod eksploracji danych Data Mining w badaniach ekonomicznych SAS Enterprise Miner rok akademicki 2014/2015 Sieci Kohonena Sieci Kohonena Sieci Kohonena zostały wprowadzone w 1982 przez fińskiego
Bardziej szczegółowoSystemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
Bardziej szczegółowoWOJSKOWA AKADEMIA TECHNICZNA
WOJSKOWA AKADEMIA TECHNICZNA LABORATORIUM CYFROWE PRZETWARZANIE SYGNAŁÓW Stopień, imię i nazwisko prowadzącego Imię oraz nazwisko słuchacza Grupa szkoleniowa Data wykonania ćwiczenia dr inż. Andrzej Wiśniewski
Bardziej szczegółowoKlasyfikacja metod kompresji
dr inż. Piotr Odya Klasyfikacja metod kompresji Metody bezstratne Zakodowany strumień danych po dekompresji jest identyczny z oryginalnymi danymi przed kompresją, Metody stratne W wyniku kompresji część
Bardziej szczegółowoFFT i dyskretny splot. Aplikacje w DSP
i dyskretny splot. Aplikacje w DSP Marcin Jenczmyk m.jenczmyk@knm.katowice.pl Wydział Matematyki, Fizyki i Chemii 10 maja 2014 M. Jenczmyk Sesja wiosenna KNM 2014 i dyskretny splot 1 / 17 Transformata
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 8 Transformaty i kodowanie cz. 2. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 8 Transformaty i kodowanie cz. 2 Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS
Bardziej szczegółowoTechnika audio część 2
Technika audio część 2 Wykład 12 Projektowanie cyfrowych układów elektronicznych Mgr inż. Łukasz Kirchner lukasz.kirchner@cs.put.poznan.pl http://www.cs.put.poznan.pl/lkirchner Wprowadzenie do filtracji
Bardziej szczegółowoDane obrazowe. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski
Dane obrazowe R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski www.il.pw.edu.pl/~rg s-rg@siwy.il.pw.edu.pl Przetwarzanie danych obrazowych! Przetwarzanie danych obrazowych przyjmuje trzy formy:! Grafikę
Bardziej szczegółowoAlgorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Bardziej szczegółowodr inż. Piotr Odya dr inż. Piotr Suchomski
dr inż. Piotr Odya dr inż. Piotr Suchomski Podział grafiki wektorowa; matematyczny opis rysunku; małe wymagania pamięciowe (i obliczeniowe); rasteryzacja konwersja do postaci rastrowej; rastrowa; tablica
Bardziej szczegółowoKompresja Danych. Streszczenie Studia Dzienne Wykład 13, f(t) = c n e inω0t, T f(t)e inω 0t dt.
1 Kodowanie podpasmowe Kompresja Danych Streszczenie Studia Dzienne Wykład 13, 18.05.2006 1.1 Transformaty, próbkowanie i filtry Korzystamy z faktów: Każdą funkcję okresową można reprezentować w postaci
Bardziej szczegółowo8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
Bardziej szczegółowoCyfrowe Przetwarzanie Obrazów i Sygnałów
Cyfrowe Przetwarzanie Obrazów i Sygnałów Laboratorium EX Lokalne transformacje obrazów Joanna Ratajczak, Wrocław, 28 Cel i zakres ćwiczenia Celem ćwiczenia jest zapoznanie się z własnościami lokalnych
Bardziej szczegółowoAlgorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Bardziej szczegółowo9. Dyskretna transformata Fouriera algorytm FFT
Transformata Fouriera ma szerokie zastosowanie w analizie i syntezie układów i systemów elektronicznych, gdyż pozwala na połączenie dwóch sposobów przedstawiania sygnałów reprezentacji w dziedzinie czasu
Bardziej szczegółowoAkademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki Przetwarzanie Sygnałów Studia Podyplomowe, Automatyka i Robotyka. Wstęp teoretyczny Zmienne losowe Zmienne losowe
Bardziej szczegółowoAlgorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Bardziej szczegółowoMETODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING
METODY INŻYNIERII WIEDZY KNOWLEDGE ENGINEERING AND DATA MINING NEURONOWE MAPY SAMOORGANIZUJĄCE SIĘ Self-Organizing Maps SOM Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki,
Bardziej szczegółowoBIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat
BIBLIOTEKA PROGRAMU R - BIOPS Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat Biblioteka biops zawiera funkcje do analizy i przetwarzania obrazów. Operacje geometryczne (obrót, przesunięcie,
Bardziej szczegółowoZastosowanie kompresji w kryptografii Piotr Piotrowski
Zastosowanie kompresji w kryptografii Piotr Piotrowski 1 Plan prezentacji I. Wstęp II. Kryteria oceny algorytmów III. Główne klasy algorytmów IV. Przykłady algorytmów selektywnego szyfrowania V. Podsumowanie
Bardziej szczegółowoPrzetwarzanie analogowo-cyfrowe sygnałów
Przetwarzanie analogowo-cyfrowe sygnałów A/C 111111 1 Po co przekształcać sygnał do postaci cyfrowej? Można stosować komputerowe metody rejestracji, przetwarzania i analizy sygnałów parametry systemów
Bardziej szczegółowoĆwiczenie 4. Filtry o skończonej odpowiedzi impulsowej (SOI)
Politechnika Wrocławska Wydział Elektroniki Mikrosystemów i Fotoniki Przetwarzanie sygnałów laboratorium ETD5067L Ćwiczenie 4. Filtry o skończonej odpowiedzi impulsowej (SOI) 1. Filtracja cyfrowa podstawowe
Bardziej szczegółowoZadania do wykonania. Rozwiązując poniższe zadania użyj pętlę for.
Zadania do wykonania Rozwiązując poniższe zadania użyj pętlę for. 1. apisz program, który przesuwa w prawo o dwie pozycje zawartość tablicy 10-cio elementowej liczb całkowitych tzn. element t[i] dla i=2,..,9
Bardziej szczegółowoInstrukcja realizacji ćwiczenia
SIEĆ KOHONENA ROZPOZNAWANIE OBRAZÓW Cel ćwiczenia: zapoznanie się ze sposobem reprezentacji wiedzy w sieciach Kohonena i mechanizmami sąsiedztwa i sumienia neuronów. Zadanie do analizy: analizujemy sieć
Bardziej szczegółowoKompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu
Kompresja JPG obrazu sonarowego z uwzględnieniem założonego poziomu błędu Mariusz Borawski Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Zbieranie danych Obraz sonarowy
Bardziej szczegółowoKody Tunstalla. Kodowanie arytmetyczne
Kody Tunstalla. Kodowanie arytmetyczne Kodowanie i kompresja informacji - Wykład 3 8 marca 2010 Kody Tunstalla Wszystkie słowa kodowe maja ta sama długość ale jeden kod może kodować różna liczbę liter
Bardziej szczegółowoAutomatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Bardziej szczegółowoKodowanie transformujace. Kompresja danych. Tomasz Jurdziński. Wykład 11: Transformaty i JPEG
Tomasz Wykład 11: Transformaty i JPEG Idea kodowania transformujacego Etapy kodowania 1 Wektor danych x 0,...,x N 1 przekształcamy (odwracalnie!) na wektor c 0,...,c N 1, tak aby: energia była skoncentrowana
Bardziej szczegółowoPodstawy Przetwarzania Sygnałów
Adam Szulc 188250 grupa: pon TN 17:05 Podstawy Przetwarzania Sygnałów Sprawozdanie 6: Filtracja sygnałów. Filtry FIT o skończonej odpowiedzi impulsowej. 1. Cel ćwiczenia. 1) Przeprowadzenie filtracji trzech
Bardziej szczegółowoKODY SYMBOLI. Kod Shannona-Fano. Algorytm S-F. Przykład S-F
KODY SYMBOLI Kod Shannona-Fano KODOWANIE DANYCH, A.Przelaskowski Metoda S-F Kod Huffmana Adaptacyjne drzewo Huffmana Problemy implementacji Kod Golomba Podsumowanie Kod drzewa binarnego Na wejściu rozkład:
Bardziej szczegółowoMaciej Piotr Jankowski
Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji
Bardziej szczegółowoKodowanie podpasmowe. Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania
Kodowanie podpasmowe Plan 1. Zasada 2. Filtry cyfrowe 3. Podstawowy algorytm 4. Zastosowania Zasada ogólna Rozkład sygnału źródłowego na części składowe (jak w kodowaniu transformacyjnym) Wada kodowania
Bardziej szczegółowoAlgorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Bardziej szczegółowoObliczenia iteracyjne
Lekcja Strona z Obliczenia iteracyjne Zmienne iteracyjne (wyliczeniowe) Obliczenia iteracyjne wymagają zdefiniowania specjalnej zmiennej nazywanej iteracyjną lub wyliczeniową. Zmienną iteracyjną od zwykłej
Bardziej szczegółowoMetody sztucznej inteligencji Zadanie 3: (1) klasteryzacja samoorganizująca się mapa Kohonena, (2) aproksymacja sieć RBF.
Metody sztucznej inteligencji Zadanie 3: ( klasteryzacja samoorganizująca się mapa Kohonena, (2 aproksymacja sieć RBF dr inż Przemysław Klęsk Klasteryzacja za pomocą samoorganizującej się mapy Kohonena
Bardziej szczegółowoSieci Kohonena Grupowanie
Sieci Kohonena Grupowanie http://zajecia.jakubw.pl/nai UCZENIE SIĘ BEZ NADZORU Załóżmy, że mamy za zadanie pogrupować następujące słowa: cup, roulette, unbelievable, cut, put, launderette, loveable Nie
Bardziej szczegółowo3. Macierze i Układy Równań Liniowych
3. Macierze i Układy Równań Liniowych Rozważamy równanie macierzowe z końcówki ostatniego wykładu ( ) 3 1 X = 4 1 ( ) 2 5 Podstawiając X = ( ) x y i wymnażając, otrzymujemy układ 2 równań liniowych 3x
Bardziej szczegółowoWstęp do sieci neuronowych, wykład 03 Warstwy RBF, jednostka Adaline.
Wstęp do sieci neuronowych, wykład 3 Warstwy, jednostka Adaline. Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 211-1-18 1 Pomysł Przykłady Zastosowanie 2
Bardziej szczegółowoModelowanie motywów łańcuchami Markowa wyższego rzędu
Modelowanie motywów łańcuchami Markowa wyższego rzędu Uniwersytet Warszawski Wydział Matematyki, Informatyki i Mechaniki 23 października 2008 roku Plan prezentacji 1 Źródła 2 Motywy i ich znaczenie Łańcuchy
Bardziej szczegółowoNiech x 1,..., x n będzie ciągiem zdarzeń. ---
Matematyczne podstawy kryptografii, Ćw2 TEMAT 7: Teoria Shannona. Kody Huffmana, entropia. BIBLIOGRAFIA: [] Cz. Bagiński, cez.wipb.pl, [2] T. H. Cormen, C. E. Leiserson, R. L Rivest, Wprowadzenie do algorytmów,
Bardziej szczegółowodr inż. Piotr Odya Wprowadzenie
dr inż. Piotr Odya Wprowadzenie Dane multimedialne to przede wszystkim duże strumienie danych liczone w MB a coraz częściej w GB; Mimo dynamicznego rozwoju technologii pamięci i coraz szybszych transferów
Bardziej szczegółowoPodstawy programowania 2. Temat: Drzewa binarne. Przygotował: mgr inż. Tomasz Michno
Instrukcja laboratoryjna 5 Podstawy programowania 2 Temat: Drzewa binarne Przygotował: mgr inż. Tomasz Michno 1 Wstęp teoretyczny Drzewa są jedną z częściej wykorzystywanych struktur danych. Reprezentują
Bardziej szczegółowoUczenie sieci radialnych (RBF)
Uczenie sieci radialnych (RBF) Budowa sieci radialnej Lokalne odwzorowanie przestrzeni wokół neuronu MLP RBF Budowa sieci radialnych Zawsze jedna warstwa ukryta Budowa neuronu Neuron radialny powinien
Bardziej szczegółowo4 Zasoby językowe Korpusy obcojęzyczne Korpusy języka polskiego Słowniki Sposoby gromadzenia danych...
Spis treści 1 Wstęp 11 1.1 Do kogo adresowana jest ta książka... 12 1.2 Historia badań nad mową i językiem... 12 1.3 Obecne główne trendy badań... 16 1.4 Opis zawartości rozdziałów... 18 2 Wyzwania i możliwe
Bardziej szczegółowoLABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ.
LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 1. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ. Transformacja falkowa (ang. wavelet falka) przeznaczona jest do analizy
Bardziej szczegółowoInformatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
Bardziej szczegółowoMATLAB Neural Network Toolbox przegląd
MATLAB Neural Network Toolbox przegląd WYKŁAD Piotr Ciskowski Neural Network Toolbox: Neural Network Toolbox - zastosowania: przykłady zastosowań sieci neuronowych: The 1988 DARPA Neural Network Study
Bardziej szczegółowoSortowanie. Bartman Jacek Algorytmy i struktury
Sortowanie Bartman Jacek jbartman@univ.rzeszow.pl Algorytmy i struktury danych Sortowanie przez proste wstawianie przykład 41 56 17 39 88 24 03 72 41 56 17 39 88 24 03 72 17 41 56 39 88 24 03 72 17 39
Bardziej szczegółowoPrzedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.
Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2. Technika obrazu 24 W.3. Normalizacja w zakresie obrazu cyfrowego
Bardziej szczegółowoProgramowanie genetyczne, gra SNAKE
STUDENCKA PRACOWNIA ALGORYTMÓW EWOLUCYJNYCH Tomasz Kupczyk, Tomasz Urbański Programowanie genetyczne, gra SNAKE II UWr Wrocław 2009 Spis treści 1. Wstęp 3 1.1. Ogólny opis.....................................
Bardziej szczegółowoFundamentals of Data Compression
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
Bardziej szczegółowoZastosowania sieci neuronowych
Zastosowania sieci neuronowych aproksymacja LABORKA Piotr Ciskowski zadanie 1. aproksymacja funkcji odległość punktów źródło: Żurada i in. Sztuczne sieci neuronowe, przykład 4.4, str. 137 Naucz sieć taką
Bardziej szczegółowoPrzekształcenia punktowe
Przekształcenia punktowe Przekształcenia punktowe realizowane sa w taki sposób, że wymagane operacje wykonuje sie na poszczególnych pojedynczych punktach źródłowego obrazu, otrzymujac w efekcie pojedyncze
Bardziej szczegółowoSztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych. Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010
Sztuczne sieci neuronowe i sztuczna immunologia jako klasyfikatory danych Dariusz Badura Letnia Szkoła Instytutu Matematyki 2010 Sieci neuronowe jednokierunkowa wielowarstwowa sieć neuronowa sieci Kohonena
Bardziej szczegółowoAlgorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, rozważane dotychczas problemy koncentrowały się na nauczeniu na podstawie zbioru treningowego i zbioru etykiet klasyfikacji
Bardziej szczegółowoMenu Narzędzia w Edytorze symboli i Edytorze Widoku aparatów
Menu Narzędzia w Edytorze symboli i Edytorze Widoku aparatów Wyświetlanie właściwości elementów Polecenie umożliwia wyświetlenie właściwości elementu. Narzędzia > Status > Elementu Menu kontekstowe: Status
Bardziej szczegółowoUKŁADY ALGEBRAICZNYCH RÓWNAŃ LINIOWYCH
Transport, studia niestacjonarne I stopnia, semestr I Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Ewa Pabisek Adam Wosatko Postać układu równań liniowych Układ liniowych równań algebraicznych
Bardziej szczegółowoAlgorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
Bardziej szczegółowoKlasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Bardziej szczegółowoPrzetwarzanie i transmisja danych multimedialnych. Wykład 7 Transformaty i kodowanie. Przemysław Sękalski.
Przetwarzanie i transmisja danych multimedialnych Wykład 7 Transformaty i kodowanie Przemysław Sękalski sekalski@dmcs.pl Politechnika Łódzka Katedra Mikroelektroniki i Technik Informatycznych DMCS Wykład
Bardziej szczegółowoAlgorytmy i struktury danych. wykład 8
Plan wykładu: Kodowanie. : wyszukiwanie wzorca w tekście, odległość edycyjna. Kodowanie Kodowanie Kodowanie jest to proces przekształcania informacji wybranego typu w informację innego typu. Kod: jest
Bardziej szczegółowo