ZASTOSOWANIE SIECI NEURONOWYCH DO KOMPRESJI OBRAZU

Podobne dokumenty
Poprawa efektywnoci metody wstecznej propagacji bdu. Jacek Bartman

Daniel Kierepka. Kompresja obrazów za pomoc sztucznych sieci neuronowych

WYKŁAD 4 PLAN WYKŁADU. Sieci neuronowe: Algorytmy uczenia & Dalsze zastosowania. Metody uczenia sieci: Zastosowania

Bazy danych Podstawy teoretyczne

Algorytmy kodowania predykcyjnego

stopie szaro ci piksela ( x, y)

Kompresja obrazu z wykorzystaniem transformaty Karhunena-Loeve

Uczenie Wielowarstwowych Sieci Neuronów o

Program do konwersji obrazu na cig zero-jedynkowy

Planowanie adresacji IP dla przedsibiorstwa.

przewidywania zapotrzebowania na moc elektryczn

Elementy Sztucznej Inteligencji

KLUCZ PUNKTOWANIA ODPOWIEDZI

Projektowanie i analiza zadaniowa interfejsu na przykładzie okna dialogowego.

Elementy Sztucznej Inteligencji

Sztuczna Inteligencja Tematy projektów Sieci Neuronowe

Elementy pneumatyczne

Reprezentacje danych multimedialnych - grafika. 1. Terminologia 2. Obrazy czarno-białe 3. Obrazy kolorowe 4. Paleta 5.

Dyskretyzacja sygnałów cigłych.

I Powiatowy Konkurs Matematyka, Fizyka i Informatyka w Technice Etap finałowy 10 kwietnia 2013 grupa elektryczno-elektroniczna

6.2. Baza i wymiar. V nazywamy baz-

Według raportu ISO z 1988 roku algorytm JPEG składa się z następujących kroków: 0.5, = V i, j. /Q i, j

Izolacja Anteny szerokopasmowe i wskopasmowe

INSTYTUT TECHNIKI Zakad Elektrotechniki i Informatyki mdymek@univ.rzeszow.pl COREL PHOTO-PAINT

Nurkowanie z butl? i nurkowanie na wstrzymanym oddechu tego samego dnia wytyczne DAN.

Kompresja danych - wprowadzenie. 1. Konieczno kompresji 2. Definicja, typy kompresji 3. Modelowanie 4. Podstawy teorii informacji 5.

Wojciech Drzewiecki SYSTEMY INFORMACJI GEOGRAFICZNEJ

Temat: Technika zachłanna. Przykłady zastosowania. Własno wyboru zachłannego i optymalnej podstruktury.

Rys1. Schemat blokowy uk adu. Napi cie wyj ciowe czujnika [mv]

PREZENTACJA DZIAŁANIA KLASYCZNEGO ALGORYTMU GENETYCZNEGO

Rys1 Rys 2 1. metoda analityczna. Rys 3 Oznaczamy prdy i spadki napi jak na powyszym rysunku. Moemy zapisa: (dla wzłów A i B)

Sztuczne Sieci Neuronowe

SIEMENS GIGASET REPEATER

Projekt okablowania strukturalnego dla I semestru Akademii CISCO we WSIZ Copernicus we Wrocławiu

PROWIZJE Menad er Schematy rozliczeniowe

Metoda statystycznej oceny klasy uszkodze materiałów pracujcych w warunkach pełzania *

Argumenty na poparcie idei wydzielenia OSD w formie tzw. małego OSD bez majtku.

Tworzenie bazy danych Biblioteka tworzenie tabel i powiza, manipulowanie danymi. Zadania do wykonani przed przystpieniem do pracy:

Ocena kształtu wydziele grafitu w eliwie sferoidalnym metod ATD

Sztuczne sieci neuronowe

WYKORZYSTANIE SIECI NEURONOWEJ DO BADANIA WPŁYWU WYDOBYCIA NA SEJSMICZNOŚĆ W KOPALNIACH WĘGLA KAMIENNEGO. Stanisław Kowalik (Poland, Gliwice)

Laboratorium elektryczne. Falowniki i przekształtniki - I (E 14)

Konspekt lekcji matematyki klasa 4e Liceum Ogólnokształcce

MODELOWANIE FAZ ZNI ANIA I L DOWANIA SAMOLOTU BOEING ER PRZY U YCIU SZTUCZNYCH SIECI NEURONOWYCH

Sieci samoorganizujce si. Jacek Bartman

ODPOWIEDZI I SCHEMAT PUNKTOWANIA ZESTAW NR 2 POZIOM PODSTAWOWY. 1. x y x y

Instrukcja obsługi programu MechKonstruktor

Plan wykładu. Reguły asocjacyjne. Przykłady asocjacji. Reguły asocjacyjne. Jeli warunki to efekty. warunki efekty

OCENIANIE ARKUSZA POZIOM ROZSZERZONY

Obliczenia inteligentne Zadanie 4

Multipro GbE. Testy RFC2544. Wszystko na jednej platformie

SENTE Produkcja. Tworzymy dla Ciebie. Prezentacja programu. planowanie i kontrola procesów wytwórczych. SENTE Systemy Informatyczne Sp. z o.o.

Rys.1 Schemat blokowy uk adu miliwatomierza.

Analiza parametrów krystalizacji eliwa chromowego w odlewach o rónych modułach krzepnicia

OP ATY ZA US UG ZBIOROWEGO ODPROWADZANIA I OCZYSZCZANIA CIEKÓW A ZASADA SPRAWCA ZANIECZYSZCZENIA P ACI

Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa. Rysowanie linii (1) Rysowanie piksela

parowania wody oraz uwarunkowanego procesem rozprowadzenia roztworu zmienia si" st"#enie polimeru. (np. hartowanie powierzchni kó$ z"batych)

Program Sprzeda wersja 2011 Korekty rabatowe

Metody Informatyczne w Budownictwie Metoda Elementów Skoczonych ZADANIE NR 1

Listy i operacje pytania

Badania marketingowe w pigułce

DIAGNOZOWANIE STANÓW ZDOLNO CI JAKO CIOWEJ PROCESU PRODUKCYJNEGO

Ekonometria. wiczenia 1 Regresja liniowa i MNK. Andrzej Torój. Instytut Ekonometrii Zakªad Ekonometrii Stosowanej

AUTO-ENKODER JAKO SKŠADNIK ARCHITEKTURY DEEP LEARNING

Sztuczne sieci neuronowe. Krzysztof A. Cyran POLITECHNIKA ŚLĄSKA Instytut Informatyki, p. 335

KONKURENCJA DOSKONA!A

Rasteryzacja (ang. rasterization or scan-conversion) Grafika rastrowa. Rysowanie linii (1) Rysowanie piksela. Rysowanie linii: Kod programu

Wstp. Warto przepływu to

Program SMS4 Monitor

Metody Sztucznej Inteligencji II

Wstęp do teorii sztucznej inteligencji Wykład III. Modele sieci neuronowych.

Instrukcja obsługi programu DIALux 2.6

wiczenie 5 Woltomierz jednokanaowy

Wektor o pocztku i kocu odpowiednio w punktach. Prosta zawierajca punkty p i q: pq Półprosta zaczynajca si w punkcie p i zawierajca punkt q:.

s FAQ: NET 08/PL Data: 01/08/2011

Funkcja liniowa poziom podstawowy

Temat: Sieci neuronowe oraz technologia CUDA

Lab. 02: Algorytm Schrage

DLA KOGO UMOWY ENTERPRISE?

1) Grafy eulerowskie własnoci algorytmy. 2) Problem chiskiego listonosza

Lista kontrolna umowy z podwykonawc

Opracowanie wyników konkursu GALILEO 2015

i, lub, nie Cegieªki buduj ce wspóªczesne procesory. Piotr Fulma«ski 5 kwietnia 2017

Temat: Sztuczne Sieci Neuronowe. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE

Analiza wpływu pierwiastków stopowych na hartowno stali *)

ANALIZA NUMERYCZNA. Grzegorz Szkibiel. Wiosna 2014/15

Poradnik korzystania z serwisu UNET: Dostp do poczty elektronicznej ze strony WWW

KLUCZ PUNKTOWANIA ODPOWIEDZI

Zasilanie urzdze elektronicznych laboratorium IV rok Elektronika Morska

DEKOMPOZYCJA HIERARCHICZNEJ STRUKTURY SZTUCZNEJ SIECI NEURONOWEJ I ALGORYTM KOORDYNACJI

WYZNACZANIE OPTYMALNEJ KONFIGURACJI ZROBOTYZOWANEGO STANOWISKA MONTA OWEGO

wiczenie nr 3 z przedmiotu Metody prognozowania kwiecie«2015 r. Metodyka bada«do±wiadczalnych dr hab. in». Sebastian Skoczypiec Cel wiczenia Zaªo»enia

SUPLEMENT SM-BOSS WERSJA 5.07

Literatura. Sztuczne sieci neuronowe. Przepływ informacji w systemie nerwowym. Budowa i działanie mózgu

Temat: Problem minimalnego drzewa Steinera. Definicja problemu. Zastosowania. Algorytm dokładny Hakimi. Algorytmy aproksymacyjne.

Cash flow projektu zakładajcego posiadanie własnego magazynu oraz posiłkowanie si magazynem obcym w przypadku sezonowych zwyek

Podstawowe obiekty AutoCAD-a

Ustalenie optymalnego układu lokalizacyjnodystrybucyjnego

Dynamika Uk adów Nieliniowych 2009 Wykład 11 1 Synchronizacja uk adów chaotycznych O synchronizacji mówiliśmy przy okazji języków Arnolda.

Sztuczne siei neuronowe - wprowadzenie

Transkrypt:

Mateusz KOSIKOWSKI Politechnika Koszaliska ZASTOSOWANIE SIECI NEURONOWYCH DO KOMPRESJI OBRAZU. Wstp Sztuczna inteligencja jest najbardziej rozwijajc si dziedzin nauki, informatyki i elektroniki ostatnich kilkudziesiciu lat. Sztuczne sieci neuronowe (SSN), jako jedna z odmian szeroko pojtej sztucznej inteligencji, wykorzystywane s do rozwizywania wszelakiego rodzaju problemów zarówno algorytmicznych, jak i nie algorytmicznych. Przykadem zagadnienia nie algorytmicznego moe by chociaby przewidywanie pogody. Zaleno od wielu parametrów, z których nie wszystkie da si w sposób jednoznaczny okreli, powoduje, e jest to problem, dla którego ciko jest wyznaczy model matematyczny. Bazujc na obserwacjach i wiedzy meteorologów, moliwe jest nauczenie programu komputerowego SSN, okrelania warunków pogodowych dla partykularnych przypadków. Dobrze wytrenowana sie potrafi okreli stany porednie dla zjawisk przyrodniczych, których nie zostaa nauczona waciwoci uogólniajce. Ten prosty przykad obrazuje, jakim wielkim narzdziem stay si SSN. Kompresja obrazu, do której wykorzystuje si coraz czciej SSN, jest problemem, dla którego nie da si jednoznacznie okreli algorytmu w funkcji stopnia kompresji, gdy w tym przypadku nie narzuca si ordynarnie wspóczynnika kompresji, lecz wynika ona z charakteru sieci i obrazów kompresowanych. Bezstratne upakowanie danych jest okrelone wzorem, modelem, który jednoznacznie wyznacza stopie kompresji. Algorytmiczna kompresja stratna daje moliwo zmniejszenia iloci danych kosztem jakoci obrazu. Jednak nie mona sobie pozwoli na zbyt due straty jakoci detali zawartych w obrazie. Kompresja stratna przy zastosowaniu SSN pozwala na wzgldnie due zwikszenie stopnia kompresji, bez znaczcych strat jakoci obrazu. Jest to jednak uzalenione od iloci obrazów, lub sekwencji obrazów jakie sie neuronowa ma przetwarza. Nie da si uzyska duego stopnia upakowania danych dla pojedynczego obrazka przetwarzanego w caoci. Kompresujc wiksz liczb obrazów, ilo miejsca potrzeba na zapisanie danych, znaczco maleje, a adekwatnie to tego ronie wspóczynnik kompresji. Jest to jedn z przyczyn, dla których nie uczy si sieci neuronowej caego obrazu na raz, lecz kolejno jego poszczególnych czci, symulujc w ten sposób wystpowanie wielu obrazów. Taka sie jest mniejsza jeli chodzi i jej budow, szybciej si uczy, jak równie sam algorytm nauczania jest mniej zoony.

46 Mateusz Kosikowski 2. Model i nauczanie SSN Sztuczna sie neuronowa, w pojciu ogólnym, jest modelem matematycznym procesów zachodzcych w mózgu czowieka []. Stwierdzenie to mówi nie tylko o budowie SSN, ale równie dotyczy sposobu uczenia, który jest bardzo zbliony do przyswajania wiedzy przez czowieka. Aby pokaza analogi mózgu czowieka do SSN, spójrzmy na rysunku a, nie patrzc na pozostae. Niemoliwe jest wyobraenie dokadnej zawartoci obrazu. Dzieje si to dlatego, e nigdy wczeniej nie widzielimy tego obrazu i nie nauczylimy si (podwiadomie) jego zawartoci. Przygldajc si obrazowi b, zapamitujemy jego zawarto coraz dokadniej. Ilo iteracji zwizana z nauczaniem sieci neuronowej ronie, maleje bd dokadno odwzorowania. Po pewnym czasie stwierdzamy, e nauczylimy si obrazu i potrafimy go odwzorowa. Jednak nigdy nie bdzie to odwzorowanie w 00% dokadne. Mniej zoone obrazy, takie jak na rysunku c, zapamitujemy znacznie szybciej. Analogicznie SSN równie jest w stanie w duo krótszym czasie przyswoi te informacje. a) b) c) Rys.. Uzupenienia zasonitej czci obrazu przez mozg czowieka analogia do SSN Sztuczna sie neuronowa, w porównaniu do naturalnej, ma do powan wad. Za kadym razem, chcc nauczy j czego nowego, musi zosta ona nauczona caej swej wiedzy ponownie, aby równie j zachowa. Oczywicie ludzki mózg zachowuje si w podobny sposób, ale degradacja wiedzy nastpuje w duo mniejszym stopniu. 2.. Opis formalny sieci Do kompresji i przetwarzania obrazów stosuje si sieci neuronowe wielowarstwowe, przewanie z algorytmem wstecznej propagacji bdów jako metod nauczania (BPN, ang. Back Propagation Net) [2]. Model takiej sieci przedstawia rysunek 2. W praktyce wykorzystuje si sieci o 3 warstwach: wejciowej, wyj- ciowej i ukrytej. Ilo neuronów warstwy ukrytej wpywa znaczco na stopie uzyskanej kompresji.

Zastosowanie sieci neuronowych do kompresji obrazu 47 S ie kom presujca 255 Warstwa wejciowa Warstwa ukryte Warstwa wyjciowa 255 Obraz oryginalny 0.0 0.0.0 0.0 0 Obraz po dekompresji Sie dekompresujca Rys. 2. Schemat kompresji z modelem sieci BPN W przypadku kompresji pojedynczego elementu obrazu wspóczynnik kompresji jest równy stosunkowi iloci neuronów warstwy wyjciowej do ukrytej. W rzeczywistoci warto ta jest nieco inna, gdy w przypadku kompresji obrazu neurony wejciowe zawieraj wartoci cakowite, natomiast neurony warstwy ukrytej mog zawiera wartoci rzeczywiste. Ponadto, do odtworzenia obrazu, poza zawartoci neuronów warstwy rodkowej, naley równie przechowa wartoci pocze midzy neuronami. Sie neuronowa charakteryzuje si okrelon topologi (), w skad której wchodz macierz warstw W oraz macierz pocze P. T = (W, P) () W = {l, l 2,, l n } (2) l i = {n i.j } (3) P = w } (4) { i, j k, l gdzie: l warstwa wejciowa, l 2,, l n- warstwy ukryte, l n warstwa wyjciowa, n i, j identyfikuje j-ty neuron i-tej warstwy, waga poczenia j-go neuronu z i-tej warstwy z l-tym neuronem w i, j k, l k-tej warstwy. Dla tak opisanej sieci, okreli mona dokadnie wartoci neuronów, oraz pocze pomidzy nimi w funkcji iteracji uczenia sieci, oczywicie w zalenoci od zastosowanego algorytmu nauczania. Wartoci neuronów warstwy wejciowej (5) zalene s od zbioru wejciowego (uczcego lub testowego - A). Zbiór uczcy charakteryzuje si cigiem liczb uoonych w okrelonej kolejnoci. Liczba elementów zbioru uczcego ustalona jest przez sum iloci neuronów wejciowych i wyjciowych.

48 Mateusz Kosikowski n, j ( t ) = a m, j n + (5) l i ( t + ) = f n + i, k ( t ) wi, k i, j ( t dla i (6) k = 0 i, j ) f ( x) = (7) x + e gdzie: a m,j A j-ty elementu m-tego podzbioru uczcego A, t numer iteracji nauczania sieci. Wartoci neuronów warstw ukrytych i wyjciowej zalene s cile on funkcji aktywacji neuronu (7). Od tego czynnika zaley równie algorytm uczenia sieci. Do kompresji obrazu wykorzystano standardowy algorytm wstecznej propagacji bdu z sigmoidaln funkcj aktywacji. Bd warstwy wyjciowej okre- la si na podstawie rónicy wartoci oczekiwanej i wartoci neuronów wyj- ciowych w kadej iteracji. Bd neuronów kolejnych warstw jest wyznaczany na podstawie bdu warstwy nastpnej, pochodnej funkcji aktywacji neuronu oraz wspóczynnika uczenia. 3. Nauczanie SSN Nie jest moliwe, aby w jednoznaczny sposób okreli liczb wymaganych iteracji potrzebnych do nauczenia sieci. Jest ona cile zalena od wielkoci zbioru uczcego, iloci neuronów warstw ukrytych oraz zaoonego, dopuszczalnego bdu, jaki moe generowa sie. Mimo e przebieg nauczania sieci z przeznaczeniem do kompresji obrazu jest wzgldnie szybki, gdy dane wejciowe oraz oczekiwane na wyjciu sieci s dokadnie takie same, wzrost rozmiaru zbioru uczcego moe jednak znacznie spowolni ten proces. Naley zatem zada sobie pytanie, czy niedouczona sie neuronowa moe dziaa poprawnie. Oczywicie w wielu przypadkach jest to moliwe. Dowodem tego jest eksperyment przeprowadzony na sieci typu ADALINE. Rysunek 3a obrazuje pooenie wektorów uczcych na paszczynie. Sie neuronowa z neuronem wyjciowym typu AD- ALINE jest jedn z najprostszych sieci neuronowych. Suy do rozwizywania problemów, których rozwizania s liniowo separowalne, tzn. istnieje linia prosta jednoznacznie oddzielajca obszary przynalenoci pewnych podzbiorów uczcych [3]. Podczas eksperymentu bezbdne nauczenie sieci, dla 50 rónych punktów paszczyzny wchodzcych w skad zbioru uczcego (rysunek 3a), nastpio po 45 iteracjach. Odpowied SSN podczas jej testowania bya w 00% prawidowa (rysunek 3b). Zakócajc zbiór uczcy (rysunek 3c) spowodowano, i sie nie bya w stanie si nauczy. Narzucono wic liczb 00 iteracji nauczania jako maksi-

Zastosowanie sieci neuronowych do kompresji obrazu 49 mum, a nastpnie odczytano odpowiedzi sieci na zbiór testowy. Okazao si, e sie w niektórych przypadkach odpowiedziaa bdnie. Bd ten jednak wynosi zaledwie 4,4% caego zbioru testowego. a) b) c) d) Rys. 3. Wpyw zakócenia zbioru uczcego na nauczanie sieci Ten prosty przykad pokazuje, e w wielu przypadkach SSN potrafi zosta ukierunkowana na poprawne dziaania, mimo e nigdy nie zostaa nauczone caej wiedzy. Wiadomo, e kompresja danych naley do duo bardziej zoonych problemów, jednak pewne cechy sieci neuronowych s analogiczne, bez wzgldu na topologie. 4. Eksperyment 4.. Ocena jakoci obrazu Okrelenie jakoci kompresowanego obrazu w stosunku do wielkoci uzyskanej kompresji uzalenione jest od zdefiniowania metody porównania obrazów: oryginalnego i przetworzonego. Zazwyczaj stosuje si metod korelacji (8), a wic bezporedniego porównania pikseli poszczególnych obrazów [4].

50 Mateusz Kosikowski 4.2. Problem skalowania Sie neuronowa, ze wzgldu na okrelon funkcj aktywacji neuronu, moe generowa jedynie wartoci z przedziau [0,] R lub [-,] R. W zwizku z powyszym wszystkie wartoci pikseli obrazu naley przeskalowa z przedzia- u [ 0;255] C na liczby rzeczywiste uamkowe. Operacja ta, poprzez zaokrglanie, niesie za sob degradacj informacji wikszoci pikseli, która ju nigdy nie zostanie odzyskana. 4.3. Korelacja Badania jasno wskazuj e korelacja obrazów oryginalnego oraz obrazu po dekompresji, w zalenoci od stopnia upakowania danych jest zalena odcinkami liniowo. Rysunek 4 obrazuje przykad takiej zalenoci. Naley jednak zaznaczy, e wykresy te zostay sporzdzone dla rónych typów obrazów pod wzgldem zawartoci i zrónicowania pikselu. W rzeczywistoci wic zalenoci te mog odbiega od przedstawionych poniej. a) E kor 30 K b) 30 c) 30 Rys. 4. Zaleno korelacji od stopnia kompresji, dla 000 iteracji nauczania sieci. Obrazy z palet: a) 6 kolorów, b) 28 kolorów c) 256 kolorów gdzie: K wspóczynnik kompresji, E kor korelacja. Przyjto ponadto nastpujcy wzór okrelajcy korelacj: E kor ' Σ k k = Σ k (8)

Zastosowanie sieci neuronowych do kompresji obrazu 5 gdzie: k zawarto piksela obrazu oryginalnego k zawarto piksela obrazu po dekompresji Poza korelacj, obrazy przetwarzane przez SSN, porównuje si za pomoc tzw. obrazów rónicowych, pokazujc w ten sposób rzeczywiste rónice w obrazie (obserwuje si róne, których stopie wyznacza korelacja). Przykad kompresowanego obrazu oraz obrazu rónicowego reprezentuje rysunek 5. Uzyskano stopie kompresji równy 25, wynikajcy z budowy sieci neuronowej, która uczona bya kolejno poszczególnych czci obrazu. Obraz podzielony zosta na 900 obszarów (0 x 0 pikseli). W rzeczywistoci jednak skompresowany obraz zajmowa 20 razy mniej od oryginau. Spowodowane jest to binarnym zapisem danych, oraz wielkoci nagówka pliku, w którym musz znale si informacje o budowie sieci dekompresujcej (rysunek 2). a) b) c) Rys. 5. Przykad kompresji obrazu ze wspóczynnikiem upakowania równym 25. Wykonano 40000 iteracji nauczania sieci: a) obraz oryginalny, b) obraz po dekompresji, c) obraz rónicowy 4.4. Kompresja bezstratna SSN daje si tak zaprojektowa, aby uzyska kompresj bezstratnej. Metoda polega na binaryzacji zawartoci obrazu, a wic na kodowaniu pikseli kodem binarnym. Majc do czynienia z obrazem o 6 rónych kolorach, w reprezentacji kodowej na kady piksel przypada wic 4-6 neuronów (w zalenoci od. sposobu kodowania), a nie jak w metodzie stratnej jeden. Metoda ta ma do oczywist wad: czas potrzebny na nauczenie sieci znaczco wzrasta, a stopie kompresji jest duo mniejszy, w zwizku tym jest to metoda praktycznie niestosowana.

52 Mateusz Kosikowski 5. Podsumowanie W artykule pokazano, i kompresja obrazu za pomoc sieci neuronowych daje dobre efekty. Nie jest moliwe zapamitanie duej liczby obrazów. Czas nauczania oraz rozmiar sieci, która miaaby je spamita, drastycznie ronie. Aby unikn problemów tego typu, stosuje si hierarchiczny podzia danych. Polega to na tym, e przeznacza si wiksz liczb neuronów wejciowych i wyjciowych na elementy obrazu o duym zrónicowaniu, natomiast dla ta odpowiednio mniej. Kompresja taka przypomina wówczas kompresj standardu JPG. Obraz rónicowy uzyskany poprzez odjcie obrazu przetworzonego przez SSN od oryginau, pokazuje wielko utraconych informacji. Niedoskonao ludzkiego oka oraz doskonao mózgu, jako narzdzia potraficego uzupeni braki w obrazie, sprawia, e kompresja stratna jest powszechnie stosowana. Efekty uboczne niedokadno s czsto stosowane w multimediach, a mimo du- ych rozmiarów, s praktycznie niezauwaalne. Bibliografia:. Sieci neuronowe. T. 6. Praca zbiorowa pod red. M. Nacza. EXIT, Warszawa 2000. 2. Osowski S.: Sieci neuronowe do przetwarzania informacji, OWPW, Warszawa 2000. 3. Biako M.: Sztuczna inteligencja i elementy hybrydowych systemów ekspertowych, WUPK 2005. 4. Tadeusiewicz R.: Komputerowa analiza i przetwarzanie obrazów, WFPT, Kraków 997.