Zagadnienia z Analiza obrazów i technika wizyjna 2004/2005 semestr zimowy



Podobne dokumenty
Przetwarzanie obrazów wykład 7. Adam Wojciechowski

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Analiza obrazów. Segmentacja i indeksacja obiektów

Filtracja obrazu operacje kontekstowe

Metody komputerowego przekształcania obrazów

MODELE KOLORÓW. Przygotował: Robert Bednarz

Analiza obrazów - sprawozdanie nr 2

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.

Przetwarzanie obrazów wykład 4

Teoria światła i barwy

Grafika komputerowa. Dla DSI II

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 10 AiR III

Przetwarzanie obrazów rastrowych macierzą konwolucji

Przetwarzanie obrazu

Diagnostyka obrazowa

POB Odpowiedzi na pytania

Filtracja obrazu operacje kontekstowe

Cyfrowe przetwarzanie obrazów. Dr inż. Michał Kruk

Analiza obrazów - sprawozdanie nr 3

Obraz jako funkcja Przekształcenia geometryczne

Cyfrowe Przetwarzanie Obrazów. Karol Czapnik

Akwizycja obrazów. Zagadnienia wstępne

Zygmunt Wróbel i Robert Koprowski. Praktyka przetwarzania obrazów w programie Matlab

Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 9. Przetwarzanie sygnałów wizyjnych. Politechnika Świętokrzyska.

Analiza obrazu. wykład 4. Marek Jan Kasprowicz Uniwersytet Rolniczy 2009

WYKŁAD 3. Przykłady zmian w obrazie po zastosowaniu Uniwersalnego Operatora Punktowego

0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do

Proste metody przetwarzania obrazu

Diagnostyka obrazowa

Politechnika Świętokrzyska. Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 8. Filtracja uśredniająca i statystyczna.

Filtracja liniowa (metody konwolucyjne, tzn. uwzględniające pewne otoczenie przetwarzanego piksla):

Do opisu kolorów używanych w grafice cyfrowej śluzą modele barw.

Przekształcenia kontekstowe. Filtry nieliniowe Typowy przykład usuwania zakłóceń z obrazu

Pojęcie Barwy. Grafika Komputerowa modele kolorów. Terminologia BARWY W GRAFICE KOMPUTEROWEJ. Marek Pudełko

Ćwiczenie 2. Przetwarzanie graficzne plików. Wprowadzenie teoretyczne

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Implementacja filtru Canny ego

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 2 AiR III

Detekcja twarzy w obrazie

Zasady edycji (cyfrowej) grafiki nieruchomej

Grafika Komputerowa Wykład 2. Przetwarzanie obrazów. mgr inż. Michał Chwesiuk 1/38

Analiza obrazu. wykład 7. Marek Jan Kasprowicz Uniwersytet Rolniczy 2009

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III

Adam Korzeniewski p Katedra Systemów Multimedialnych

Operacje przetwarzania obrazów monochromatycznych

Komputerowe obrazowanie medyczne

PODSTAWY BARWY, PIGMENTY CERAMICZNE

Przekształcenia punktowe

Ćwiczenia z grafiki komputerowej 5 FILTRY. Miłosz Michalski. Institute of Physics Nicolaus Copernicus University. Październik 2015

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 7 AiR III

Reprezentacja i analiza obszarów

PRZETWARZANIE SYGNAŁÓW

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 3 AiR III

Operacje morfologiczne w przetwarzaniu obrazu

Grafika komputerowa. Oko posiada pręciki (100 mln) dla detekcji składowych luminancji i 3 rodzaje czopków (9 mln) do detekcji koloru Żółty

Przetwarzanie obrazów. Grupy metod przetwarzania obrazu. Przetwarzanie jednopunktowe. Przetwarzanie jednopunktowe. Przetwarzanie jednopunktowe

Analiza obrazu. wykład 6. Marek Jan Kasprowicz Uniwersytet Rolniczy 2009

Segmentacja obrazów cyfrowych z zastosowaniem teorii grafów - wstęp. autor: Łukasz Chlebda

Kurs grafiki komputerowej Lekcja 2. Barwa i kolor

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 1 AiR III

Reprezentacja i analiza obszarów

Przetwarzanie obrazów wykład 2

INFORMATYKA WSTĘP DO GRAFIKI RASTROWEJ

Animowana grafika 3D. Opracowanie: J. Kęsik.

Laboratorium Optyki Falowej

GRAFIKA RASTROWA GRAFIKA RASTROWA

Analiza obrazu. wykład 3. Marek Jan Kasprowicz Uniwersytet Rolniczy 2009

Adam Korzeniewski p Katedra Systemów Multimedialnych

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Transformata Fouriera

Plan wykładu. Wprowadzenie Program graficzny GIMP Edycja i retusz zdjęć Podsumowanie. informatyka +

Percepcja obrazu Podstawy grafiki komputerowej

Waldemar Izdebski - Wykłady z przedmiotu SIT / Mapa zasadnicza 30

Plan wykładu. Wprowadzenie Program graficzny GIMP Edycja i retusz zdjęć Podsumowanie. informatyka +

Przetwarzanie obrazu

Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy

Przewodnik po soczewkach

ALGORYTMY PRZETWARZANIA OBRAZÓW Projekt. Aplikacja przetwarzająca obrazy z możliwością eksportu i importu do programu MS Excel.

Grafika komputerowa. Zajęcia IX

Oświetlenie obiektów 3D

Gimp Grafika rastrowa (konwersatorium)

Diagnostyka obrazowa

GRAFIKA. Rodzaje grafiki i odpowiadające im edytory

Dodatek B - Histogram

6. Algorytmy ochrony przed zagłodzeniem dla systemów Linux i Windows NT.

Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania.

Dane obrazowe. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Opis matematyczny odbicia światła od zwierciadła kulistego i przejścia światła przez soczewki.

Zamiana reprezentacji wektorowej na rastrową - rasteryzacja

Laboratorium Grafiki Komputerowej Przekształcenia na modelach barw

Diagnostyka obrazowa

Grafika rastrowa (bitmapa)-

Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 11. Filtracja sygnałów wizyjnych

3. Macierze i Układy Równań Liniowych

Zbigniew JERZAK Adam KOTLIŃSKI. Studenci kierunku Informatyka na Politechnice Śląskiej w Gliwicach

Arkusz maturalny nr 2 poziom podstawowy ZADANIA ZAMKNIĘTE. Rozwiązania. Wartość bezwzględna jest odległością na osi liczbowej.

Budowa i zasada działania skanera

Filtracja nieliniowa obrazu

Transkrypt:

Zagadnienia z Analiza obrazów i technika wizyjna 2004/2005 semestr zimowy 1. proces formowania obrazu analogowego - oświetlenie sceny, - odbicie promieni od powierzchni obiektu, * procesy fizyczne, * parametry (absorbcja, odbicie, itp.) - rzutowanie perspektywiczne, Rzutowanie oznacza odwzorowanie obiektów trójwymiarowych na płaszczyznę z utratą informacji dotyczących głębi obrazu. - rola soczewki obiektywu, - mechanizm zobrazowania na powierzchni półprzewodnikowgo przetwornika matrycowego. 2. Parametry procesu akwizycji obrazu - wyostrzanie, - ogniskowa, Idealna soczewka załamuje wszystkie promienie świetlne biegnące równolegle do głównej osi optycznej do jednego punktu. Punkt ten nazywany jest ogniskiem soczewki. Soczewka zamienia wiązkę równoległą na wiązkę promieni zbieżnych do ogniska. Po przejściu przez ognisko wiązka staje się rozbieżna. Soczewki wklęsłe rozpraszają promienie świetlne. I też mają ognisko, tylko pozorne położone po tej stronie soczewki z której padają promienie. - równanie soczewki, Odległością przedmiotu i obrazu od soczewki spełnia zależność zwaną równaniem soczewki. x odległość przedmiotu od soczewki y - odległość obrazu przedmiotu od soczewki f ogniskowa soczewki Wtedy równanie soczewki wyrazi się wzorem: 1/x +1/y = 1/f - ekspozycja: * rola migawki, migawka - zasłona blokująca dostęp światła do powierzchni sensora światłoczułego. Podczas robienia zdjęcia migawka otwiera się na ułamek sekundy i zamyka kiedy zadany czas naświetlenia już upłynie. * rola przesłony, przysłona - układ regulujący wielkość otworu, przez który światło wpada do aparatu. Najczęściej spotykanym typem jest przysłona irysowa - nachodzące na siebie blaszki tworzą okrągły otwór, który możemy zmniejszyć (zwiększając liczbę przysłony) lub zwiększyć (zmniejszając l. p.). Kolejne skoki przysłony na skali powodują 2-krotną zmianę natężenia wpadającego światła Od wartości przysłony zależy też głębia ostrości czyli fragment przestrzeni uchwyconej na zdjęciu, w którym wszystkie elementy są ostre (im mniejszy otwór tym większa głębia). - nastawy przesłony i jeje związek z głębią ostrości, - czynniki decydujące o jakości obrazu analogowego.

3. Rejestracja obrazu cyfrowego, - zasada działania przetwornika matrycowego CCD i CMOS * podstawy działania pojedynczego elementu detekcyjnego (podstawy fizyczne), * organizacja procesu rejestracji obrazu w pamięci, na podstawie stanu matrycy, Przetwornik CCD Działają na zasadzie studni potencjałów, potrzebują wysokie napięcie. [foton pada na powierzchnię detekcyjną i wywołuje ruch nośników (wytworzenie elektronów). Dzięki temu ładuje się mikrokondensator.] Obecnie najpowszechniej stosowany w komercyjnych kamerach wideo jest przetwornik CCD (ang. Charge Coupled Device) przyrząd o sprzężeniu ładunkowym. Wykonywany jest w postaci jednego układu scalonego, którego matryca obrazowa zawiera setki tysięcy elementów światłoczułych. Struktóra takiego przetwornika: składa się on z części transportującej i części obrazowej światłoczułej. Aby na wyjściu przetwornika uzyskać sygnał elektryczny będący ładunkową reprezentacją obrazu optycznego skupionego na części światłoczułej, należy odpowiednio dobrać sygnały sterujące. Wytworzone w poszczególnych komórkach porcje ładunku elektrycznego, których wielkość jest proporcjonalna do natężenia padającego na poszczególne komórki światła, są przemieszczane najpierw w lewo, do linii zbierającej ładunki z poszczególnych elementów światłoczułych, a następnie w dół do głównej części transportującej. Z głównej części transportującej sygnał wizyjny, odpowiadający obrazowi skanowanemu, kolejno linia po linii wychodzi na zewnątrz w postaci sygnału elektrycznego. Zakres przetwarzanego promieniowania stosowanych przetworników CCD wynika z zastosowania w nich krzemu (Si) jako podstawowego materiału półprzewodnikowego. Rozciąga się on od 300 nm (ultrafiolet) do 1300 nm (bliska podczerwień), z maksimum w okolicach 750 nm. W celu dostosowania tej charakterystyki do czułości spektralnej oka ludzkiego (350-750 nm z maksymalną wartością 555 nm) stosuje się odpowiednie filtry optyczne. Fizycznym ograniczeniem szybkości działania przetwornika CCD jest z kolei maksymalna prędkość, z jaką w danym materiale mogą poruszać się nośniki ładunku. W celu jej zwiększenia strukturę wyposaża się w tzw. kanał zagrzebany (ang. buried channel). Zwiększenie prędkości przemieszczania się nośników jest wtedy możliwe ze względu na to, że w głębi półprzewodnika jest znacznie mniejsza liczba defektów (w stosunku do warstw przypowierzchniowych), których występowanie jest jedną z podstawowych przyczyn ograniczających prędkość nośników. Praktycznym ograniczeniem szybkości działania przetwornika jest także występowanie w strukturach CCD szkodliwych pojemności. Z powodu niewielkiego poboru mocy i niewielkiej liczby kontaktów w układach z przetwornikami CCD ich niezawodność jest bardzo wysoka. Elementy matrycy CCD nasycają się w tempie proporcjonalnym do natężenia padającego na nie światła. Jasno oświetlone piksele gromadzą ładunek bardzo szybko ulegając prześwietleniu. Ładunek z takiego prześwietlonego (przesyconego) piksela zaburza pracę sąsiadujących pikseli powodując, że także i one ulegają przesyceniu. Piksele słabo oświetlone gromadzą ładunek powoli i w momencie odczytu jest on niewielki, dając w rezultacie niski stosunek sygnału do szumu.

Pojedynczy piksel ma rozmiary około 1µm. Przetworniki CMOS Słabiej oddają odcienie szarości, zasilane 3,3V. Szybsza akwizycja. Technologię CCD cechują małe zniekształcenia obrazu, ale również większą szybkość działania oraz dużą czułość układów. Wymaga jednak drogiego procesu wytwarzania oraz obecności dodatkowych układów do obróbki danych o obrazie. Natomiast przetworniki CMOS - dzięki dobremu opanowaniu technologii i powszechności stosowania - zapewniają znacznie mniejsze koszty wytworzenia układu. Ich dużą zaletą jest także do kilkudziesięciu razy mniejsze zużycie energii, co nie tylko wydłuża czas pracy na bateriach, ale także ogranicza wydzielanie ciepła, a tym samym zmniejsza intensywność szumów widocznych na obrazie. Dodatkową zaletą przetworników CMOS jest możliwość swobodnego dostępu do poszczególnych punktów rejestrowanego obrazu. Dla każdego punktu istnieje wzmacniacz odczytu, poprawiający stosunek sygnału użytecznego do szumu. Wadą układów CMOS jest mniejsza czułość, między innymi na skutek zajmowania części powierzchni przetwornika przez tranzystory wzmacniające sygnału, co sprawia, że gorsza również jest jakość rejestrowanego obrazu. Próbuje się to poprawiać różnego rodzaju algorytmami obróbki danych i sposobami redukcji szumów, np. przez dwukrotną ekspozycję tego samego ujęcia. - raster matrycy, * rodzaje rastrów, Najczęściej stosowana jest siatka prostokątna, możliwa jest siatka heksagonalna. W siatce prostokątnej musimy rozróżniać komórki stykające się rogami i komórki stykające się bokami, w siatce heksagonalnej nie. - W obecnych systemach przetwarzania obrazu wykorzystuje się generalnie dwa sposoby

rozmieszczenia cyfrowych elementów obrazu: według siatki heksagonalnej lub kwadratowej. Sposób pierwszy jest bardziej zbliżony do naturalnego układu receptorów w narządzie wzroku człowieka, ale drugi jest znacznie prostszy i wygodniejszy w obsłudze, dlatego jest on (jako tzw. raster kwadratowy) bardziej rozpowszechniony w komputerowej analizie obrazu. Wynika stąd, że przeważająca ilość urządzeń wprowadzających lub wyprowadzających obraz z komputera posługuje się siatką kwadratową. Wszystkie powszechnie wykorzystywane formaty graficzne również opierają się na niej. * rozmiary fizyczne komórki rastra, Dla CCD pojedynczy piksel ma rozmiary nawet około 1µm 2. Ale standardowo teraz stosowane są matryce z wielkością pojedynczego piksela około 3-8 µm 2. W przypadku matryc CMOS to wielkość piksela jest około kilkunastu µm 2 (18-11µm 2 ). Ale można już spotkać matryce CMOS z rozmiarem piksela około 3,5 µm 2. - formaty plików do zapisu obrazów cyfrowych, Format JPEG Największą zaletą formatu JPEG jest wygoda posługiwania się nim. Nie ma chyba takiego programu graficznego, który nie obsługiwałby plików tego typu. Same pliki za# cechuj# si# niewielkimi rozmiarami, ponieważ mogą być kompresowane. Ważne jest jednak to, aby stosować kompresję (która jest kompresją stratną, tzn. Taką, która powoduje utratę pewnych szczegółów z zawartości obrazka) z zachowaniem najlepszej możliwej jakości obrazu, bo tylko wtedy zdjęcie będzie nadawać się do dalszej pracy. Kiedy wybieramy format JPEG do zapisu zdjęć w aparacie, to zwykle możemy określić rozmiar obrazka, jak i jego jakość. Zalecamy, aby zawsze korzystać z maksymalnych ustawień dostępnych dla elementu światłoczułego w aparacie (jeśli chodzi o opcję rozmiaru, to ta, która zapewnia rejestrację obrazu o największej liczbie pikseli, w menu aparatu zwykle nosi nazwę Large ). Kompresja oparta jest na skomplikowanych metodach matematycznych, których podstawą jest tzw. dyskretna transformata cosinusowa. Format TIFF W formacie TIFF pliki na ogół zapisywane są bez kompresji, dzięki czemu nie tracimy żadnych szczegółów z zawartości obrazka. Mówimy na ogół, bo możliwe jest kompresowanie plików metodą JPEG. Większość fotografów zapisuje w formacie TIFF archiwalne kopie swoich zdjęć. Jeśli jednak chodzi o opcje zapisu w aparacie, to sugerujemy, aby posłużyć się innym formatem przede wszystkim ze względu na duże rozmiary plików TIFF. Ponieważ każdy piksel obrazu musi być opisany za pomocą trzech wartości, końcowy rozmiar pliku ze zdjęciem będzie sobie liczył trzy razy więcej megabajtów niż liczba megapikseli w elemencie światłoczułym. Należy to rozumieć w taki sposób, że na przykład plik TIFF zarejestrowany przez aparat 6megapikselowy będzie miał rozmiar 18 MB (6 3 = 18). Tak duże pliki nie tylko znacznie szybciej wypełniają kartę pamięci, ale również dłużej się zapisują. Format TIFF jest więc dobrym rozwiązaniem w przypadku drukowania oraz archiwizowania fotografii cyfrowych, ale nie polecamy go do zapisywania zdjęć w aparacie. Format RLE stosowany do wysyłania faksów (tylko czarno-biały). Format GIF Format PNG Format BMP - proces kwantyzacji wartości funkcji obrazowej, Przy próbkowaniu sygnału analogowego uzyskane wartości próbek muszą być reprezentowane przez określoną, dostępną w danym komputerze liczbę bitów. Proces ten nazywany jest kwantowaniem i można uważać za odwzorowanie liczb rzeczywistych w liczby całkowite Podstawowym parametrem kwantowania jest liczba progów kwantyzacji, która zależy z kolei od liczby bitów przeznaczonej na reprezentowanie wartości każdego piksela. Im większa liczba bitów tym większa liczba poziomów jasności lub kolorów w obrazie i co za tym idzie lepsza jakość obrazu cyfrowego. W przypadku obrazu szaroodcieniowego mamy z reguły 256 poziomów jasności (8 bitów). Obraz kolorowy zapisujemy przy użyciu 24 bitów w systemie

RGB. Oznacza to, że zapamiętywane są poszczególne składowe koloru: czerwona (Red), zielona (Geen) i niebieska (Blue). Na każdą składową przeznacza się 8 bitów, stąd 24 bity na każdy piksel - proces próbkowania przestrzennego na powierzchni formowania się obrazu, Próbkowanie jest wybraniem zbioru dyskretnych punktów w kontinuum czasu lub przestrzeni. Próbkowanie 2D - Próbkowanie realizowane jest przez podział dwuwymiarowej dziedziny funkcji jasności obrazu na obszary o jednakowych wymiarach (najczęściej są to obszary prostokątne nazywane pikselami), którym przypisuje się średnie wartości natężenia funkcji jasności dla danego obszaru. W ten sposób uzyskujemy obraz w postaci macierzy NxM pikseli zawierających wartości rzeczywiste, przy czym każdy piksel może być indeksowany parą liczb naturalnych wskazujących numer wiersza i numer kolumny w macierzy. Jakość dyskretyzacji w dużym stopniu zależy od częstotliwości próbkowania, czyli od rozdzielczości matrycy CCD (z reguły 512x512) lub dokładności skanowania skanera (600x600 dpi lub 1200x1200 dpi) oraz od jakości zastosowanych detektorów optoelektronicznych. [teseracja = próbkowanie przestrzeni = dzielenie obrazu na małe elementy mozaiki]. - rejestracja obrazu monochromatycznego a obrazu wielomodowego (np.: barwnego), 4. Kolorymetria a obrazy cyfrowe - sześcian i trójkąt Maxwella, - reprezentacje RGB i CMY, Model RGB jest jednym z pierwszych praktycznych modeli przestrzeni kolorów zawierającym receptę dla tworzenia barw. Ten model w sposób jawny wyłonił się w czasach narodzin telewizji (lata 1908 i następne). Jest to model wynikający z właściwości odbiorczych oka i opiera się na fakcie, że wrażenia prawie wszystkich barw w oku można wywołać przez zmieszanie w ustalonych proporcjach tylko trzech wybranych wiązek światła o odpowiednio dobranej szerokości widma. Do dziś w oparciu o ten model pracują lampy obrazowe kineskopy. Tutaj jest dobry moment aby zwrócić uwagę na mały szczegół. Światło białe złożone jest z wielu, z nieskończonej ilości fal różniących się częstotliwością, i aby wytworzyć w oku wrażenie światła białego, to oczywiste jest, że wiązki o których tutaj mowa nie mogą być jakimiś pojedynczymi falami monochromatycznymi lub wiązkami takich fal (na przykład takimi jak daje laser). Muszą to być wiązki światła o dobranej szerokości widma. odel RGB ma wady. Poza przypadkiem bieli, kolory pomiędzy B:G lub pomiędzy G:R są tylko przybliżeniami dla pełnego cyjanu lub pełnej żółci - odpowiednio. Ale model ten jest zaspakajający dla oka człowieka. Jest on zwykle prezentowany jako fragment przestrzeni trzywymiarowej ograniczonej sześcianem o jednostkowym boku. Pojęciu barwy czarnej odpowiada punkt (0,0,0) to znaczy zerowa intensywność wszystkich składowych. Natomiast punkt (1,1,1) reprezentuje sobą biel. Odcinek (przekątna) od punktu (0,0,0) do punktu (1,1,1) reprezentuje sobą poziomy szarości od czerni do bieli. Inne punkty, ogólnie a*(r,g,b) jako wektory ze startem w punkcie (0,0,0), teoretycznie reprezentują różne nasilenie barwy, mówi się o różnej intensywności barwy i oczywiście w granicach jednostkowego sześcianu. Model RGB definiuje w sposób jawny co to jest intensywność ale dla indywidualnych składowych R,G,B. Mianowicie wartości składowych RGB opisują intensywność indywidualnie danej barwy podstawowej jako liczba z przedziału od 0 do 1 i nie uzależniają tej wartości od dwu pozostałych składowych. Mówi się, że składowe RGB są ortogonalne, niezależne od siebie. Wartość składowej =0 oznacza zero intensywności barwy podstawowej. Wartość =1 oznacza pełną maksymalną intensywność. Model CMY. Rozważania z użyciem modelu RGB są dobre dla urządzeń, które emitują światło, ale dla okoliczności związanych z prezentacją obrazu na nośnikach biernych (poligrafia) użycie bezpośrednio opisu punktów z tego modelu nie jest możliwe. Człowiek używa nazwy dla barwy farby tak jak ją widzi. Powierzchnia farby odbija światło z otoczenia i to odbite światło daje wrażenie nazywane barwą farby. Różnica pomiędzy światłem białym a światłem NIE odbitym, to: (c,m,y)=(1,1,1)-(r,g,b) barwy podstawowe i są one lokalizowane na osi długości fal mniej więcej pomiędzy barwami

podstawowymi z modelu RGB. Są czasem nazywane barwami "subtraktywnymi" (z ang. subtract, odejmować). Ich nazwy własne to: Cyjan, Magenta i Yellow. Stąd współrzędne nazywają się CMY. Kolor Cyjan leży gdzieś pomiędzy niebieskim a zielonym, kolor Magenta (fiolet, okolice purpury) ma trochę czerwonego i niebieskiego, a kolor Yellow (żółty) leży pomiędzy zielenią a czerwienią. Tak ustalone kolory bazowe mają swoje odpowiedniki na płaszczyznach sześcianu modelowego w przestrzeni RGB odpowiednio: Cyjan: (0,G,B), Magenta: (R,0,B), oraz Yellow: (R,G,0). Jak już wspominaliśmy kolor bieli jest pojęciem umownym. Z modelu RGB, punkt bieli (R,G,B)= (1,1,1), przenosi się wraz ze swoją całą umownością na punkt CMY=(0,0,0) i w ten sposób dla CMY jest to umowna barwa biała, można też użyć nazwy, że jest to barwa podłoża. Punkt RGB= (0,0,0) jako kolor czarny przenosi się na punkt CMY=(1,1,1). Taki kolor może być co najwyżej mniej więcej czarny, ponieważ nie jest możliwe praktycznie wytworzenie mieszanki dla barwy czarnej przy użyciu trzech innych barw z zestawu CMY. Fakt ten jest często uzasadniany "zabrudzeniem" składników CMY, ale nie jest to do końca prawdą. W rzeczywistości mamy sytuację, że potrzebujemy wykonać mieszankę trzech farb, w ilościach różnej od zera, i która nie będzie odbijać żadnej barwy. A więc, taka mieszanka musi osiągnąć granicę, że wszystkie barwy odbijane przez jakieś składniki farby, muszą być tłumione ( trochę pochłaniane lub wyłapywane) przez inne składniki. Czyli barwę czarną, otrzymujemy w teoretycznej granicy z dokładnością do cząstki farby i stąd są trudności z praktycznym uzyskaniem koloru czarnego. Z tych samych powodów co w modelu RGB, również w modelu CMY, nie da się opisać wszystkich barw. Ale w przypadku poligrafii szczególnie dla czerni i bieli, pojęcie mniej więcej czarnej barwy lub mniej więcej białej barwy jest nie do przyjęcia. W związku z tym do modelu CMY dołączono jeszcze jedną składową K opisującą ilość czwartej farby. - reprezentacja HSV, W roku 1978 pojawiła się jeszcze jedna propozycja modelu opisu barw zaproponowana przez Alvey Ray Smith. Model ten nawiązuje do sposobu widzenia przez człowieka, gdzie wszelkie barwy to światło pochodzące z oświetlenia. Model ten często jest określany jako model barw dla artystów. Wszystkie barwy wywodzą się z konkretnego światła bieli. Model praktycznego zastosowania raczej nie ma poza twórcami artystami. Model HSV, w tym modelu określa się: odcień barwy (Hue), nasycenie (Saturation) i wartość (Value). Bryłą, w której są zawarte wszystkie barwy reprezentowane w modelu HSV, jest ostrosłup sześciokątny. który został skonstruowany w następujący sposób. Jeżeli popatrzy się na sześcian RGB z zewnątrz wzdłuż przekątnej, na której leżą poziomy szarości, to obserwowany kontur bryły będzie sześciokątem foremnym, w którego wierzchołkach będą się znajdowały barwy R, Y, G, C, B, M. W środku sześciokąta będzie znajdować się barwa biała. Wnętrze będzie wypełnione odcieniami barw o różnym nasyceniu. Konstrukcja bryły polega na utworzeniu osi prostopadłej do sześciokąta i przechodzącej przez jego środek. Na osi tej są reprezentowane różne poziomy szarości. Po ustaleniu na tej osi punktu, któremu zostaje przypisana barwa czarna, można już skonstruować odpowiedni ostrosłup foremny. Osi głównej są przypisane wartości od 0 dla wierzchołka do 1 w środku podstawy. Każdy przekrój ostrosłupa prostopadły do osi głównej zawiera wszystkie odcienie barw o różnych nasyceniach i o jasności odpowiadającej [jasności] na osi. Na obwodzie sześciokąta znajdują się barwy nasycone. Każdemu odcieniowi barwy jest przypisany kąt liczony przeciwnie do ruchu wskazówek zegara, poczynając od półprostej łączącej środek sześciokąta z wierzchołkiem reprezentującym barwę czerwoną. Wzdłuż każdej półprostej łączącej środek sześciokąta z barwą nasyconą leżą barwy nienasycone o tym samym odcieniu co barwa nasycona. Im bliżej środka sześciokąta, tym mniejsze nasycenie barwy. Skala nasycenia barwy zmienia się od 0 do 100%. Istnieją pewne odmiany modelu HSV - model HSB, w którym B oznacza jasność (Brightness),

- przekształcenie przestrzeni RGB w HSV, Model przestrzeni HSV jest tak skonstruowany, że wszystkie barwy wychodzą ze światła białego zdefiniowanego wartością V. Te symbole określają tą samą wartość i określają światło Brightness. Modelowa bryła stożka jest dynamiczną prezentacją aktualnych wartości S oraz V. - podstawy trójskładnikowej teorii barw w wersji addytywnej i substraktywnej, 5. Rola zakłóceń w procesie formowania obrazu, - typy i charakterystyki zakłóceń oświetlenia, - typy i charakterystyki zakłóceń medium (przestrzeni rejestracji) - typy i charakterystyki zniekształceń optycznych, - szum fotonowy, mechanizm i miejsce występowania, - typy i charakterystyki szumów półprzewodnikowych, - zakłócenia związane z dyskretyzacją obrazu, 6. Punktowe operacje na obrazie Cechą charakterystyczną punktowych przekształceń obrazu jest to, że poszczególne elementy obrazu (punkty) modyfikowane są niezależnie od stanu elementów sąsiadujących. Innymi słowy jeden punkt obrazu wynikowego otrzymywany jest w wyniku wykonania określonych operacji na pojedynczym punkcie obrazu wejściowego. Dzięki takiej prostej regule operacje jednopunktowe mogą być wykonywane stosunkowo łatwo i szybko nawet na bardzo dużych obrazach. Najprostszymi operacjami punktowymi są: utworzenie negatywu, rozjaśnienie lub zaciemnienie

obrazu wybranych punktów obrazu. Przekształcenia jedno-punktowe (inaczej znane jako operacje anamorficzne) wykonywane są zwykle z zastosowaniem operacji LUT, wykorzystującej z góry przygotowane tablice korekcji. - korekcja gamma, Zmiana ogólnej jasności obrazu. Możliwa jest też korekcja dla każdego podstawowego koloru składowego (czerwonego, zielonego i niebieskiego). Opisy obrazu z użyciem modelu RGB mają taką specyficzną właściwość, że wytworzone zaburzenia liniowości opisu barw powodują, że na innym urządzeniu barwy są inne. Obraz wyblakły lub odwrotnie, nieostre szczegóły. Problem liniowości występuje w urządzeniach rejestrujących i w urządzeniach wyświetlających. Zagadnienie sprowadza się do tego, aby intensywność światła zmieniała się liniowo dla obserwatora wraz ze zmianą luminancji. - histogram obrazu, Histogram obrazu jest bardzo prostą i bardzo użyteczną funkcją, pozwalającą w sposób globalny scharakteryzować obraz. Formalnie można określić histogram jako funkcję h(i) zdefiniowaną w następujący sposób: M 1 n=0 h i = m=0 N 1 p i/ m,n i=0, 1,..., 2 B 1 gdzie : p i/ m, n = { 1 gdy L m, n =i 0 w przeciwnym przypadku} W praktyce oznacza to, że poszczególne składowe funkcji h(i) oznaczają po prostu liczbę pikseli o jasności i występujących na obrazie. - Histogramem poziomów jasności nazywamy statystyczny rozkład występowania w obrazie cyfrowym poszczególnych poziomów jasności. Algorytm wyznaczania histogramu: - Niech f(p) jest wartością elementu P w przedziale [0,L]. H jest tablicą histogramu. -Algorytm: -Wstaw do tablicy H(Z) (0<=Z<=L) wartości 0, -for wszystkich elementów P obrazu do -zwiększ H(f(P)) o 1 -Koniec algorytmu Przykład implementacji w języku C: char image[rows][cols]; int histogram[256]; int row, col, i; for(i=0; i<256; i++) histogram[j] = 0; for(row=0; row<rows; row++) for(col=0; col<cols; col++) histogram[(int)image[row][col]]++; - Histogram używamy do polepszenia jakości lub kodowania obrazu. - Jeśli wartości histogramu są zerowe dla wielu wartości Z to poziomy kwantowania nie zostały wybrane najefektywniej. Należy wtedy zastosować nowy podział. - Najlepiej byłoby, gdyby obraz histogramu był płaski. - progowanie, - Przy tej metodzie jasność każdego elementu obrazu porównywana jest z pewną wartością progową i następnie element przydzielany jest do jednej z dwu kategorii: o wartości przekroczonej lub nie przekroczonej. - Wyboru wartości progowej dokonuje się najczęściej na podstawie histogramu. - Przykładowo, jeśli obraz będzie miał dwa obszary, jeden ciemny, drugi jasny to jego histogram będzie miał dwa szczyty. Jako wartość progową można wybrać wtedy wartość pośrednią między dwoma szczytami.

- Automatyczne oszacowanie wartości progowej jest problemem złożonym, gdyż sytuacja, gdy występują dwa szczyty jest stosunkowo rzadka - poprawianie obrazu przez wyrównanie histogramu, 7. Operacje morfologiczne Przekształcenia morfologiczne są jednymi z najważniejszych operacji w komputerowej analizie obrazu, gdyż - odpowiednio kombinowane w zestawy - pozwalają na najbardziej złożone operacje, związane z analizą kształtu elementów obrazu, ich wzajemnego położenia oraz umożliwiają złożone procesy symulacji. Podstawowe przekształcenia morfologiczne są bowiem punktem wyjściowym do tworzenia bardziej złożonych operacji, związanych z analizą kształtu obiektów, oraz ich wzajemnego rozmieszczenia. Niestety największą ich wadą jest wielka złożoność obliczeniowa. Ogólny algorytm przekształcenia morfologicznego: Intuicyjnie można powiedzieć, że każde przekształcenie morfologiczne polega na: - przyłożeniu centralnego punktu kolejno do wszystkich punktów obrazu; - sprawdzeniu, czy lokalna konfiguracja punktów odpowiada układowi, zapisanemu w elemencie strukturalnym; - wykonaniu, w przypadku zgodności konfiguracji punktów, operacji określonej dla danego przekształcenia. W sposób bardziej ogólny i formalnie poprawniejszy przekształcenie morfologiczne zapisać można następującym algorytmem: 1. Element strukturalny jest przemieszczany po całym obrazie i dla każdego punktu obrazu wykonywana analiza koincydencji punktów obrazu i elementu strukturalnego, przy założeniu, że badany punkt obrazu jest punktem centralnym elementu strukturalnego; 2. W każdym punkcie obrazu następuje sprawdzenie, czy rzeczywista konfiguracja pikseli obrazu w otoczeniu tego punktu zgodna jest z wzorcowym elementem strukturalnym. 3. W przypadku wykrycia zgodności wzorca pikseli obrazu i szablonu elementu strukturalnego - następuje wykonanie pewnej (ustalonej) operacji na badanym punkcie. Zazwyczaj jest to prosta zmiana koloru lub nasycenia jasności tego punktu, chociaż w ogólnym przypadku można założyć wykonanie dowolnej operacji. Warto odnotować pewną dość istotną cechę przekształceń morfologicznych, odróżniającą je od wszystkich innych, przekształceń i filtracji obrazów. Otóż przekształcenia punktowe transformują każdy punkt obrazu w taki sam sposób, bez względu na to, jakich ma on sąsiadów. Filtry konwolucyjne, medianowe, logiczne i inne - uzależniają wynik od sąsiedztwa danego punktu, ale przekształcenie jest wykonywane zawsze, nawet jeśli wartość obrazu w danym punkcie nie ulegnie zmianie. Przekształcenia morfologiczne natomiast przekształcają tylko tą cz'ęść punktów obrazu, których otoczenie jest zgodne z elementem strukturalnym, co pozwala na szczególnie subtelne planowanie przekształceń. - definicja, przykład, właściwości erozji morfologicznej, Erozja jest podstawowym przekształceniem morfologicznym. Aby zdefiniować operację erozji zakłada się, że istnieje nieregularny obszar X i koło B o promieniu r, które będzie elementem strukturalnym. Jako punkt środkowy elementu strukturalnego przyjmuje się środek koła B. Wówczas erozję figury X elementem B można zdefiniować na dwa różne sposoby: - figura zerodowana to zbiór środków wszystkich kół o promieniu r, które w całości zawarte są we wnętrzu obszaru X; - koło B przetacza się po wewnętrznej stronie brzegu figury. Kolejne położenia środka koła B wyznaczają brzeg figury zerodowanej. W implementacji komputerowej erozja jednostkowa polega na usunięciu wszystkich tych punktów obrazu o wartości 1, które posiadają choć jednego sąsiada o wartości 0. Erozję można także interpretować matematycznie jako tzw. filtr minimalny, to znaczy taki operator, w którym każdemu punktowi przypisuje się minimum z wartości jego sąsiadów. Jeżeli punkt centralny i otoczenie elementu strukturalnego (maski) zgadza się z lokalną konfiguracją punktów obrazu to nowa wartość punktu centralnego obrazu przyjmuje wartość

1. W przeciwnym przypadku punkt centralny przyjmuje wartość 0. Gdzie: 0 - piksel o szarości mniejszej od tła ( zgaszony ), 1 - piksel o szarości większej od tła ( zapalony ). Dla dylatacji można stosować np.: maskę 3x3 z wartościami 1 w wszystkich punktach maski. * dla obrazu zbinaryzowanego, Definicja I Zakładamy, że obraz wyjściowy zawiera pewien obszar (figurę) X, wyróżniający się pewną charakterystyczną cechą (np. odróżniającą się od tła jasnością). Figura X po wykonaniu operacji erozji (często określana krótko jako figura zerodowana) to zbiór punktów centralnych wszystkich elementów strukturalnych, które w całości mieszczą się we wnętrzu obszaru X. Miarą stopnia erozji jest wielkość elementu strukturalnego. Im większy rozmiar elementu strukturalnego - tym większa część brzegu podlegającej erozji figury zostaje usunięta. * dla obrazu monochromatycznego, Definicja II Erozję można traktować jako filtr minimalny. Dzięki temu pojęcie erozji można rozszerzyć na obrazy posiadające wiele stopni szarości, a nawet kolorowe. W przypadku obrazu posiadającego wiele poziomów jasności operację erozji wygodnie zapisać jest jako: L' m, n = min L m i, n i m i,n i B m,n gdzie: L(m,n) - jasność punktu o współrzędnych (m,n); B(m,n) - element strukturalny z punktem centralnym o współrzędnych (m,n). Erozję obrazu kolorowego można zdefiniować jako złożenie niezależnych erozji przeprowadzonych na jego poszczególnych składowych Erozja posiada następujące cechy, mające duże znaczenie praktyczne: - Jest addytywna, co oznacza, że erozję o założonej wielkości można interpretować jako złożenie odpowiedniej ilości erozji o wielkości jednostkowej. Cecha ta ma wielkie znaczenie przy praktycznej realizacji przekształcenia. - Erozja złożonym elementem strukturalnym jest równoważna złożeniu erozji poszczególnymi elementami tego elementu strukturalnego. - Położenie punktu centralnego elementu strukturalnego nie ma większego znaczenia. Zmiana położenia punktu centralnego o dany wektor powoduje przesunięcie (translację) obrazu wynikowego o taki sam wektor. - Erozja ma zdolność do eliminacji drobnych szczegółów i wygładzania brzegu figury. - Erozja elementami strukturalnymi o podłużnym kształcie pozwala uwypuklić fragmenty obrazu zorientowane liniowo w tym samym kierunku, co element strukturalny. - Erozja dokonuje generalizacji obrazu. Odizolowane, drobne wyróżnione obszary zostają usunięte. Brzegi wyróżnionych obszarów zostają wygładzone, ich długość zostaje zdecydowanie zmniejszona. Zmniejszone zostają także ich powierzchnie. Często większe wyróżnione obszary podzielone zostają na mniejsze. Spada nasycenie obrazu. - definicja, przykład, właściwości dylatacji morfologicznej, Dylatacja jest przekształceniem odwrotnym do erozji. Aby zdefiniować operację dylatacji zakłada się, że istnieje nieregularny obszar (figura) na obrazie X i koło B o promieniu r, które będzie elementem strukturalnym. Wówczas dylatacją figury X elementem B można zdefiniować na trzy różne sposoby: - figura po dylatacji jest zbiorem środków wszystkich kół B, dla których choć jeden punkt pokrywa się z jakimkolwiek punktem figury wyjściowej. - koło B przetacza się po zewnętrznej stronie brzegu figury. Kolejne położenia środka koła B wyznaczają brzeg figury po dylatacji. - analogicznie, jak w przypadku erozji, dylatacją można zdefiniować jako filtr maksymalny. - Dylatację można także zdefiniować jako negatyw erozji negatywu obrazu - co w pełni oddaje fakt, że dylatacja jest przekształceniem odwrotnym do erozji. Dla dylatacji można stosować maską 3x3 z wartością 0 w środkowym punkcie maski, natomiast pozostałe punkty mają dowolną wartość (szarość). * dla obrazu zbinaryzowanego,

Definicja I Zakładamy, że obraz wyjściowy zawiera obszar X wyróżniający się pewną charakterystyczną cechą (np. jasnością). Figura przekształcona przez dylatację to zbiór punktów centralnych wszystkich elementów strukturalnych, których którykolwiek punkt mieści się we wnętrzu obszaru X. Miarą dylatacji jest wielkość elementu strukturalnego. * dla obrazu monochromatycznego, Definicja II Dylatacją można traktować jako filtr maksymalny. Rozpatrywane otoczenie lokalne punktu jest odpowiednikiem elementu strukturalnego. Dzięki temu pojęcie dylatacji można rozszerzyć na obrazy posiadające wiele stopni szarości, a nawet kolorowe. W przypadku obrazu posiadającego wiele poziomów jasności operację dylatacji wygodnie zapisać jest jako: L' m, n = max L m i, n i m i, n i B m, n gdzie: L(m,n) - jasność punktu o współrzędnych (m,n); B(m,n) - element strukturalny z punktem centralnym o współrzędnych (m,n). Dylatację obrazu kolorowego można zdefiniować jako złożenie niezależnych dylatacji przeprowadzonych na jego poszczególnych składowych. Podstawowe własności dylatacji są następujące: - zamykanie małych otworów i wąskich zatok w konturach obiektów na obrazie, - zdolność do łączenia obiektów, które położone są blisko siebie. Podsumowując można stwierdzić, że dylatacja również (podobnie jak erozja, chociaż w innym sensie) dokonuje generalizacji obrazu. Drobne wklęsłości w wyróżnionych obszarach zostają usunięte. Brzegi wyróżnionych obszarów zostają wygładzone, ich długość zostaje zdecydowanie zmniejszona. Zwiększone natomiast zostają ich powierzchnie. Często dylatacja prowadzi do zrastania się obiektów: mniejsze, blisko położone wyróżnione obszary połączone zostają w większe. Wzrasta także nasycenie obrazu. - definicja i właściwości operatorów morfologicznych złożonych, * otwarcie i domknięcie [zamknięcie], Dylatacja i erozja posiadają niestety istotną wadę. Zmieniają one w wyraźny sposób pole powierzchni przekształcanych obszarów. Erozja zmniejsza je, a dylatacja zwiększa. Aby wyeliminować tą wadę wprowadzono dwa przekształcenia będące złożeniem poprzednich. Są to otwarcie i zamknięcie. Zdefiniować je można w sposób następujący: - otwarcie = erozja + dylatacja - zamknięcie = dylatacja + erozja Otwarcie polega na przetaczaniu koła B po wewnętrznej stronie brzegu figury i odrzuceniu wszystkich tych punktów, które nie mogą być osiągnięte przez koło. Zamknięcie polega natomiast na przetaczaniu koła B po zewnętrznej stronie brzegu figury i dodaniu do niej wszystkich tych punktów, które nie mogą być osiągnięte przez koło. W odróżnieniu od erozji i dylatacji w omawianych tu przekształceniach rozpatrujemy całe koło B, a nie tylko jego środek. * ścienianie obszaru[obrazu], Ścienianie jest wspólną nazwą dla pewnego podzbioru przekształceń morfologicznych przeprowadzanych w następujący sposób. Ścienianie obiektu X przy użyciu elementu strukturalnego B polega na przyłożeniu tego elementu do każdego punktu obrazu w ten sposób, że punkt centralny pokrywa się z analizowanym punktem i podjęciu jednej z dwóch decyzji: - nie zmieniać punktu, gdy element nie pokrywa się z jego sąsiedztwem, - zamienić wartość punktu na 0, jeżeli element strukturalny pasuje do sąsiedztwa analizowanego punktu. Ścienianie może być powtarzane wielokrotnie, aż do momentu gdy następny krok nie wprowadza żadnych zmian w obrazie. - Algorytmy ścieniania umożliwiają upraszczanie formy obrazów. - Umożliwiają opis obrazu w postaci linii lub ciągu linii. Problemem są cienkości linii, gdyż

jest pewna trudność w opisie takich linii po dyskretyzacji. Definicja ścieniania - Niech R będzie zbiorem punktów na płaszczyźnie, B jego brzegiem a P dowolnym punktem należącym do R. Najbliższym sąsiadem punktu P na brzegu B jest punkt M należący do B taki, że nie istnieje inny punkt należący do B, którego odległość od punktu P jest mniejsza od odległości od punktu M. Jeśli P ma więcej niż jednego najbliższego sąsiada, to P jest punktem szkieletowym zbioru R. Zbór wszystkich punktów szkieletowych jest szkieletem lub osią środkową zbioru R. Taka definicja oznacza, że punkty szkieletowe są środkami okręgów całkowicie zawartych w zbiorze R, i nie ma okręgu o tym samym środku i promieniu większym, który jest zawarty w zbiorze R. - Można zauważyć, że szkielet dla cienkich obiektów dostarcza informacji o kształcie, dla grubych nie. Definicja szkieletu zbioru Szkieletem zbioru R nazywamy taki zbiór, który jest wyznaczony w następujący sposób: - na początku R jest wyznaczony przez punkty konturowe i ewentualnie szkieletowe, - dla każdego punktu R usuwamy te punkty, które są konturowymi a nie są szkieletowymi. - Po usunięciu mamy nowy zbiór R. - Proces usuwania powtarzamy tak długo, aż zostaną jedynie punkty szkieletowe. Sprawdzenie, czy element obrazu jest szkieletowy wymaga badania jego bezpośredniego sąsiedztwa, czyli operacje są operacjami lokalnymi. Klasyczny algorytm ścieniania: - Niech I oznacza zbiór wejściowy, P oznacza zbiór wzorców sąsiedztwa szkieletowych elementów (dwa poprzednie slajdy, łącznie z wariantami obróconymi o 90 dla pierwszego oraz o 90, 180 i 270 dla drugiego). - Zmienna remain=true oznacza, że nieszkieletowe elementy obrazu mogą pozostać, znacznik skel=true oznacza, że sąsiedztwo elementów odpowiada jednemu ze wzorców zbioru P. Jedynka we wzorcu odpowiada dowolnemu niezerowemu elementowi w sąsiedztwie. 1)remian=true 2)while remain=true do begin {kroki 3-12} 3)remain=false 4)for j=0,2,4,6 do begin {kroki 5-12} 5)for wszystkich elementów p obrazu I do begin{kroki 6-10} 6)if p=1 and if jego j-sąsiad=0 then do begin {kroki 7-10} 7)skel=false 8)for wszystkich wzorców P do {krok 9} 9) if sąsiedztwo p odpowiada wzorcowi P then skel=true i wyjdź z pętli 8 10)if skel=true then p=2 {element szkieletowy obrazu} else p=3 {element usuwany} i remain=true end {koniec 6} end {koniec 5} 11) for wszystkich elementów p obrazu I do 12) if p=3 then p=0 end {koniec 11} end {koniec 12} * szkieletyzacja Szkieletyzacja jest operacją pozwalającą wyodrębnić osiowe punkty (szkielety) figur w analizowanym obszarze. Definicja Szkielet figury jest zbiorem wszystkich punktów, które są równoodległe od co najmniej dwóch punktów należących do brzegu.

* transformacja odległościowa i transformacja osi medianowej, * rekonstrukcja obszaru[obrazu] na podstawie jego szkieletu, Pogrubianie obiektu X przy użyciu elementu strukturalnego B polega na przyłożeniu tego elementu do każdego punktu obrazu w ten sposób, że punkt centralny pokrywa się z analizowanym punktem i podjęciu jednej z dwóch decyzji: - nie zmieniać punktu, gdy element nie pokrywa się z jego sąsiedztwem - zamienić wartość punktu na 1, jeżeli element strukturalny pasuje do sąsiedztwa analizowanego punktu obrazu. Operacja ta jest przeprowadzana wielokrotnie, aż do braku zmian wprowadzanych przez operację. Najczęściej element strukturalny jest przekręcany (o kąt 90 w przypadku siatki kwadratowej) pomiędzy kolejnymi operacjami. Pogrubianie jest przekształceniem odwrotnym do ścieniania. Dokładniej ścienianie zbioru X elementem B jest równoważne dopełnieniu zbioru powstałego w wyniku pogrubiania dopełnienia zbioru X elementem dopełniającym B. Operację pogrubiania dla izolowanych punktów można wykonać posługując się następującym elementem: x 1 x 0 0 x 0 0 0 x 0 0 0 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 0 x x 1 x x 0 0 Jeżeli punkt centralny i otoczenie rotującego elementu strukturalnego zgadza się z lokalną konfiguracją punktów obrazu to nowa wartość punktu centralnego obrazu przyjmuje wartość 1. W przeciwnym przypadku punkt centralny nie ulega zmianie. - segmentacja obrazu na obszary * pojęcie i rodzaje sąsiedztwa pikseli, Możemy wyróżnić 4-sąsiedztwo jeśli piksel ma 4-ch sąsiadów przez bok N 4 [i,j]. Istnieje także 8-sąsiedztwo, jeśli włączymy jeszcze sąsiadów przez narożnik N 8 [i,j]. Są taż inne sąsiedztwa np.: diagonalne (stykanie się tylko narożnikami) lub wielo-sąsiedztwa takie jak N 48 [i,j] gdzie większa ilość pikseli jest uznawana za sąsiadów. * rodzaje metryk stosowanych [skoszonych] w obróbce [odbicie] obrazu, * składnik spójny obrazu (obszar) {np.: ścieżka}, Obszar spujny tworzą piksele sąsiadujące ze sobą. Jeżeli wszystkie piksele tworzące dany obszar pozostają ze sobą w relacji przechodniej 4-sąsiedztwa, to taki obszar nazywamy 4- spójnym. Natomiast jeżeli wszystkie piksele tworzące dany obszar pozostają ze sobą w relacji przechodniej 8-sąsiedztwa, to taki obszar nazywamy 8-spójnym. Ścieżka sekwencja wskaźników nazywana jest ścieżką jeśli dany element ścieżki zawiera kolejny element...?? mając sekwencję pikseli: [i 0,j 0 ], [i 1,j 1 ],..., [i n,j n ] ścieżkę można zapisać: [i k+1,j k+1 ] N x [i k,j k ] ; k = 0, n-1 ; gdzie: N x = {N 4, N 8 } * pojęcie tła lokalnego i maski, - segmentacja oparta o rozrastanie się obszarów (piksele zarodkowe), - W metodzie rozrostu z kolei poszukuje się grup elementów o zbliżonej jasności. - Najprostsza metoda polega na rozpoczęciu od jednego punktu i sprawdzenie, czy sąsiednie elementy mają podobną jasność (właściwość), co powoduje rozrost obszaru. - W bardziej złożonych metodach rozpoczynamy nie od pojedynczych elementów, ale od podziału na obrazu na grupę małych obszarów. - Następnie dla każdego obszaru stosujemy test jednolitości i w razie potrzeby dzielimy ten obszar na mniejsze obszary. - Proces ten powtarzamy tak długo, aż wszystkie małe obszary będą miały jednolitą jasność. Metody wykrywania krawędzi i progowania zajmują się różnicami między wartościami elementów obrazu, natomiast w metodzie rozrostu obszaru poszukuje się grup elementów o zbliżonej jasności. Najprostsza postać tej metody to rozpoczęcie od jednego elementu i sprawdzanie czy elementy sąsiednie mają podobną jasność. Jeśli tak, są one grupowane w obszar. W ten sposób powstają obszary, które rozrastają się z pojedynczych elementów obrazu. W bardziej złożonej postaci tej metody działanie rozpoczyna się nie od pojedynczych elementów, ale od podziału obrazu na zbiór małych obszarów. Następnie dla każdego obszaru stosuje się test jednolitości i w razie negatywnego wyniku obszar jest ponownie dzielony na

mniejsze elementy. Proces ten jest powtarzany tak długo, aż wszystkie obszary są jednolite. W ten sposób obszary są tworzone z mniejszych obszarów, a nie z elementów. Sposób realizacji metody zależy w dużym stopniu od struktur danych używanych do reprezentacji obrazu. Główną zaletą użycia małych obszarów zamiast elementów obrazu jest zmniejszenie wrażliwości na zakłócenia. Jedno z kryteriów jednolitości jest oparte na porównaniu maksymalnej różnicy między wartością elementu obrazu L(m,n) i wartością średnich dla obszaru. Dla obszaru R o wielkości #R oblicza się średnią S: S= 1 li R m,n R L m, n a następnie sprawdza się warunek: L m, n S T max m, n R Obszar jest jednolity, gdy powyższy warunek jest spełniony dla ustalonego progu T. Wybór tego progu oprzeć można na znanym fakcie: prawdopodobieństwo, że jasność elementu L(m,n) różni się od jego średniej S o więcej niż pewną wielkość x jest dane następującą całką: z 2 I n = 2 2 e 2 dz 2 x gdzie σ jest odchyleniem standardowym zakłóceń. Ustalając próg T ustala się więc także prawdopodobieństwo tego, że do wydzielonego obszaru włączone będą obiekty nie należące do niego. Jeśli obszar obiektu jest jednolity, to wartość średnia S jest optymalnym oszacowaniem wartości jasności tego obszaru. W takim przypadku odchylenie wartości elementu od średniej S będzie zależało jedynie od zakłóceń. * xxxxx * mechanizm dyfuzji, * warunek stopu procesu rozrastania się, - segmentacja oparta o detekcję konturów obszaru, Segmentacja metodą wykrywania krawędzi Przy tej metodzie są wyszukiwane krawędzie między obszarami. W tym celu jest stosowany operator gradientu, a następnie na gradiencie jest wykonywana operacja progowania. W kolejnym etapie elementy obrazu, które zostały zidentyfikowane jako krawędzie, muszą być połączone dla uformowania krzywej zamkniętej otaczającej obszary. Techniką powszechnie stosowaną jest rozpatrywanie różnic między dwoma grupami elementów, podobnie jak w filtrach liniowych górnoprzepustowych. Aby można było uwzględnić różnice w ukierunkowaniu krawędzi, trzeba zastosować więcej niż jeden filtr. Ponieważ filtry górnoprzepustowe mają tendencję do uwydatnienia zakłóceń, wartość tego typu metod w przypadku obrazów z zakłóceniami jest ograniczona. * zasady i przykład algorytmu, - modele zakłóceń dyskretnej funkcji obrazowej * model addytywny (postać i kiedy jest stosowany), * model multiplikatywny (postać i kiedy jest stosowany), - dyfuzyjny biały szum Gaussowski (def. Co to jest) 10.Filtracja 2D - pojęcie odpowiedzi impulsowej filtru 2D, tak zwana odpowiedź impulsowa filtru, jest to reakcja filtru na impuls. Impuls taki może być wyrażony tzw. funkcją Diraca, która ma następujące własności: 1. 0 =0 ; x 0 2. 0 x dx=1 - realizacja dyskretnej odpowiedzi impulsowej na masce filtru, - równanie splotowe i jego odpowiednik dyskretny [odpowiedź dyskretyzacji], - związek filtracji 2D w dziedzinie prezstrzennej i Furierowskiej 2D, 11.Filtry liniowe

Filtry zaliczane są do liniowych, jeżeli funkcja je realizująca spełnia dwa warunki liniowości: - jest addytywna φ(f+g) = φ(f) + φ(g); - oraz jednorodna φ(λ f) = λ φ(f), λ R gdzie: φ funkcja realizująca filtr; f, g obrazy podlegające filtracji. W praktyce najczęściej wykorzystywane są filtry spełniające dodatkowo warunek niezmienności względem przesunięcia. Spełnienie tego warunku oznacza, że każdy punkt obrazu przekształcany jest w identyczny sposób. Znaczna część obrazu może być poprawiona bez wykonywania obliczeń statystycznych dla każdego nowego obrazu. Np. jeśli znamy postać macierzy sąsiedztwa i chcemy poprawić jego kopię w której występują zakłócenia. Jeśli w macierzy sąsiedztwa największe elementy leżą na głównej przekątnej, to wiadomo, że większość elementów powinna mieć taki kolor jak sąsiednie elementy. Jeśli chcemy wyeliminować zakłócenia, to zastąpienie każdego elementu obrazu z zakłóceniami ważoną sumą elementów sąsiednich zmniejszy różnicę między elementami przyległymi i uzyskamy obraz bliższy oryginałowi. Można to zrobić za pomocą równania opisującego relację między obrazem oryginalnym f(x,y) a obrazem filtrowanym g(x,y) - jest to tzw. filtr liniowy g(x, y) = M M i= M j= M h(x, y,i, j)f (x + i, y + j) - podstawowe właściwości - co to filtr blokowy - filtr uśredniająco wygładzający z wagami, Filtracja obrazów dostarcza szereg możliwości wydobycia z obrazu oryginalnego szeregu informacji lub ułatwia jego obróbkę. Filtrację obrazów cyfrowych w dziedzinie przestrzennej uzyskuje się wykorzystując operację splotu (mnożenie dwóch transformat w dziedzinie częstotliwości tj. transformaty obrazu i filtru, jest równoważne splotowi obrazu z filtrem w dziedzinie przestrzennej). Operacja splotu oblicza nową wartość piksela obrazu na podstawie wartości pikseli sąsiadujących. Każdy wartość pikselu sąsiadującego jest odpowiednio wagowana i wpływa na końcową wartość piksela obrazu po filtracji zgodnie ze wzorem : gdzie: P i - wartość kolejnego piksela po filtracji, K - rząd macierzy filtru, (np. 3 -> filtr 3x3), P kl - kolejna wartość piksela obrazu oryginalnego, F kl - kolejna wartość wagi filtru, N - suma wartości wag filtru, lub 1 gdy suma wynosi 0. Filtry te używane są do eliminacji szumu w obrazie (szczególnie kilkupikselowego). Stosując właściwie dobrany filtr dolnoprzepustowy o odpowiednim rzędzie macierzy filtru można wyeliminować ten szum. Poniżej zaprezentowano kilka przykładów filtrów dolnoprzepustowych rzędu trzeciego: Filtr dolnoprzepustowy Najbardziej typowe zastosowanie filtracji polega na usuwaniu zakłóceń z obrazu. Do tego właśnie służą filtry dolnoprzepustowe. Filtr uśredniający usuwa drobne zakłócenia z obrazu znikają (a raczej ulegają znacznemu

osłabieniu ale i pewnemu rozmazaniu ) pojedyncze czarne punkty na jasnym tle lub jasne plamki na tle ciemnym, wygładzane są drobne zawirowania krawędzi obiektów, usuwane mogą być efekty falowania jasności zarówno w obszarze samych obiektów, jak i w obszarze tła, itp. Filtr omawianego typu ma jednak także zdecydowanie niekorzystne działanie, ponieważ powoduje pewne rozmycie konturów obiektów i pogorszenie rozpoznawalności ich kształtów. Filtr górnoprzepustowy Popularnie mówi się, że filtry górnoprzepustowe dokonują wyostrzania sygnału. Przeważnie przyjmuje się, że operacja wyostrzania polega na uwypukleniu krawędzi obiektów na obrazie. - filtr Gaussowski 2D * podstawy (teoretyczne właściwości), * wersja dyskretna, * realizacja cyfrowa filtru Gaussowskiego, - skutki filtracji wygładzającej obraz, 12.Filtry nieliniowe - Filtry, które nie zamazują krawędzi, usuwają zakłócenia z wnętrza są raczej filtrami nieliniowymi. - Tego typu filtry muszą wykrywać krawędzie przed zastosowaniem funkcji wygładzania - jest to bardzo trudne - Jedną z metod filtrowania nieliniowego, jest stosowanie filtru liniowego, który jest symetryczny w stosunku do pewnej osi, zamiast do punktu. Dla każdego elementu obrazu podejmowana jest próba oszacowania kierunku krawędzi, jeśli krawędź istnieje to filtr nie uśrednia punktów w poprzek krawędzi. - Idea tych filtrów polega na kolejnym zastosowaniu dwóch gradientów w prostopadłych do siebie kierunkach, a następnie na dokonaniu nieliniowej kombinacji wyników tych gradientów. Dzięki nieliniowej kombinacji rezultatów liniowych transformacji obrazu tworzy się w ten sposób obraz wynikowy o wyjątkowo dobrze podkreślonych konturach - niezależnie od kierunku ich przebiegu. - filtry medianowe (definicja, właściwości) Najczęściej spotykanym przykładem filtru działającego na tej zasadzie jest filtr wykorzystujący medianę. Przypomnijmy: mediana jest wartością środkową w uporządkowanym rosnąco ciągu wartości jasności pikseli z całego rozważanego otoczenia przetwarzanego piksela. Np.: mediana spośród wartości jasności pikseli zawartych w oknie {1, 12, 13, 13, 16, 17, 17, 19, 198} przyjmuje wartość 16 - i taką właśnie wartość będzie miał odpowiedni piksel na obrazie wynikowym. Chwila zastanowienia pozwala upewnić się, że jest to wybór sensowny. Filtr medianowy jest filtrem mocnym, gdyż ekstremalne wartości, znacznie odbiegające od średniej (w rozważanym przypadku jest to pierwotna wartość przetwarzanego punktu wynosząca 198 i - także chyba zakłócona - wartość 1) nie mają wpływu na wartość, jaką filtr przekazuje na swoim wyjściu. Filtr medianowy bardzo skutecznie zwalcza wszelkie lokalne szumy, nie powodując ich rozmazywania na większym obszarze, co jest niestety przypadłością wszystkich filtrów konwolucyjnych. - filtr ten obcina narożniki kwadratów. 13.Dobór maski filtra - kształt, wielkość a rezultaty filtracji cyfrowej. Powiększenie zakresu kontekstu (rozmiary maski filltra) powoduje znacznie bardziej radykalne działanie filtru, co na ogół objawia się znacznie silniejszą erozją (rozmyciem) obrazu. Równocześnie większy rozmiar maski konwolucji prowadzi do znacznego zwiększenia pracochłonności obliczeń związanych z procesem przetwarzania obrazu.