Kolokwia bez notatek. Prędzej zrozumienie podstaw, porównywanie związków, algorytmów itp. Nie wypisywanie wzorów

Podobne dokumenty
Cyfrowe Przetwarzanie Obrazów. Karol Czapnik

Akwizycja obrazów. Zagadnienia wstępne

Laboratorium Optyki Falowej

0. OpenGL ma układ współrzędnych taki, że oś y jest skierowana (względem monitora) a) w dół b) w górę c) w lewo d) w prawo e) w kierunku do

Podstawy grafiki komputerowej

Teoria światła i barwy

Adam Korzeniewski p Katedra Systemów Multimedialnych

Grafika Komputerowa Wykład 2. Przetwarzanie obrazów. mgr inż. Michał Chwesiuk 1/38

Analiza obrazów - sprawozdanie nr 2

Pojęcie Barwy. Grafika Komputerowa modele kolorów. Terminologia BARWY W GRAFICE KOMPUTEROWEJ. Marek Pudełko

Fotometria i kolorymetria

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 1 AiR III

Zasady edycji (cyfrowej) grafiki nieruchomej

Fotometria i kolorymetria

Przetwarzanie obrazów rastrowych macierzą konwolucji

Przedmowa 11 Ważniejsze oznaczenia 14 Spis skrótów i akronimów 15 Wstęp 21 W.1. Obraz naturalny i cyfrowe przetwarzanie obrazów 21 W.2.

Grafika komputerowa. Dla DSI II

BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat

Plan wykładu. Wprowadzenie Program graficzny GIMP Edycja i retusz zdjęć Podsumowanie. informatyka +

Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych

Plan wykładu. Wprowadzenie Program graficzny GIMP Edycja i retusz zdjęć Podsumowanie. informatyka +

WYKŁAD 3. Przykłady zmian w obrazie po zastosowaniu Uniwersalnego Operatora Punktowego

Technologie Informacyjne

Budowa i zasada działania skanera

GRAFIKA. Rodzaje grafiki i odpowiadające im edytory

Cyfrowe przetwarzanie obrazów i sygnałów Wykład 2 AiR III

PODSTAWY BARWY, PIGMENTY CERAMICZNE

Przetwarzanie obrazów wykład 1. Adam Wojciechowski

Diagnostyka obrazowa

Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 9. Przetwarzanie sygnałów wizyjnych. Politechnika Świętokrzyska.

INFORMATYKA WSTĘP DO GRAFIKI RASTROWEJ

Obraz cyfrowy. Radosław Mantiuk. Wydział Informatyki Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Modele i przestrzenie koloru

Grafika komputerowa. Oko posiada pręciki (100 mln) dla detekcji składowych luminancji i 3 rodzaje czopków (9 mln) do detekcji koloru Żółty

Simp-Q. Porady i wskazówki

Percepcja obrazu Podstawy grafiki komputerowej

Kurs grafiki komputerowej Lekcja 2. Barwa i kolor

Podstawy przetwarzania obrazów teledetekcyjnych. Format rastrowy

Algorytmy decyzyjne będące alternatywą dla sieci neuronowych

Proste metody przetwarzania obrazu

WYKŁAD 14 PODSTAWY TEORII BARW. Plan wykładu: 1. Wrażenie widzenia barwy. Wrażenie widzenia barwy Modele liczbowe barw

Parametryzacja obrazu na potrzeby algorytmów decyzyjnych

Akwizycja i przetwarzanie sygnałów cyfrowych

Do opisu kolorów używanych w grafice cyfrowej śluzą modele barw.

Obraz jako funkcja Przekształcenia geometryczne

PROJEKT MULTIMEDIACY

AKWIZYCJA I PRZETWARZANIE WSTĘPNE

oraz kilka uwag o cyfrowej rejestracji obrazów

POB Odpowiedzi na pytania

1 LEKCJA. Definicja grafiki. Główne działy grafiki komputerowej. Programy graficzne: Grafika rastrowa. Grafika wektorowa. Grafika trójwymiarowa

Gimp Grafika rastrowa (konwersatorium)

Ćwiczenia z grafiki komputerowej 5 FILTRY. Miłosz Michalski. Institute of Physics Nicolaus Copernicus University. Październik 2015

Dane obrazowe. R. Robert Gajewski omklnx.il.pw.edu.pl/~rgajewski

Temat ćwiczenia: Zasady stereoskopowego widzenia.

Przekształcenia punktowe

Przykłady wybranych fragmentów prac egzaminacyjnych z komentarzami fototechnik 313[01]

Obróbka grafiki cyfrowej

Analiza obrazu. wykład 1. Marek Jan Kasprowicz Uniwersytet Rolniczy Marek Jan Kasprowicz Analiza obrazu komputerowego 2009 r.

Implementacja filtru Canny ego

Urządzenia techniki komputerowej Identyfikacja i charakteryzowanie urządzeń zewnętrznych komputera. Budowa i zasada działania skanera

Wydział Inżynierii Środowiska i Geodezji Katedra Fotogrametrii i Teledetekcji Katedra Geodezji Rolnej, Katastru i Fotogrametrii.

RAFAŁ MICHOŃ. Zespół Szkół Specjalnych nr 10 im. ks. prof. Józefa Tischnera w Jastrzębiu Zdroju O r.

Kompresja dźwięku w standardzie MPEG-1

Optyka stanowi dział fizyki, który zajmuje się światłem (także promieniowaniem niewidzialnym dla ludzkiego oka).

6. Algorytmy ochrony przed zagłodzeniem dla systemów Linux i Windows NT.

Wprowadzenie do cyfrowego przetwarzania obrazów

Zygmunt Wróbel i Robert Koprowski. Praktyka przetwarzania obrazów w programie Matlab

MIKROSKOPIA OPTYCZNA AUTOFOCUS TOMASZ POŹNIAK MATEUSZ GRZONDKO

OP6 WIDZENIE BARWNE I FIZYCZNE POCHODZENIE BARW W PRZYRODZIE

Informatyka I stopień (I stopień / II stopień) ogólnoakademicki (ogólno akademicki / praktyczny) kierunkowy (podstawowy / kierunkowy / inny HES)

Ćwiczenie 6. Transformacje skali szarości obrazów

Transformata Fouriera

Komputerowe obrazowanie medyczne

Synteza i obróbka obrazu. Tekstury. Opracowanie: dr inż. Grzegorz Szwoch Politechnika Gdańska Katedra Systemów Multimedialnych

Janusz Ganczarski CIE XYZ

Ćwiczenie 2. Przetwarzanie graficzne plików. Wprowadzenie teoretyczne

A2 Edycja informacji zmiana parametrów ekspozycji aparatem fotograficznym NIKON D3100

Wstęp do fotografii. piątek, 15 października ggoralski.com

Politechnika Świętokrzyska. Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 8. Filtracja uśredniająca i statystyczna.

Cairns (Australia): Szerokość: 16º 55' " Długość: 145º 46' " Sapporo (Japonia): Szerokość: 43º 3' " Długość: 141º 21' 15.

Instrukcja obsługi menu OSD w kamerach i8-...r

PODSTAWY TEORII BARW

Dodatek B - Histogram

Marcin Wilczewski Politechnika Gdańska, 2013/14

KARTA PRZEDMIOTU. W5/1;W16/1 W5 Zna podstawowe metody przetwarzania wstępnego EP WM K_W9/3; obrazów barwnych.

SYLABUS/KARTA PRZEDMIOTU

Tajemnice koloru, część 1

Przetwarzanie obrazów wykład 4

MODELE KOLORÓW. Przygotował: Robert Bednarz

AKWIZYCJA I PRZETWARZANIE WSTĘPNE OBRAZU

Kamera. Nr produktu

Operator rozciągania. Obliczyć obraz q i jego histogram dla p 1 =4, p 2 =8; Operator redukcji poziomów szarości

Przetwarzanie obrazu

POBR Egzamin 1. Wszystkie kroki rozpoznawania obrazów (chyba od akwizycji do rozpoznania) 2. Różnice i podobieństwa RGB i HSV

3. Przetwarzanie analogowo-cyfrowe i cyfrowo-analogowe... 43

Analizy Ilościowe EEG QEEG

Przetwarzanie obrazu

Waldemar Izdebski - Wykłady z przedmiotu SIT / Mapa zasadnicza 30

Techniki animacji komputerowej

WYKŁAD 11. Kolor. fiolet, indygo, niebieski, zielony, żółty, pomarańczowy, czerwony

Transkrypt:

POBR 1. Wykład 1: Formalności: Prowadzący: P. Rokita, pok. 322, konsultacje: wt 14:00-16:00, pro@ii.pw.edu.pl, telefon konsultacji: (0-22)(234)7753 Gablota informacyjna na przeciwko 322. Projekty na ten semestr już wywieszone! Kolokwia: 2x20 pkt. 1 15.04 2 03.06 Kolokwia bez notatek. Prędzej zrozumienie podstaw, porównywanie związków, algorytmów itp. Nie wypisywanie wzorów Egzamin: 60 pkt. Egzamin bez notatek. Sprawdza kompleksowo wiedzę: wykład, projekt i laboratorium. Laboratorium: Początek za 3 tygodnie, sala 313. 3 ćwiczenia. Na następnym wykładzie będzie puszczona tabelka z zapisami na konkretne terminy. Istnieje możliwość realizacji w innym terminie, zamiany itp. (w miarę wolnych miejsc na laborkach). Ćwiczenia praktyczne polegają na eksperymentowaniu z algorytmami, nie są punktowane. Można zaliczyć lub nie zaliczyć, brak zaliczenia jednej laborki powoduje niezaliczenie przedmiotu. Wyniki można oddawać później po porozumieniu z prowadzącym. Projekt: Start przewidywany w połowie semestru, ze względu na treść wykładu. Przekrojowe: akwizycja, poprawa jakości, rozpoznanie obrazu. Samemu należy uściślić, co chce się rozpoznawać. Zaliczenie projektu poprawnie nie wpływa na punktację. Projekt dobrze zrobiony może doliczyć bonus do 10 pkt. Z drugiej strony, można dostać punkty negatywne do -10 pkt. Można także nie zaliczyć projektu, co jest równoważne z niezaliczeniem przedmiotu. Integralną częścią projektu jest sprawozdanie. W sprawozdaniu wykorzystanie algorytmów, próby i błędy w doborze algorytmu i parametrów, dla jakich obrazów działa / nie działa, dlaczego. Czyli taka analiza. Program nie musi działać w 100%. Powinien rozpoznawać pewną kategorię obrazów. Etap wstępny: 13.05 - uściślenie treści zadania: wybór kategorii rozpoznawanych obiektów, przygotowanie przykładowych obrazów itp. Termin ostateczny, można zaliczyć wcześniej. Lepiej wcześniej skonsultować się z prowadzącym, żeby nie popełnić projektowego samobójstwa. Zakończenie: 10.06 - spotkanie z prowadzącym. Przedstawienie działania i sprawozdania. Termin ostateczny, można zaliczyć wcześniej. Szczegóły realizacji: na pierwszych laborkach dostajemy "kadłubek" projektu w C++ wczytujący, wyświetlający, zapisujący obraz. Projekt realizujemy rozbudowując ten kadłubek. Kadłubek nie zobowiązuje - można realizować po swojemu, trzeba skonsultować obecność odpowiedniej technologii 313, ewentualnie na laptopie. Konsultacje nt. laboratorium K.Chabko.

Literatura: Głównym źródłem jest wykład. Literatura opcjonalna. Jeden z rozdziałów przedstawiony na 3 laboratorium. - R.Tadeusiewicz: systemy wizyjne robotów przemysłowych, WNT 1992 Skrypt, dosyć skondensowane przedstawienie zagadnień od akwizycji poprzez poprawę jakości, po rozpoznawanie. Polecana przez prowadzącego. - R.Tadeusiewicz, P.Korohoda: Komputerowa analiza i przetwarzanie obrazów, Wydawnictwo Postępu Telekomunikacji, Kraków 1997 Bardziej rozwlekle opisane, lepsze dla opanowywania po raz pierwszy. Dostępne publicznie pdf-y z tą książką. - C.D.Watkins, A.Sadun, S.Marenka: Nowoczesne metody przetwarzania obrazu, WNT 1995 M.in. algorytmy morphingu i warpingu. Mogą przydać się korekcje zniekształceń geometrycznych dla poprawy jakości. Przystępna, merytorycznie nie do końca poprawna. Załączona dyskietka z podstawowymi algorytmami napisanymi w C. - T.Pavlidis: Grafika i przetwarzanie obrazów, WNT 1987 - M.Ostrowski(red.): Informacja obrazowa, WNT 1992 Szeroki zakres zagadnień związanych z informacją obrazową. Dobry rozdział z algorytmów poprawy jakości, w skondensowanej formie. Fizyczne podstawy powstawania obrazu, zjawiska zachodzące w emulsji fotograficznej i przetwornikach, percepcja obrazu, opis przestrzeni barw itp. Dobra książka. - J.Zabrodzki(red.): Grafika komputerowa - metody i narzędzia, WNT 1994 Pozycja uzupełniająca, wzory przejść z jednej przestrzeni barw na inną itp. - A.Watt, F.Policarpo: The Computer Image, Addison-Wesley, 1998 Grafika, przetwarzanie... - R.C. Gonzalez, R.E.Woods: Digital Image Processing, Addison-Wesley, 1993 Jedna z dobrych pozycji, biblia (ale nie w sensie wielkości). Od percepcji, przez akwizycję i poprawę jakości, aż po rozpoznawanie. ----------------------------------------------------------------------------------------------------------------------------- Przetwarzanie obrazów: Około 80% informacji odbieramy kanałem wzrokowym. Zastosowania: - poligrafia - przetwarzanie cyfrowe na potrzeby składu i redagowania książek, czasopism - automatyka - robotyka przemysłowa, np. wklejanie szyby w karoserię - medycyna - tomografia komputerowa, analiza obrazów tomograficznych - kryminalistyka - algorytmy rozpoznawania odcisków palców - geodezja i kartografia - różne mapy konstruowane z obrazów satelitarnych i GPS - nadzór i zabezpieczenie obiektów - rozpoznanie ludzi w kominiarkach :) - komunikacja - rozpoznanie samochodów i pieszych, rozładowanie korków, światła - laboratoria badawcze - przyspieszanie badań naukowych, np. zliczanie ciałek krwi - wojsko - pociski naprowadzane z kamery - astronomia i astrofizyka - odkrywanie planet z użyciem specjalnej kamery CCD i pakietu oprogramowania analizującego obrazy i poprawiającego jakość - telewizja cyfrowa, DVD, monitory ekranowe itd. Książka, ramię robota bierze ją do ręki, obraca się i dalej wykonuje operacje, coś idzie nie tak, dookoła mnóstwo krwi, detektyw dziwi się, że nie może znaleźć pod lupą odcisku palca, lupa zmienia się w wielki obiektyw satelitarny, przez który widać mapę, zbliżenie na mapie pokazuje włamywacza, widać obserwującą go kamerę, inna kamera na skrzyżowaniu analizuje samochody i pieszych, w skrzyżowanie uderza pocisk naprowadzany kamerą, dokoła widać ciałka krwi, wystrzelony ze statku kosmicznego, który właśnie odkrył ziemię. Wszystko dzieje się na ekranie telewizora cyfrowego, widać

wystawę z DVD, ekranami itd. 1.25: Grafika komputerowa - synteza obrazu na podstawie pewnego abstrakcyjnego opisu. Przetwarzanie obrazu - poprawianie jakości, redukcja szumu Analiza obrazu - uzyskanie pewnego opisu abstrakcyjnego na podstawie obrazu rastrowego Rozpoznawanie - zaklasyfikowanie opisu do pewnej kategorii. Na podstawie klasyfikacji możemy podejmować decyzje (np. czy dany detal jest prawidłowo wykonany) Od pewnego czasu algorytmy cyfrowego przetwarzania obrazu pojawiają się w końcowym odcinku toru przetwarzania opis->obraz: - można poprawić w ten sposób jakość generowanego obrazu przez np. wygładzanie szumów powstałych w czasie generacji - distributed ray-tracing zastąpiony przez adaptacyjną filtrację dolnoprzepustową z parametrem wielkości buforu Recepcja (akwizycja) - obraz musi być zbierany w odpowiedni sposób, żeby nadawał się dla dalszego przetwarzania. Podstawowe zagadnienia cyfrowego przetwarzania obrazów: - akwizycja obrazów cyfrowych (digitalizacja) - pozyskiwanie obrazów cyfrowych - kompresja obrazów (kodowanie) - algorytmy kompresji, przykładowo JPEG - poprawa jakości obrazów - np. redukcja szumów - efekty specjalne - warping, morphing itp. - analiza i rozpoznawanie obrazów 1.27: Digitalizacja - uzyskiwanie cyfrowej funkcji jasności (intensity function), na podstawie informacji analogowej. W najprostszym schemacie światło od obiektu jest skupiane przez soczewkę na matrycy CCD. W czasie digitalizacji należy brać pod uwagę nie tylko ilość megapixeli matrycy, ale również wykonanie układu optycznego. Ważne są także rozmiary matrycy fizyczne - większa matryca generuje większą dokładność, mniejsze szumy. 2. Wykład 2: Laboratoria: - grupa L1: 18.03, 08.04, 22.04 Podstawowe problemy digitalizacji: - dyskretyzacja dziedziny próbkowanie - dyskretyzacja zbioru wartości kwantyzacja Twierdzenie o próbkowaniu w kontekście grafiki: Częstotliwość próbkowania powinna być 2xwiększa niż największa częstotliwość obecna w widmie sygnału analogowego. Jak wyznaczyć maksymalną częstotliwość w analogowych obrazach w celu wyznaczenia częstotliwości próbkowania? Dla dowolnych obrazów nie da się wyznaczyć częstotliwości przestrzennych (oprócz przypadków oczywistych, typu: ściana, szachownica o określonych wymiarach itp.). Istnieją fizyczne ograniczenia sprzętu, rozdzielczość matrycy itp. Mamy pewne algorytmy interpolacji, ale rozwiązania programowe nie są doskonałe. Z pewnych obliczeń wynika, że np. monitor komputerowy powinien mieć rozdzielczość pionową / poziomą rzędu 4000 pix. Na razie większość obrazów nie może być

próbkowanych zgodnie z twierdzeniem, ze względu na ograniczenia fizyczne. Na taką jakość mogą sobie pozwolić produkcje filmowe realizowane cyfrowo, połowa tej rozdzielczości to standard HDTV. W Japoni w tym roku dokonano pierwszego pokazu Ultra- HDTV (UHDTV). Konsekwencją zbyt małej częstotliwości próbkowania jest np. aliasing (kanciastość krawędzi). Budowa skanera: Obraz przez zespół luster jest rzutowany na czujnik w postaci linijki receptorów. Ze względów oszczędnościowych stosujemy ruchomy układ optyczny i nieruchomy czujnik. Czujnik jest zbudowany z fotodiód i filtru barwy. Filtr barwy może być ruchomy, wtedy rząd fotodiód jest pojedynczy. Można także zastosować nieruchomy filtr i trzy rzędy diód odpowiednio dla barwy R G B. Sam czujnik jest węższy niż szerokość kartki i światło w drugiej płaszczyźnie też musi być załamywane w odpowiedni sposób. W środku znajduje się świetlówka emitująca "biel równoenergetyczną". Świetlówka przemieszcza się razem z lustrem. Druga architektura - na podstawie czujnika CIS (Contact Image Sensor). led sensor CMOS(CCD) o - o - o - o - Rozwiązanie jest prostsze z punktu widzenia producenta, prostsza w montażu, odporniejsza(świetlówki łatwiej ulegają uszkodzeniom, niż LED). Z punktu widzenia akwizycji obrazu druga architektura ma dużo gorsze parametry. Biel diod LED nie jest równoenergetyczna. Najczęściej dioda świeci pewną barwą, która pobudza luminofor świecący na biało, jednak biel uzyskiwana tą drogą też jest marnej jakości. Układ optyczny mieści się bezpośrednio w CIS (technika nanoszenia mikrosoczewek). Dla zastosowań amatorskich w sam raz, dla zastosowań profesjonalnych konieczna lustrzanka. Digitalizacja - różne zakresy widma: Akwizycja obrazu i jego digitalizacja nie musi dotyczyć widma widzialnego. Możemy zbierać i przetwarzać obraz także w podczerwieni, zakresie promieni Gamma, fal radiowych itp. Przykładem zastosowania może być tomografia komputerowa. Detektory wykorzystywane nie są detektorami optycznymi, ale specjalnymi detektorami CCD. Linia emiterów promieni X wysyła równoległą wiązkę promieni do linijki detektorów. Z powodu różnej zdolności adsorbczej poszczególnych tkanek, uzyskujemy pewien pojedynczy przebieg. Tak zwany rzut akumulacyjny. Całość urządzenia obraca się o określony kąt, aż do uzyskania pełnego obrotu. Wyniki pomiarów są zapisywane w postaci tysięcy równań z tysiącami niewiadomych. Niewiadome są wartościami pikseli (wokseli?) na przecięciach promieni po obrocie. Dzięki temu, możemy wyliczyć adsorpcję tkanek w trójwymiarowych obiektach. Na początku, realizacja przez przesuwanie jednego emitera i detektora i generowanie rzutu akumulacyjnego w sposób iteracyjny. Później, dzięki zwiększeniu mocy obliczeniowej, możliwość zastosowania źródła promieniowania X o charakterze punktowym (promienie wychodzące z jednego źródła "promieniście"), podobnie detektora o kształcie łuku. Obliczenia są wspomagane m.in. przez użycie transformaty Fouriera. Innym przetwarzanym jako obraz sygnałem może być sygnał akustyczny, radarowy,

termiczny Algorytmy kompresji: Dla typowych obrazów stopień kompresji bezstratnej nie większy niż 3:1. Dlatego w przetwarzaniu obrazów stosujemy tzw. stratne algorytmy kompresji. Algorytm komporesji jest rodzajem algorytmu kodowania. Jeżeli nie będzie dopasowany do problemu, do wejścia, może dać w efekcie ekspansję zamiast kompresji. Problemy kompresji: - pojemność nośników - pomimo zwiększającej się pojemności np. dysków, zwiększa się też ilość danych - przepustowość łączy transmisyjnych - ale ostatnio też wzrosła! Przykład: - zapisać sekwencję filmową - standard NTSC 640x480x3 (ograniczamy od dołu przez VGA) = 900 kb na ramkę - *30 ramek/s = 27MB na sekundę, 1.6 GB na minutę, 144GB na 90 minut filmu - czyli algorytmy kompresji stratnej są konieczne. Poprawa jakości obrazu: Podstawowe operacje (także kategorie zagadnień, algorytmy): - usuwanie zakłóceń (redukcja szumu spowodowanego np. przez zakłócenia elektromagnetyczne urządzeń). Poprawienie jakości obrazu w sposób programowy lub fizyczny (schładzanie detektora w celu eliminacji szumu termicznego), np. na potrzeby przetwarzania obrazów mikroskopowych, astronomicznych itp. - poprawa kontrastu (wyostrzanie krawędzi) Kontrast = luminancja1-luminancja2 /luminancja_tła(adaptacja) Granicą przy której odróżniamy obiekty o pewnym kontraście to 2%. Np. dla zdjęć rentgenowskich kontrast jest bardzo bliski tej granicy i wymaga poprawienia przez obserwację na specjalnej lampie, lub obróbkę cyfrową. - korekcja zniekształceń określonego rodzaju (np. geometrycznych, prześwietlenia/niedoświetlenia obrazu). Może poprawiać parametry obrazu, także kontrast. Np. prześwietlenie może być korygowane algorytmem wyrównania histogramu. Innym typem korekcji jest korekcja zniekształceń geometrycznych. Poduszkowaty obraz, pół na pół czarno-biały, z szumem i rozmyciem. Na początku znika szum, potem wyostrza się kontrast, na koniec wyprostowuje. Korekcja zniekształceń geometrycznych: Aparaty fotograficzne i kamery potrafią zniekształcać zbierany obraz, wywołując tzw. efekt poduszki. Siatka kwadratowa narzucona na zdjęcie po wykonaniu przyjmuje pewien poduszkowaty, wklęsły lub wypukły kształt. Należałoby przeprowadzić transformację odwrotną. Ale nie znamy wzoru transformacji zniekształcenia. Fotografujemy więc siatkę kwadratową. Znajdujemy pary punktów odpowiednich pomiędzy zdjęciem a siatką. Są to tzw. pary punktów kontrolnych. Zapisujemy odpowiedni układ równań, w którym współczynniki są współrzędnymi punktów, niewiadomymi są współczynniki trasformacji, otrzymujemy w przybliżeniu wzór transformacji i wyliczamy oraz stosujemy odwrotną. Sposób inżynierski: - stosować obiektywy o jak najmniejszym zniekształceniu (z dłuższą ogniskową, a nie szerokokątne) - akwizycji dokonywać w centrum obrazu, gdzie zniekształcenia są najmniejsze

Problem przetwarzania obrazów: Usuwanie zakłóceń (szumów) oraz poprawa kontrastu, dwa podstawowe operatory przetwarzania obrazów, działają antagonistycznie! Należy dążyć do kompromisu dla danego zagadnienia, znalezienia złotego środka. Szum w obrazach ma najczęściej charakter impulsowy (salt & pepper). Obraz możemy przedstawić w postaci funkcji dwóch zmiennych (w 3D). Na obrazie stosujemy transformatę Fouriera, aby otrzymać widmo częstotliwościowe obrazu. Ostre krawędzi w obrazie oraz szum salt & pepper manifestują się jako wysokie częstotliwości w obrazie i nie da się ich rozróżnić z punktu widzenia transformaty. Stosujemy filtry dolnoprzepustowe, eliminujemy szum, ale z drugiej strony rozmywamy w ten sposób krawędzi przez eliminację wysokich częstotliwości. Z drugiej strony, poprawa krawędzi wymaga zastosowania filtru górnoprzepustowego, ale wprowadza do obrazu szum. Efekty specjalne: Podstawowe operacje: - morphing, warping - symulacja efektów optycznych(głębia ostrości, zmiana oświetlenia) 3. Wykład 3: Morphing: Morphing - zmiana formy postaci z jednej w inną. Realizujemy przez wygenerowanie pomiędzy dwoma klatkami kluczowymi serii klatek hybrydowych. U podstaw leżą algorytmy korekcji zniekształceń geometrycznych <rys1> Punkty kontrolne muszą być wprowadzone w miejscach, gdzie coś się dzieje (kąciki oczu, obrys ust i nosa, twarzy itp.), tzw. punkty charakterystyczne. Ręcznie wskazujemy pary odpowiadających sobie punktów (chociaż są też próby automatycznego wyznaczania). Interpolacja na dwóch poziomach: - geometryczny - średnia geometryczna położeń - barwy - uśrednianie wartości pikseli pomiędzy punktami kluczowymi Przetwarzane są także punkty pomiędzy charakterystycznymi. Generowanie serii klatek np. przez rekursywne zagłębianie (ale przez średnią ważoną jest szybciej). Warping: Warping - algorytm jest bardzo podobny, różnica od strony logicznej. Przekształcamy tą samą postać, a nie jedną w drugą. Generujemy klatki pośrednie pomiędzy położeniami postaci. Dzięki temu możemy sobie generować sekwencje typu Matrix. Sekwencja typu "Matrix" - mamy kilkanaście aparatów na obwodzie okręgu, jednocześnie je odpalamy. Poprzez warping generujemy płynną sekwencję (do zamrożenia czasu konieczne jest 12000 fps!). <rys2> Nanoszone są punkty i wektory kontrolne. Zrezygnowano z siatki korekty geometrycznej (niewygodna) na rzecz par wektorów kontrolnych. Interpolacja po wektorach przez rekursję lub średnią ważoną. Problemem jest niemożność ustawienia aparatów w odpowiedni sposób (występują odchylenia płaszczyzny ogniskowej) - obraz skacze. Należy to także skorygować metodami przetwarzania obrazu. Wycinanie artefaktów tła - techniki bluebox, greenbox itp. Potem wstawianie tła, grafiki

zwykłej i komputerowej, możliwości jest wiele. Symulacja efektów optycznych - głębia ostrości: Ludzie obserwują obrazy, w których głębia ostrości jest ograniczona - rozmazywanie obrazów zbyt bliskich / dalekich w porównaniu z naszym punktem skupienia wzroku. Jeżeli nie jest to uwzględnione w grafice trójwymiarowej, to od razu można zauważyć, że obraz jest sztuczny. Aktor sadzany w bluebox, wygenerowana komputerowa dekoracja wirtualnego studia. Generowanie głębi ostrości z grafiki komputerowej polega na stosowaniu algorytmu distributed ray-tracing. Nie do wygenerowanie w czasie rzeczywistym. Można zastąpić adaptacyjną filtracją dolnoprzepustową, Z-bufor jest parametrem adaptacyjności. Do obrazu dodajemy rozmycie na podstawie głębi poszczególnych pikseli. Zaletą jest możliwość zastosowania na sygnale telewizyjnym (zwykła filtracja sygnału). Można wydzielić sobie pierwszy plan, drugi plan itp. Analiza i rozpoznawanie obrazów: Działa "odwrotnie" do grafiki komputerowej. Zamieniamy grafikę rastrową na pewien opis logiczny (matematyczny, geometryczny). Typowa sekwencja przetwarzania: - segmentacja - analiza cech - identyfikacja Segmentacja: Pierwszą rzeczą do zrobienia jest odrzucenie tła. Do tego służy segmentacja - klasyfikacja tło / obiekt(y). Piksele należące do obiektów są dalej przetwarzane. Problemem często jest etap akwizycji i digitalizacji - światłocień w obrazie może powodować fałszywą segmentację. Należy odpowiednio ustawić oświetlenie, aby rozmyć cień. Odblaski wyeliminować przez zmianę kąta padania światła. Analiza cech: Komputer posiada w pamięci bazę danych pewnych cech wyrażonych pod postacią liczb. Każdemu obiektowi po segmentacji przypisujemy pewien wektor cech. W książce Tadeusiewicza jest spory zestaw cech i sposobów ich wyliczania. Mamy np. cechy takie, jak wydłużenie obiektu, liczba wierzchołków itp. Dla każdej cechy istnieje pewna miara, którą wyznaczamy wartość danej cechy w postaci liczbowej. Identyfikacja: Na podstawie wartości atrybutów obliczonych w czasie analizy, dokonujemy rozpoznawania obiektu. Mamy bibliotekę obiektów wzorcowych z wzorcowymi zestawami cech. Porównujemy odległości od wzorców w przestrzeni wektora cech, wartość najmniejsza odległości decyduje o klasyfikacji. Są pewne problemy, o tym później. System rozpoznawania obrazu schemat: <rys3> Na początku mamy obraz analogowy, konwertujemy go A/C (digitalizacja). Należy zwrócić uwagę na sposób akwizycji obrazu, odpowiednio wysoką częstość próbkowania, eliminację aliasingu, nie stosować kompresji stratnej na wejściu. Zawsze jest potrzeba eliminacji szumu itp. przez algorytmy poprawy jakości obrazu,

kompensację zakłóceń. Do przetwarzania obrazu (sygnału) można podchodzić dwojako: Metody przestrzenne (działanie bezpośrednio na pikselach) Metody częstotliwościowe (działanie na transformatach obrazu) Na zwykłych sygnałach działamy w dziedzinie czasu, transformujemy w częstotliwość. <rys4> Dla obrazu dziedziną są współrzędne x,y pikseli. Działamy na dziedzinie przestrzennej i transformujemy w częstotliwości przestrzenne (np. w dpi, albo podanie rozdzielczości obrazu). <rys5> Zależność pomiędzy dziedziną przestrzenną a częstotliwościami przestrzennymi, wyraża <rys6>: Obliczanie transformat nakłada pewien koszt obliczeniowy na system, ale może ułatwiać poprawę jakości itp. itd. Decyzja musi być podejmowana z określoną pewnością (na ile prawdopodobne, że mamy prawidłowo rozpoznany obraz). System wymaga testowania praktycznie na każdym etapie - sprawdzić rozłożenie światła i cienia, podstawić skrajne dane i sprawdzić, jak zachowa się system, zamienić wartości pikseli (w sumie katować system w każdy możliwy sposób, który może popsuć mu decyzję). Jeżel na etapie akwizycji nie da się uniknąć podświetleń i cieni, to przed segmentacją trzeba zastosować dodatkowe algorytmy poprawy obrazu, w celu zalepienia "dziur" po podświetleniach itp. Przy konwersji sprawdzić, czy nie stosujemy za małych częstotliwości próbkowania, kompresji stratnej itp. Funkcja jasności (intensity function): Najczęściej funkcja dwóch zmiennych f(x,y) określona na obszarze sceny znajduącej się w polu widzenia kamery lub obserwatora. Funkcja jasności może mieć więcej zmiennych (np. trzy zmienne w obrazowaniu wolumetrycznym z tomografu komputerowego). Przydatne bywają przekroje prostą / płaszczyzną takiej funkcji dla celu analizy. Najprostszy opis : f(x,y)= i(x,y)*r(x,y) i(x,y) - opisuje natężenie oświetlenia (zależne od siły źródeł światła, odległości od źródeł światła oraz kąta padania promieni) r(x,y) - opisuje wspóczynniki odbicia lub tłumienia Opis obrazu barwnego kolorymetria: Addytywna światła Subtraktywna farby Prawa Grassmanna(1853r.): 1) Dowolne światło może być określone za pomocą trzech zmiennych niezależnych np. udziału świateł o trzech barwach podstawowych (wynika z teorii Younga-Helmholtza(?)) 2) Ciągła zmiana barwy jednego ze składników mieszaniny złożonej z dwu świateł powoduje ciągłą zmianę barwy mieszaniny 3) Barwa mieszaniny świateł zależy (przy określonych wartościach strumieni składników) tylko od barw jej składników, a nie zależny od ich składu widmowego. Ludzkie oko nie jest doskonałym analizatorem widma (tzw. metameryzm) <rys7>. Metameryzm powoduje nieprzyjemy efekt uboczny - barwy odbierane jako takie same przy jednym oświetleniu, mogą wydawać się różne przy innym oświetleniu. Duży problem

np. dla producentów drukarek 4. Wykład 4: Funkcja jasności w obrazach barwnych: Funkcja jasności dla obrazów barwnych może być przedstawiona jako sumaryczna barw podstawowych (z pominięciem barw, których nie można uzyskać za pomocą danych barw podstawowych): f(x,y) = fr(x,y)+fg(x,y)+fb(x,y) fr(x,y) = ir(xy)rr(x,y) itd. iw(x,y) - opisuje natężenie oświetlenia w zakresie danej barwy podstawowej rw(x,y) - opisuje współczynniki odbicia (lub tłmienia) w zakresie danej barwy podstawowej. W praktyce najczęściej stosuje się dwa podstawowe sposoby opisu obrazów barwnych: 1) Wszystkie trzy zmienne niosą jednocześnie informacje o chrominancji i luminancji - np. przestrzeń barw RGB: f(x,y) = fr(x,y)+fg(x,y)+fb(x,y) 2) Jedna zmienna niesie informacje o luminancji, a dwie zmienne niosą informacje o chrominancji - np. przestrzeń barw HLS(hue, lightness, saturation): f(x,y) = fl(x,y) + fh(x,y) + fs(x,y) Inne: HSV, YUV (pal), YIQ (ntsc) Opis obrazu barwnego kolorymetria: Addytywna - dla źródeł światła, tło stanowi czarny ekran Subtraktywna - dla barw np. w poligrafii, tło stanowi biała kartka Przenoszenie addytywnej na subtraktywną przez CMY. Niestety, nie da się tak uzyskać czarnego, dodajemy barwnik czarny (black) -> otrzymujemy CMYK. Przestrzeń kolorów niezależna od urządzeń: Są duże problemy z otrzymaniem np. na drukarce identycznych kolorów, jak te wyświetlane na ekranie. Wykonano eksperyment z tzw. kolorymetrem <rys1> Zadaniem operatora jest takie dobranie natężeń światła wzorcowego, aby granica w przesłonie "zniknęła". Wyniki uśredniamy po grupie obserwatorów. Otrzymano umowny trójkąt barw RGB w układzie RG <rys2>. Każda barwa jest możliwa do uzyskania przez mieszanie barw brzegowych. Stąd wniosek, że żaden układ 3 barw podstawowych (rzeczywistych) nie daje wszystkich barw w przyrodzie. Znak ujemny -> przeniesienie lampki na drugą stronę klina. Układ XYZ CIE: W 1931 r. CIE wprowadziła, jako podstawowy - układ kolorymetryczny XYZ o fikcyjnych barwach podstawowych. <rys3> Okazało się, że niewygodny do obliczeń - wykonano opisanie obwiednią trójkątną, następnie zamapowano w pierwszą ćwiartkę 3D układu kartezjańskiego. Rzutowanie na daną płaszczyznę powoduje eliminację luminancji. Najczęściej rzutujemy na XY. <rys 4>

Leżące na obwodzie barwy widmowe i purpury składają się na barwy czyste. Zastosowanie rzutu XYZ na płaszczyznę XY: Trójkąt przestrzeni barw obsługiwanej przez dane urządzenie, wycina fragment w przestrzeni "trójkąta" XYZ w XY. Żeby opisać przestrzeń barw urządzenia, potrzebujemy oprócz trójkąta barw pewnego punktu odniesienia. Jest to tzw. biel odniesienia (E) <rys5> Np. na reklamach proszków do prania biel odniesienia przesuwa się w kierunku niebieskiego, żeby była bardziej biała :) HLS: Hue - odcień Lightness - jasność Saturation nasycenie Odcień barwy = po prostu barwy czyste XYZ CIE. <rys6> Nasycenie na brzegach trójkąta barw wynosi 1, w punkcie bieli odniesienia 0. Stanowi miarę położenia punktu pomiędzy barwą czystą a bielą. Dla odcienia barwy układ ma 0 w czerwieni, kąt odchylenia promienia zaczepionego w bieli wyznacza nasycenie. Balans bieli: Problemem jest wyznaczenie bieli odniesienia. Aparaty fotograficzne mają balans bieli (white balance). Błędne skalibrowanie bieli odniesienia powoduje skręcenie barwy czystej<rys7>. Rozwiązaniem może być ręczne skalibrowanie balansu bieli za pomocą specjalnej planszy z trzema odcieniami szarości (od czarnego począwszy :) ). Żeby wykonać balans bieli za pomocą jednego parametru, wprowadza się krzywą w układzie XYZ CIE, która oddaje barwę emitowaną przez ciało doskonale czarne przy określonej temperaturze. Można wybrać biel w kelwinach, zamiast zestawiać za pomocą wzorca, czy automatycznie. Standardowa biel to 6500K. <rys8> Mieszanie barw: W układzie XYZ CIE jest to po prostu średnia ważona z poszczególnych barw. Standardy barw: SRGB - standard wprowadzony dla windows Pal-Secam - standard telewizji w Europie NTSC - ~ w Stanach D65 - biel odniesienia 6500K Adobe-RGB - wprowadzona przez Adobe, profesjonalne aparaty cyfrowe, większy zakres. Wide Gamut - standard teoretyczny, nie istnieje taki luminofor. Dla uzyskania całego gamutu teoretycznego, trzebaby zastosować lasery świecące wszystkimi barwami czystymi. Adobe-RGB: Przestrzenie srgb i Adobe-RGB różnią się. Trzeba dokonać konwersji z Adobe do s. Inaczej wysiada kontrast kolorów. Gamut barw drukarki: Ma kształt sześciokąta. Żeby dołożyć więcej barw podstawowych i mieć np. bardziej kolorowe zdjęcia, dokłada się do trójkąta CMY dodatkowe barwy podstawowe przez umieszczenie dodatkowego wkładu (foto / czarny). <rys9> Dodatkowy wkład "Photo GRAY" zawierający atrament w odcieniach szarości z różną

gradacją gwarantuje jeszcze większą jakość. Modele RGB, HLS, HSV: RGB sześcian HLS - podwójny stożek w układzie cylindrycznym HSV - pojedynczy odwrócony stożek w układzie cylindrycznym HLS i HSV stworzono m.in. po to, żeby umożliwić interaktywny wybór barw przez użytkownika. Obrazy cyfrowe - przejście od analogowej do cyfrowej postaci funkcji jasności: Dyskretyzacja dziedziny próbkowanie Dyskretyzacja zbioru wartości kwantyzacja 5. Wykład 5: Dyskretyzacja dziedziny próbkowanie: Wybór częstotliwości próbkowania - nie możemy w większości przypadków wyznaczyć tej częstotliwości, możemy tylko obserwować efekty i ewentualnie zwiększyć, żeby było spełnione kryterium Nyquista. Do uniknięcia zniekształceń sygnału niezbędne jest próbkowanie sygnału wejściowego z częstotliwością co najmniej dwukrotnie wyższą od najwyższej z występujących w analizowanym sygnale. Przykład zniekształcenia przy pogwałceniu kryterium Nyquista: f(t) = sin(1.9pit) ----->próbkowanie---->f(t)=sin(0.1pit) po rekonstrukcji! <rys1> f(x,y) = sin(x^2+y^2) dziedzina=[-10,10]^2 częstotliwość próbkowania=(x^2+y^2)/2pi stąd maks. 30 cykli na jedn. długości (w narożnikach) Wtedy 1000x1000 daje 50 próbek na jednostkę, 100x100 tylko 5 próbek na jednostkę <rys2>!matryca Bayera wprowadza aliasing, artefakty barwne oraz szum. Zwiększając częstotliwość próbkowania natrafiamy na problemy: Kwadratowo wzrasta złożoność operacji przesyłania, przechowywania, przeglądania - można rozwiązać przez zastosowanie lepszego, szybszego sprzętu. Trudnym problemem jest utrata spójności przestrzennej obrazu - sąsiednie próbki nie są skorelowane, jest to tzw. szum informacyjny. <rys3> Skąd wynika szum informacyjny: W algorytmach poprawy jakości stosowane są operatory lokalne <rys4>. Przekształcenie operatorem lokalnym wymaga 4 pętli zagnieżdżonych (O(n^4)!), czyli bardzo szybko rośnie liczba operacji wraz z rozmiarem okna operatora. Dlatego stosujemy

3x3, maksymalnie na szybkich maszynach 7x7. Przykład dla szumu: Mamy zdjęcie i chcemy wydrukować odbitkę. Zdjęcie: 300dpi = 120p/cm, 10x15cm==1200x1800px Czyli matryca 2Mpix (hint: np. dla A4 8Mpix) Jeżeli matryca aparatu będzie miała zbyt małą rozdzielczość, to dojdzie do uzyskania szumu. Wybór geometrycznej siatki dla próbek: W związku z konstrukcją matryc cyfrowych, najczęściej jest to siatka kwadratowa. Nie jest to rozwiązanie optymalne. Operatory lokalne stosowane na siatce kwadratowej wprowadzają różne odległości pikseli sąsiednich w zależności od położenia. <rys5> Bardziej optymalnym rozwiązaniem jest matryca w kształcie plastra miodu, na bazie sześciokąta.<rys6> 2 lata temu firma Fuji wyprodukowała prototyp takiej matrycy. Wybór rozkładu odległości pomiędzy próbkami: Biorąc pod uwagę rozkład częstotliwości na obrazie, możnaby zróżnicować odległość pomiędzy próbkami dla poszczególnych obszarów obrazu (np. Sosna z miniaturowymi igłami na jednolitym tle). Nie istnieją jeszcze odpowiednie algorytmy adaptacyjne, ale badania na pewno są prowadzone. Kwantyzacja: Minimalnie 1b/pix - obraz binarny, stosowane przede wszystkim w systemach automatycznych, na etapie segmentacji. Przykładowo w pakietach OCR. Maksymalnie - zależy od percepcji kolorów przez człowieka. Zmierzono za pomocą kolorymetru minimalny poziom kontrastu, przy którym nie da się już odróżnić dwóch sąsiednich pikseli. Wartość zmierzona: około 2%. Percepcja kontrastu zależy od luminancji punktu względem tła oraz od wielkości obserwowanego obszaru - kąta widzenia obrazu. Na rysunku oznaczono krzywe wyznaczające minimalne wartości kontrastu zależnie od luminancji oraz od kąta widzenia. <rys7> Wyliczono, że wystarczy 8b/px dla pojedynczej składowej! Po co w takim razie ustawienia typu 16b na składową? Weźmy obraz, w którym jest duża dynamika koloru i chcemy wykadrować część. Dzięki takiej dokładności nic nie tracimy, jeżeli weźmiemy tylko fragment obrazu i np. porozciągamy histogram. Wyostrzanie kontrastu przez oko ludzkie: Gdy oko dostrzega kontrast >= 2%, zniekształca barwy w obrazie <rys8> w taki sposób, żeby wyostrzyć kontast. Co ciekawe, naśladujemy naturę konstruując matematyczne przekształcenia na wzór filtru wbudowanego w mózg. Akwizycja - typowe rozwiązania: Dawniej - lampa analizująca: przetwornik optoelektroniczny zapewniający dyskretyzację dziedziny w jednym wymiarze na linie obrazu telewizyjnego, które następnie muszą zostać dalej spróbkowane, a próbki poddane kwantyzacji za pomocą przetworników A/C. Linie przesyłane i odtwarzane w odbiornikach telewizyjnych. <rys9> Teraz - układy CCD/CMOS: Automatyczna dyskretyzacja dziedziny, kwantyzacja za pomocą przetworników A/C. W tej chwili chętniej stosuje się detektory CMOS, gdyż podobna konstrukcja do procesorów,

zmniejszenie zajętości miejsca w fabryce i kosztów, potrzebne mniejsze zasilanie itp. Nowoczesne detektory CMOS są już tak dobre, jak CCD. W praktyce może stanowić problem: a) rzeczywista rozdzielczość przetwornika W ustawieniach oprogramowania dla urządzeń graficznych, np. skanerów, istnieje możliwość zwiększenia np. dpi, ale jest to tylko zmiana parametrów algorytmu interpolacji. Algorytmy interpolacji lepsze w pakietach graficznych, niż w oprogramowaniu dołączonym przez producenta. b) specyficzna akwizycja obrazów barwnych Dwa rozwiązania - 1CCD(1 CMOS) - pojedyncza matryca, 3CCD(3 CMOS) - 3 matryce: 3CCD<rys10> - 3 filtry barwne i trzy matryce, każda dla innej barwy podstawowej - światło rozdzielane poprzez system półprzezroczystych luster - pada na filtr, a następnie na matrycę dedykowaną barwy podstawowej Wady: - dużo wyższe koszta (3 matryce, droga optyka) - z powodu rozdzielania wiązki światła, gorzej zachowuje się w słabo oświetlonym środowisku 1CCD - filtr Bayera <rys11> - dominuje barwa zielona na siatce, gdyż podobno ludzkie oko Wady: - wprowadza rozmycie selektywne składowych <rys12> - wymaga dobrego oświetlenia, inaczej przez zastosowany algorytm uśredniania, przekłamania w obrazie propagują się na duże odległości (propagacja szumu) 1CCD - Foveon X3: Alternatywą dla fitru Bayera jest matryca Foveon X3: - trzy warstwy sensorów umieszczonych na podłożu krzemowym - krzem na różnej głębokości różnie pochłania światło o poszczególnyh barwach składowych. Dzięki temu ułożone warstwowo sensory tworzą pełnokolorowy punkt matrycy - detektory CCD podają pełną informację o nasyceniu światła czerwonego, zielonego i niebieskiego dla każdego punktu światłoczułego Wady: - gorsze zachowanie przy słabym oświetleniu w związku z nałożeniem warstw - określenie rozdzielczości matrycy przez producenta jest podane "razy 3" (nie jest brana pod uwagę częstotliwość próbkowania, tylko liczba detektorów!) Matryca Fuji Super CCD SR: - matryca prostokątna przekręcona o 45 stopni - zastosowany układ z filtrem Bayera - w każdym detektorze umieszczone 2 fotodiody na różne zakresy - mała dioda na dużą luminancję, duża o większej powierzchni - tam, gdzie światła mało - tak jak Foveon, tutaj mnożymy w specyfikacji "razy 2" 6. Wykład 6: Postać sygnału telewizyjnego: W dzisiejszych czasach do dzisiaj ciągnie się ten sam standard obrazu telewizyjnego. PAL lub NTSC. Nawet nowoczesne systemy z łączem DV na IEEE1394, od których oczekiwalibyśmy idealnego obrazu. Niestety, standardy telewizyjne mają wpływ na jakość. Minimalna częstotliwość, która powoduje wrażenie ruchu, to około 50Hz. PAL 50Hz, NTSC 60Hz eliminują efekt migotania. Wygodna częstotliwość to w tej chwili 100Hz.

Pomimo dobrego łącza, standard obrazu cały czas PAL lub NTSC, czyli będzie wyglądał jak telewizyjny. Interlace: Odświeżanie na przemian linii parzystych i nieparzystych. Przykładowo, w aparacie fotograficznym dla prawidłowego uchwycenia klatki w telewizji potrzeba czasu migawki > 1/25 sekundy. Interlace powoduje w kamerach rozmycie obrazu pomiędzy sąsiednie klatki w przypadu ruchu. <rys1> Dla obiektów poruszających się poziomo, z niewielkimi prędkościami, obiektywu o małym zniekształceniu, da się zastosować likwidację przeplotu (deinterlacing). Można tak poprzesuwać linie, aby zrekonstruować pełną ramkę. Można wyrzucić co drugą linię i kolumnę. Rozdzielczość siada w poziomie i w pionie, ale mamy kompletną ramkę. I prawidłową. Ewentualnie, rekonstrukcja na podstawie interpolacji. Nie nadaje się do rozpoznawania obrazów, gdyż nie można zrekonstruować informacji wysokoczęstotliwościowych. Sekwencje filmowe kino: Amerykańskie projektory kinowe odtwarzają filmy z prędkością 24 klatek na sekundę (fps): - projektory wyposażone są w migawkę, która blokuje światło w czasie zmiany klatek - aby zredukować migotanie, migawka zamyka się dodatkowo w czasie wyświetlania każdej klatki filmowej - daje to efekt odświeżania 48 fps - 48 fps jest perscepcyjnie akceptowalne. Europejskie projektory kinowe odtwarzają filmy z prędkością 25 klatek na sekundę: - amerykańskie filmy w Europie odtwarzane są bez zmian, czyli 4% szybciej - o 4% szybsze ruchy i zwiększona wysokość dźwięku jest uważana za percepcyjnie akceptowalną Sekwencje filmowe - konwersja do formatu wideo z wybieraniem międzyliniowym telecine: Np. transfer filmu na DVD: Problem: filmowe 24 fps musi zostać przekonwertowane na: - NTSC U.S. - 30 fps 768x494 - PAL Europa - 25 fps 752x582 - bez problemu, po prostu szybciej wyświetlane Rozwiązanie dla NTSC - "3:2 Pulldown" - zamiast 4-5 ramek, czyli zamiast 24 fps -> 30 fps. Ramki są interlace'owane : - pierwsza ramka zdekomponowana na 3 pola (nieparzyste, parzyste, nieparzyste - top bottom top) - następna ramka zdekomponowana na 2 pola (parzyste, nieparzyste - bottom top) - następna ramkna zdekomponowana na 3 pola (parzyste, nieparzyste, parzyste - bottom top bottom)...itd. Praktycznie opiera się na tym, że powielamy pierwsze "pole obrazu" w klatkach, w których występuje powielanie na 3.

Akwizycja obrazu pułapki: 1) Zła częstotliwość próbkowania (aliasing, szum informacyjny) 2) Zła liczba / rozłożenie poziomów kwantyzacji (skokowe przejścia, poprawa jakości przez wzrok) 3) Kompresja stratna (jpg, mpg, IEEE1394 - np. w aparatach domyślnie jpg, w kamerkach kompresja + DV telewizyjne) 4) Zniekształcenia geometryczne (obiektyw o dłuższej ogniskowej wprowadza mniejsze zniekształcenie) 5) Wybieranie międzyliniowe (interlace) Przeciwieństwo dla interlace to "progressive scan". Niektóre kamery pozwalają przełączyć się w ten tryb. Najczęściej producenci stosują deinterlacing z interpolacją, zamiast prawdziwego progressive scan. Efekt mory: mora - moire (interferencje z rastrem przy skanowaniu dokumentów drukowanych). Pojawia się też w kontekście digitalizacji obrazu. Obrazy w książkach i czasopismach drukowane za pomocą rastra drukarskiego. Składają się po prostu z kolorowych kropek. Różnica w częstotliwość rastra i linijki skanera powoduje interferencję <rys2> i efekt mory. Pojawiają się dodatkowe wzorce wysokoczęstotliwościowe. Skanery mają algorytmy poprawy obrazu, które redukują ten efekt. Najpierw filtracja dolnoprzepustowa - niszczy morę i krawędzi, potem górnoprzepustowa - wyostrza krawędzi, mora powinna była zostać wcześniej zlikwidowana. POPRAWA JAKOŚCI OBRAZÓW Poprawa jakości obrazów w praktyce sprowadza się do: - kompensowania wpływu zniekształceń określonego rodzaju - usuwania drobnych zakłóceń losowych i wygładania kształtów - zwiększania kontrastowości obrazów i wyostrzania konturów Podstawowy problem: Antagonizm pomiędzy wyostrzaniem obrazu a redukcją szumu. W parktyce do oczekiwanych rezultatów dochodzi się metodą prób i błędów: decudującą rolę przy projektowaniu algorytmów dla konkretnego zastosowania odgrywa eksperyment i doświadczenie projektanta. Ogólnie stosowane są dwie podstawowe grupy metod: 1) Metody przestrzenne - przekształceniu bezpośrednio poddawana jest funkcja jasności (wartości pikseli) 2) Metody częstotliwościowe - przekształceniu poddawana jest transformata (najczęściej Fouriera) funkcji jasności (wartości współczynników transformaty)

Korekcja zniekształceń radiometrycznych: Zniekształćenia radiometryczne obrazu polegają na nieprawidłowym odwzorowaniu jasności elementu obrazu w wartość odpowiadającego mu punktu macierzy funkcji jasności (piksela). Zniekształcenia te są najczęściej stacjonarne w czasie, natomiast zależą od lokalizacji w obrazie. Powstają w procesie produkcji, niektóre fotodiody mogą być uszkodzone itp. Związane ogólnie z popsutą matrycą. Istnieją dwa rodzaje zniekształceń radiometrycznych: 1) Zniekształcenia sumacyjne (addytywne) - n. prąd ciemny. W wyniku niedokładności produkcji niezerowe wartości elektryczne pojawiają się na nieoświetlonej diodzie. 2) Zniekształcenia iloczynowe (multiplikatywne) - np. nierównomierna czułość przetwornika - czułość fotodiod wyprodukowanych w matrycy nie jest identyczna. Niektóre są mniej wrażliwe na światło. Korekcja zniekształceń sumacyjnych: - macierz współczynników korekcji stanowi obraz otrzymany przy zasłoniętym obiektywie kamery: K_s(x,y) (tzw. dark frame) - korekcja polega na odejmowaniu od macierzy przetwarzanego obrazu macierzy zawierającej współczynniki korekcji: piksel'(x,y) = piksel(x,y) - K_s(x,y) W zastosowaniach takich, jak np. astronomia (mało światła, duże czasy ekspozycji), tego typu zakłócenia dosyć istotne. Korekcja zniekształceń iloczynowych: - wyznaczenie macierzy współczynników korekcji - akwizycja macierzy funkcji jasności V(x,y) dla jednorodnego jasnego obrazu odniesienia. Musi być jasny, aby wyeliminować prąd ciemny. Nie może być też zbyt jasny, gdyż w miejscu, gdzie gromadzą się ładunki naskutek dużego natężenia oświetlenia, następuje "rozlewanie się" ładunku. Jest to ogólny problem dla matryc cyfrowych. W praktyce oświetlamy równomiernie białą kartkę papieru lub matówkę. - ewentualna korekcja sumacyjna macierzy obrazu odniesienia - czasami okazuje się, że efekt sumacyjny jest niewielki i pomijalny - wyznaczenie maksymalnego elementu (najbardziej czułego) macierzy obrazu odniesienia V_max - wyznaczenie macierzy współczynników korekcji iloczynowej: K_i(x,y) = V_max/V(x,y). Czyli jest to wyrównanie do największego, uzyskujemy macierz ze współczynnikami wzmocnienia - korekcja polega na wymnożeniu przez współczynniki korekcji: piksel'(x,y) = piksel(x,y)*k_i(x,y) Korekcja zniekształceń sumacyjnych i iloczynowych: Każdy piksel przetwarzanego obrazu należy poddać operacji:

piksel'(x,y) = (piksel(x,y) K_s(x,y))*K_i(x,y) Algorytmy wstępnej korekcji/poprawy kontrastu (przekształcenia punkt-punkt): Typowo stosowane metody: - zmiany odwzorowania poziomów jasności - przeksztacenia histogramu Odwzorowanie jasności <rys3> Histogram w przetwarzaniu obrazu - prawdopodobieństwo wystąpienia piksela danej barwy w obrazie. Używamy stwierdzenia "przekształcenia histogramu", tak naprawdę jest to także zmiana poziomów jasności, tylko wykonywana na histogramie. - zmiany odwzorowania poziomów jasności - np. "ręcznie" - rozciąganie obszaru szarości kosztem całkiem ciemnego i jasnego <rys4> - inna ręczna zmiana odwzorowania poziomów jasności - oddziaływanie na kanały poszczególnych kolorów podstawowych (jasności) Zwiększenie kontrastu: Zwiększenie kontrastu przez rozszerzenie (rozciągnięcie) zakresu dostępnych jasności (altorytmicznie) - możliwe dla obrazów, których zakres jasności nie zajmuje całej dostępnej skali: oznaczenia <0,f_max> - dostępny zakres jasności <f1,f2> - zakres jasności wykorzystany przez dany obraz Korekcja polega na przeprowadzeniu dla każdej jasności fi za zakresu <f1, f2> operacji: fi'=(fi-f1)*f_max/(f2-f1) gdzie f1<=fi<=f2, a wyniki są zaokrąglane do liczb całkowitych czyli piksel'(x,y) = (piksel(x,y)-f1)*f_max/(f2-f1) W praktyce korzysta się z LUT realizując operację: piksel(x,y) = LUT[piksel(x,y)] Gamma korekcja: Problem - nieliniowość odwzorowania jasności dla różnych urządzeń wizualizacji i akwizycji obrazów. Przede wszystkim do wizualizacjik mniej do akwizycji. Przykładowo dla drukarek istnieją ograniczenia ilości kropelek tuszu, nie zmienia się liniowo. Analogicznie dla monitorów, ograniczenia napięcia w komórce. Korekcja polega na odpowiednim zamapowaniu jasności - takim, aby skompensować wprowadzaną nieliniowość <rys5>. <0,f_max> - dostępny zakres jasności Korekcja polega na przeprowadzeniu dla każdej jasności fi z zakresu <0, f_max> operacji: fi' = f_max*(fi/f_max)^(1/gamma) Gdzie: - fi - wartość poziomu jasności i przed korekcją - fi' - wartość poziomu jasności i po korekcji (wyniki zaokrąglane do liczb całkowitych)

Zniekształcenie wprowadza podnoszenie przez monitor jasności do potęgi gamma, korekcja polega na podnoszeniu do potęgi 1/gamma. Niektórzy producenci popełniają błąd i ich gamma działa przy korekcji jak 1/gamma.