Zwiększanie kontrastu jasnych obiektów w nagraniach video dla wyświetlaczy HDR.
|
|
- Jadwiga Adamczyk
- 9 lat temu
- Przeglądów:
Transkrypt
1 Uniwersytet Wrocławski Wydział Matematyki i Informatyki Instytut Informatyki Piotr Didyk Zwiększanie kontrastu jasnych obiektów w nagraniach video dla wyświetlaczy HDR. Praca magisterska napisana pod kierunkiem: dr Andrzeja Łukaszewskiego we współpracy z MPI Informatik, Niemcy: dr Rafał Mantiuk dr hab. Karol Myszkowski Wrocław 2008
2 Miniejsza praca podzielona jest na dwie części. Pierwsza to opis przebiegu prac nad projektem Enahncement of Bright Video Features for High Dynamic Range Display zralizowanym w Instytucie Maxa Plancka w Niemczech. Druga część to artykuł dotyczący zrealizowanego projektu, który zostanie zaprezentowany na Eurographics Symposium on Rendering w czerwcu 2008 roku. Artykuł zostanie także opublikowany w czasopiśmie: Computer Graphics Forum The International Journal of the Eurographics Association". 2
3 Przebieg prac nad projektem Enhancement of bright video features for high dynamic range display zrealizowanym w Instytucie Maxa Plancka w Saarbrücken 1 Wstęp Pracę nad projektem zacząłem podczas letniego semestru na 4. roku moich studiów, kiedy wyjechałem na stypendium naukowe z programu Socrates-Erasmus do Saarbrücken. Po przyjeździe skontaktowałem się z Karolem Myszkowskim, pracownikiem naukowym Instytutu Maxa Planca, który zaproponował mi współpracę z Rafałem Mantiukiem. Początkowo pracowałem nad projektem, który nie był związany z moją pracą magisterską, a dotyczył zautomatyzowanego odtwarzania obrazów o podwyższonym zakresie dynamicznym (ang. high dynamic range - HDR) z dużego zbioru zdjęć o niskim zakresie dynamicznym (ang. low dynamic range - LDR). Prace nad nim trwały dwa miesiące, po których otrzymałem od Rafała propozycje realizacji projektu, dotyczącego zagadnienia LDR to HDR, czyli odtwarzania obrazów HDR, mając do dyspozycji jedno zdjęcie LDR. Po konsultacji z Karolem oraz Andrzejem Łukaszewskim, podjąłem się realizacji tego projektu oraz postanowiłem, że będzie on jednocześnie moją pracą magisterską. W poniższym raporcie pragnę przedstawić przebieg prac nad tym projektem jak również mój wkład w niego. 2 Założenia projektu Problem LDR to HDR jest w ostatnim czasie modnym zagadnieniem. Wynika to przede wszystkim z rozwoju technologi produkcji nowoczesnych wyświetlaczy, które oferują coraz lepszy zakres dynamiczny. Żeby czerpać korzyści wynikające z nowych możliwości wyświetlaczy, potrzebna jest metoda wyświetlania na nich materiałów LDR. Naszym celem było stworzenie metody, która przystosowuje materiał LDR do wyświetlania na nowoczesnych wyświetlaczach. W szczególności skupiliśmy się nad problemem regionów obciętych, regionów, których jasność przekracza zakres dynamiczny sprzętu rejestrującego. Nasza metoda miała składać się z trzech kroków: wykrywanie obciętych regionów, które wymagają edycji klasyfikacja obiektów na trzy grupy: tekstury, odbicia, źródła światła rekonstrukcja obiektów w zależności jak zostały sklasyfikowane Założenie początkowe było takie, że nasza metoda będzie w pełni automatyczna. Najlepszy scenariusz zakładał, że naszą metodę będzie można zaimplementować na GPU, a wszelka edycja będzie wykonywana w czasie rzeczywistym podczas wyświetlania filmu. Jak się potem okazało, nie jest to takie proste. W następnych częściach chciałbym przedstawić jak nasz projekt ewaluował 3
4 do ostatecznej wersji. Moje sprawozdanie będzie oparte o plan prac, w którym z inicjatywy Rafała były spisywane plany na kolejne tygodnie prac, a także odnotowywane rzeczy, które były zrealizowane. 3 Przebieg prac 3.1 Początek prac Prace nad projektem zaczęły się jeszcze w lipcu 2007 roku. Wiedzieliśmy wtedy, że chcemy w jakiś sposób klasyfikować obiekty, które wymagają rekonstrukcji, na podstawie wyliczonych statystyk dla poszczególnych obiektów, biorąc po uwagę także rejony je otaczające. Okres do wakacji został poświęcony przeze mnie na czytanie wcześniejszych artykułów dotyczących tego tematu jak również na sprawdzenie statystyk zaproponowanych przez Rafała. Stan prac na dzień mojego wyjazdu z Saarbrücken po semestralnym pobycie wyglądał następująco: Po przeanalizowaniu literatury z lat poprzednich okazało się, że poza paroma metodami, które dotyczyły problemu LDR to HDR dla obrazów i nie mogły być zastosowane dla filmów z powodu braku spójności czasowej, jedyną pracą w której upatrywaliśmy potencjalnego konkurenta, to praca z roku poprzedniego z konferencji SIGGRAPH. Zdawaliśmy sobie jednak sprawę z jej problemów, które zamierzaliśmy rozwiązać. Proste i intuicyjne statystyki wykorzystujące znane zjawiska, takie jak np. efekt glare, nie dawały takich efektów jakich byśmy oczekiwali. Efekt glare jest jednym z efektów związanych ze źródłami światła. Polega on na rozpraszaniu się światła w powietrzu, co powoduje powstawanie wokół źródeł światła jasnych obwódek. Na miesięczne wakacje, które postanowiłem sobie zrobić, zostałem z problemem nowych statystyk, które mogłyby dać lepsze rezultaty, a także z zapoznaniem się z metodami klasyfikacji, o których nie miałem wystarczającej wiedzy. Z pomocą przyszła książka - Pattern classification - Duda, Hart, Stork. 3.2 Prace nad klasyfikatorem cz. 1 We wrześniu nowego roku akademickiego 2007/2008 wróciłem do Saarbrücken w celu wznowienia prac na projektem. Nie uczęszczałem w tym czasie na żadne zajęcia, więc cały swój czas mogłem poświęcić na realizację projektu. Ponieważ przygotowywaną pracę chcieliśmy wysłać na konferencję Computer Vision and Pattern Recognition (CVPR) mieliśmy 3 miesiące na ukończenie prac. Prace ruszyły od pierwszego dnia mojego pobytu. Mimo, że Rafał przez cały wrzesień był pochłonięty innymi obowiązkami, raz na tydzień organizowaliśmy godzinne spotkania, które miały ukierunkować moje prace. Cały wrzesień poświęciłem pracom nad klasyfikatorem oraz zbieraniu do niego danych testowych. Na początku stanowiły one zdjęcia z serwisu Flickr. W zgromadzonych przeze mnie zdjęciach znajdowało się ok obiektów, które został przeze mnie sklasyfikowane ręcznie za pomocą stworzonego do tego celu narzędzia. Wspomagając się literaturą dotycząca klasyfikacji oraz problemów z wykrywaniem w obrazach rozświetleń (ang. highlights), stworzyłem ok. 30 różnych statystyk, za którymi stały intuicje dotyczące zjawisk fizycznych zachodzących w obiektywach, efektów powodowanych przy rejestracji i przetwarzaniu filmów oraz kształtów obiektów. Przy takich zagadnieniach często pojawia się problem, jak oceniać statystyki. Wizualnie można to stwierdzić dla dwóch statystyk rysując 4
5 wykresy zależności jednej od drugiej jako chmurę punktów. Jednak problem pojawia się zawsze, gdy dochodzą kolejne wymiary, dlatego wykorzystałem także wykresy obrazujące bayes decision rule dla każdej ze statystyk. Bayes decision rule jest to zasada klasyfikacji, minimalizująca prawdopodobieństwo błędu. W prostym przypadku, mając policzoną pewną statystkę x obiektu α, który musi być przypożądkowany do jednej z dwóch klas ω 1 lub ω 2, oraz prawdopodobieństwo p(ω 1 x) oraz p(ω 2 x), bayes decision rule to: α ω 1 jeżeli p(ω 1 x) p(ω 2 x) wpp. α ω 2. p(error x) = min[p(ω 1 x), p(ω 2 x)] Należy pamiętać, że nigdy nie mamy do dyspozycji prawdopodobieństw p(ω i x). Możemy je jedynie estymować. Szybko się jednak okazało, że znalezienie statystyk, które przy wykorzystaniu klasyfikatorów, które uczyłyby się w trybie offline i osiągałyby sensowną skuteczność jest bardzo trudne. Nasze statystyki przy użyciu różnych klasyfikatorów off-line (korzystałem z toolboxa PRTools [2], który zawierał implementacje wielu klasyfikatorów) dawały błąd ok. 40%, co dla nas było nie do przyjęcia, ponieważ chcieliśmy, aby nasza metoda była automatyczna. Główną przyczyną tak słabych wyników było to, że dostępne filmy DVD są wbrew pozorom niskiej jakości. Szumy, obróbki w studiu, których dokonuje się po nakręceniu filmu a także dynamicznie zmieniające się sceny powodują, że efekty na których bazowały moje statystyki były za słabe, aby dawały pożądane odzwierciedlenie w wartościach statystyk. Dopóki zdjęcia wykonane były w wysokiej jakości w laboratorium, wszystkie intuicje mały pełne uzasadnienie. Jednak, gdy przyszło zastosować je w filmach, pojawiły się poważne problemy, dlatego też moje prace nad statystykami, inspirowane także przez Rafała i Matthiasa (trzeciego autora artykułu) trwały praktycznie do końca. Ponieważ mijał już pierwszy miesiąc pracy nad projektem, postanowiliśmy nie skupiać wszystkich swoich sił na klasyfikacji, ale zacząć równolegle badać problem rekonstrukcji regionów obciętych. 3.3 Rekonstrukcja obszarów cz.1 Prace nad metodą rekonstrukcji zacząłem od zrobienia zdjęć HDR rożnych źródeł światła jak również ich odbić w laboratorium fotograficznym. Zdjęcia te potwierdziły naszą wiedzę na temat wyglądu profili źródeł światła oraz odbić, a ponieważ profile te miały różny charakter, potwierdziło to także zasadność naszej klasyfikacji. Zanim zacząłem próby z bardziej skomplikowanymi metodami wypróbowałem te najprostsze, po części wykorzystywane wcześniej. Próby te ujawniły problemy, z którymi musieliśmy się zmierzyć. Pierwsza najprostsza metoda wykorzystywała rozmytą maskę regionów obciętych jako funkcję rozciągającą kontrast. Metoda dawała wyobrażenie jak może wyglądać efekt takiej edycji, jednak rozmywała ona krawędzie oraz nie sprawdzała się na obiektach o skomplikowanych kształtach. Wypróbowałem także metody zachowujące pochodne na krawędziach regionów, jak również ekstrapolacje (były to metody których implementacja została mi dostarczona przez Rafała). Żadna z tych metod nie dała satysfakcjonujących rezultatów. Wszystkie były bardzo wrażliwe na dystorsje w filmach wideo jak również na skomplikowane kształty. Najbardziej zaawansowaną metodą jaką sprawdziliśmy była metoda naszego autorstwa. Polegała ona na tym, że na podstawie profili uzyskanych ze zdjęć w studio stworzyliśmy model takich profili dla źródła światła oraz odbicia oparty o funkcje sigmoidalne. Następnie opracowaliśmy metodę do wpasowywania profili, 5
6 biorąc pod uwagę sąsiedztwo krawędzi regionów obciętych. Metoda ta mimo, że zawarliśmy w niej w pełni idee rekonstrukcji, także się nie sprawdziła. Miała problemy ze skomplikowanymi kształtami, oraz okazało się, podobnie jak w przypadku statystyk do klasyfikatora, że nie można polegać na otoczeniach regionów obciętych. Wszystkie metody wykorzystujące większe niż 1-2 pikselowe otoczenie regionów dawały niespójne po czasie rekonstrukcje obszarów. Funkcje sigmoidalne są to funkcje o kształcie zbliżonym do litery S, o podstawowej postaci S(t) = 1 1+e. Kombinacje wielu takich funkcji są wykorzystywane np. do przybliżania funkcji t mapujących tony. Tutaj zostały wykorzystane do zbudowania funkcji, która przybliżała profile źródeł światła oraz odbić. 3.4 Klasfikator cz.2 Równolegle z pracami nad rekonstrukcją dalej posuwały się prace nad klasyfikacją. Ponieważ posiadany przez nas klasyfikator generował błąd dla nas niedopuszczalny, postanowiliśmy skorzystać z faktu, że zajmujemy się filmami i wykorzystać informacje z tym idące. Pierwszym krokiem było znalezienie przeze mnie algorytmu rozwiązującego problem optical flow i wykorzystanie go do kojarzenia obiektów z sąsiednich klatek. Optical flow jest jednym z podstawowych problemów z zakresu computer vision. Najczęściej definiuje się go dla dwóch obrazów, dla których należy znaleźć wektory przesunięcia (ang. moution vectors). Wektory te wyznaczają dla każdego miejsca w pierwszym obrazie jego przesunięcie w stosunku do drugiego obrazu. Powszechnie znanymi rozwiązaniami tego problemu są metody optymalizacyjne, które z jednej strony mają za zadanie zachować ciągłość wektorów przesunięcia, z drugiej zaś dbają o zachowanie wartości obrazu bądź gradientów. Wybrałem jeden z algorytmów rozwiązujący problem optical flow, zaimplementowany w bibliotece OpenCV [3]. Algorytm ten zwraca motion vector dla danego piksela w klatce. Ponieważ algorytmy rozwiązujące problem optical flow zwykle mają problemy z obiektami bardzo dynamicznymi, moimi danymi dla problemu optical flow nie były piksele należące do regionów ale były to losowe piksele z 2-pikselowego otoczenia danego obiektu. Przesunięcie całego obiektu było ustalane jako uśredniony wektor wszystkich wektorów zwróconych przez algorytm optical flow dla otoczenia. Ponieważ nie chcieliśmy kojarzyć różnych obiektów, natomiast dopuszczaliśmy brak skojarzenia pomiędzy tymi samymi obiektami, potrzebowaliśmy silnego warunku, który stwierdzi czy skojarzone obiekty rzeczywiście są tymi samymi. Skonstruowałem go, biorąc pod uwagę wzajemne położenie obiektów oraz ich rozmiar. Kolejnym problemem związanym również z problemem śledzenia obiektów było znajdowanie cięć w filmie. Jest to jednak problem otwarty, a ponieważ nie on był moim przedmiotem badań, cięcia wyznaczałem na podstawie korelacji sąsiednich klatek. Parametry tak dobrałem, aby dla moich danych metoda się nie myliła. W ten sposób skonstruowałem metodę, która kojarzyła ze sobą te same obiekty z różnych klatek. Postanowiliśmy wykorzystać ją do poprawienia wyniku klasyfikacji. Pierwszą z metod było tak zwane głosowanie. Polegała ona na tym, że dla danego obiektu sprawdzaliśmy jak został on sklasyfikowany we wszystkich klatkach i wybieraliśmy dla niego klasę, która była wybrana największą liczbę razy. Druga metoda angażowała prosty klasyfikator online, który działał w ten sposób, że zbiór, na którym był nauczany klasyfikator był powiększany o sklasyfikowane obiekty z poprzedniej klatki. Klasyfikując w ten sposób, spodziewaliśmy się, że najlepiej sklasyfikowane będą ostatnie 6
7 obiekty w obrębie sceny. Polegając na ostatnich klatkach i wykorzystując policzone skojarzenie forsowaliśmy klasyfikacje z ostatnich klatek do poprzednich. Innym podejściem wykorzystującym skojarzenia, było patrzenie na historie jasności w miejscach sobie odpowiadających pod względem optical flow. Intuicje były proste. Jeżeli występował duży skok jasności w momencie, gdy pojawił się obiekt to z dużym prawdopodobieństwem było to źródło światła albo odbicie. W przeciwnym wypadku, była to najprawdopodobniej przesycająca się tekstura. Okazało się jednak, że intuicje stojące za powyższymi metodami nie dają wystarczająco dobrych efektów. Dwie pierwsze zmniejszały co prawda błąd naszego klasyfikatora, jednak dalej nie był on do zaakceptowania. W trzeciej metodzie okazało się, że wartości jasności są tak mocno skompresowane w interesujących nasz obszarach, że heurystyki takie nie są wystarczająco czułe. Wszystkie eksperymenty doprowadziły nas do wniosku, że jeżeli chcemy otrzymać klasyfikację, która jest na tyle dobra, żeby zastosować ją do obróbki filmów w celach komercyjnych, musimy wprowadzić interakcje. Nie było to niczym strasznym, gdyż techniki takie są stosowane chociażby do kolorowania filmów czarno-białych. Schemat klasyfikatora, który miałby realizować takie podejście, nasuwał się sam i okazał się bardzo trafionym pomysłem, a jego opis można znaleźć w artykule. Został on przeze mnie zaimplementowany, a wraz z klasyfikatorem offline, stworzonym wcześniej, powstała pierwsza wersja interfejsu, który od tego momentu można było stosować do klasyfikowania całych wycinków filmów. W celu testowania systemu zgromadziłem ok. 10 min. fragmentów filmów, w których występowało ponad obiektów. Mimo to, że stosując nowy system klasyfikacji mogliśmy znacznie poprawić ostateczny efekt klasyfikacji, wyniki samego klasyfikatora wciąż nie były zadowalające. Musieliśmy jednak zwolnić prace nad samym klasyfikatorem by opracować metodę do rekonstrukcji obszarów obciętych. 3.5 Rekonstrukcja obszarów cz.2 Wszystkie metody rekonstrukcji, które miały na celu zachowanie gradientów na brzegach rejonów obciętych oraz przybliżenie oryginalnego profilu zawiodły z powodu trudności w zachowaniu spójności po czasie a także tego, że wpasowywanie profili stwarzało problemy przy skomplikowanych kształtach. Postanowiliśmy stworzyć prostą metodę, która polepszy efekt wizualny, nie wprowadzając artefaktów. Pierwszym typem artefaktów, które mogły się pojawić przy rozciąganiu kontrastu jest kwantyzacja. Drugi zaś było niezachowanie ciągłości gradientów. Zależało nam na tym aby mniejsze gradienty były mniej rozciągnięte niż duże. Wynikało to z dwóch powodów. Po pierwsze artefakty na dużych gradientach są dla człowieka mniej widoczne. Po drugie, metoda taka dawałaby profile zbliżone do oryginalnych profili, do których została zaaplikowana funkcja ludzkiego zmysłu wzrokowego (ang. human visual system response curve). Problem z pierwszym typem dystorsji rozwiązaliśmy dokonując rozciągnięcia kontrastu na obrazie przefiltrowanym filtrem bilateralnym o małych wartościach parametrów. W ten sposób po pierwsze oddzielaliśmy szum, który potem jest z powrotem dodawany, po drugie zyskaliśmy na precyzji, ponieważ od tego momentu nie operowaliśmy na wartościach naturalnych ale na rzeczywistych. Problem z drugim typem dystorsji rozwiązałaby metoda gradientowa. Z takiego podejścia zrezygnowaliśmy, gdyż metoda ta jest wolna i ciężko zachować przy jej użyciu spójność czasową. 7
8 Metoda gradientowa polega na przejściu do dziedziny gradientowej i tam wykonywanie edycji obrazu. Powrót do pierwotnej dziedziny nie zawsze jest jednak prosty, gdyż obróbka mogła zakłócić własność, że w obrazie w dziedzinie gradientowej suma gradientów na dowolnej ścieżce pomiędzy dwoma punktami jest taka sama. Aby uporać się z tym problemem konieczne jest rozwiązanie równania Poissona. Potrzebowaliśmy metody, która wprawdzie bierze pod uwagę gradienty jednak jest dużo prostsza. Na początku spróbowaliśmy odwrócić prostą metodę, mapującą tony, zaproponowaną przez G. Warda Larsona [4], opartą o analizę histogramu i sprowadzającą się do tego, że kompresowane są bardziej wartości, których jest mało w obrazie. W naszej metodzie odpowiadało by to temu, że rozciągane by były te wartości, których jest mniej w obrazie. Zaimplementowałem tę metodę. Efekt nie był taki jakiego potrzebowaliśmy, ponieważ metoda nie brała pod uwagę gradientów tylko wartości pikseli. Jednak zainspirowany przez Rafała pomysłem wykorzystania histogramu opracowałem metodę, która na podstawie gradientów, występujących w obrazie, tworzyła krzywą mapująca oryginalne wartości na nowe. Metoda, opisana w artykule, charakteryzuje się tym, że rozciąga bardziej wartości tam gdzie gradienty są duże i jest ich dużo w obrazie. Tam gdzie są małe wartości gradientów oraz jest ich mało kontrast jest rozciągany mało. Po testach potwierdziły się nasze przypuszczenia co do tego, że powstałe profile odpowiadają tym ze studia, które postrzega człowiek. Wynikało to z tego, że największe różnice między profilami odbić a profilami świateł są na brzegach regionów. Światła najczęściej mają duże gradienty na brzegach, natomiast odbicia mają łagodny profil na brzegach. Nasza metoda zachowuje te własności. Metoda ta okazała się metodą na tyle dobrą, że została ona wykorzystana w ostatecznej wersji projektu. Jedyną modyfikacją było uśrednianie liczonych histogramów po czasie dla każdego z obiektów, aby jeszcze lepiej zapewnić spójność po czasie. 3.6 Klasyfikacja cz. 3 Z powodu, że klasyfikacja nasza nie była w pełni automatyczna, tylko wymagała interakcji z użytkownikiem, podjęliśmy decyzję, że pracę przygotujemy na SIGGRAPH, a nie jak do tej pory zamierzaliśmy na CVPR. Dzięki temu zyskiwaliśmy ponad miesiąc czasu na dopracowanie wyników. W grudniu w instytucie zostało zorganizowane spotkanie z Mattiasem Hein, który opowiadał o swoich badaniach nad klasyfikatorami. Ponieważ zainteresowało nas to o czym mówił i miało to związek z naszym projektem doszło do spotkania w wyniku, którego zgodził się nam pomóc w udoskonaleniu klasyfikatora. Po przedstawieniu mu wszystkiego co mieliśmy do tej pory oraz przygotowaniu danych Matthias zaczął prace nad naszym klasyfikatorem. Dysponując odpowiednimi narzędziami po paru spotkaniach wspólnie doszliśmy do wniosku, że musimy zastosować klasyfikator online, który będzie nauczany na obiektach z danej sekwencji (z klatek od ostatniego cięcia). Okazało się bowiem, że na statystykach, które mieliśmy, najbardziej można polegać właśnie w obszarze jednej sekwencji filmu. Natomiast w klatkach, które były pierwszymi klatkami po cięciu zastosowaliśmy support vector machine, dodając jeszcze dwie statystyki biorące pod uwagę otoczenie obiektu. Tak powstała ostateczna wersja klasyfikatora. Support Vector Machine jest to metoda używana do klasyfikacji, polegająca na znalezieniu dla próbki uczącej podziału przestrzeni płaszczyznami, tak aby powstałe obszary odpowiadały klasom. Płaszczyzny są znajdowane tak, by odległość od danej płaszczyzny do najbliższej próbki z każdej z klas była możliwie największa. 8
9 3.7 Porównanie z innymi metodami Ostatnie dwa tygodnie poświęciliśmy oprócz redagowania artykułu na porównywanie się z innymi metodami. Naszą metodę porównaliśmy tak na prawdę tylko z jedną metodą z SIGGRAPHu z poprzedniego roku, bo tylko ta dotyczyła tego samego tematu i zajmowała się video. Po kontakcie z autorami, którzy udostępnili mi cześć parametrów, zaimplementowałem tę metodę, przetworzyłem za jej pomocą wszystkie zgromadzone fragmenty filmów, z czego wybrałem najbardziej intersujące. W artykule zamieściliśmy także porównanie z inną metodą wykorzystującą liniowe rozciąganie, jednak ze względu na brak spójności czasowej nie było sensu porównywać całych fragmentów filmów. 3.8 Eksperyment W celu udowodnienia, że taka obróbka zdjęć ma w ogóle sens i jest lepsza od wcześniej przedstawianych, przeprowadziłem eksperyment porównawczy na 14 osobach. Wykazał on, że obróbka taka znacznie poprawia efekty wizualne, a także, że nasza metoda jest znacznie lepsza od poprzedniej. 4 Wrażenia końcowe Mimo początkowych wątpliwości co do przedłużenia mojego pobytu w Saarbücken w celu realizacji tego projektu, w tej chwili jestem bardzo zadowolony z podjętej decyzji. Podczas półrocznej pracy nad tym projektem wiele się nauczyłem, zdobyłem bezcenne doświadczenie a także sprecyzowałem swoje zainteresowania. Pobyt ten zaważył również na moich planach na przyszłość. 4.1 Podziękowania W tym miejscu chciałbym podziękować Karolowi Myszkowskiemu oraz Rafałowi Mantiukowi, którzy umożliwili mi realizację tego projektu, a także przekazali mi dużą wiedzę na temat dziedziny, którą się zajmują. Dzięki nim powstała moja praca magisterska, z której jestem bardzo zadowolony. Dodatkowe podziękowania kieruję do Rafała, z którym przez pół roku pracowałem nad artykułem. Literatura [1] P. Didyk, R. Mantiuk, M. Hein, H. P. Seidel: Enhancement of Bright Video Features for HDR Displays. To appear in: Computer Graphics Forum (Proc. of EGSR 08) [2] R.P.W. Duin, P. Juszczak, P. Paclik, E. Pekalska, D. de Ridder, D.M.J. Tax, S. Verzakov: PRTools4.1, A Matlab Toolbox for Pattern Recognition, Delft University of Technology, [3] Intel: Open Source Computer Vision Library, [4] G. Ward Larson, H. Rushmeier and C. Piatko: A Visibility Matching Tone Reproduction Operator for High Dynamic Range Scenes, IEEE Trans. on Vis. and Comp. Graph. 3, 4,
W poszukiwaniu sensu w świecie widzialnym
W poszukiwaniu sensu w świecie widzialnym Andrzej Śluzek Nanyang Technological University Singapore Uniwersytet Mikołaja Kopernika Toruń AGH, Kraków, 28 maja 2010 1 Podziękowania Przedstawione wyniki powstały
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Operatory mapowania tonów
Operatory mapowania tonów (ang. Tone Mapping Operators) Radosław Mantiuk rmantiuk@wi.zut.edu.pl 1 Operatory Tonów (TMO - tone mapping operator) Kompresja luminancji obrazów HDR Dostosowanie zakresu dynamiki
Implementacja filtru Canny ego
ANALIZA I PRZETWARZANIE OBRAZÓW Implementacja filtru Canny ego Autor: Katarzyna Piotrowicz Kraków,2015-06-11 Spis treści 1. Wstęp... 1 2. Implementacja... 2 3. Przykłady... 3 Porównanie wykrytych krawędzi
Analiza obrazów. Segmentacja i indeksacja obiektów
Analiza obrazów. Segmentacja i indeksacja obiektów Wykorzystane materiały: R. Tadeusiewicz, P. Korohoda, Komputerowa analiza i przetwarzanie obrazów, Wyd. FPT, Kraków, 1997 Analiza obrazu Analiza obrazu
Wyższa Szkoła Informatyki Stosowanej i Zarządzania
Wyższa Szkoła Informatyki Stosowanej i Zarządzania Grupa ID308, Zespół 11 PRZETWARZANIE OBRAZÓW Sprawozdanie z ćwiczeń Ćwiczenie 6 Temat: Operacje sąsiedztwa wyostrzanie obrazu Wykonali: 1. Mikołaj Janeczek
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe. Autor: Mariusz Sasko Promotor: dr Adrian Horzyk Plan prezentacji 1. Wstęp 2. Cele pracy 3. Rozwiązanie 3.1. Robot
Wyższa Szkoła Informatyki Stosowanej i Zarządzania WIT
3-1 Wyższa Szkoła Informatyki Stosowanej i Zarządzania WIT Grupa BD2,TC1, Zespół 2 PRZETWARZANIE OBRAZÓW Sprawozdanie z ćwiczeń laboratoryjnych Ćwiczenie nr3 Temat: Operacje sąsiedztwa wygładzanie i wyostrzanie
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Segmentacja obrazów cyfrowych z zastosowaniem teorii grafów - wstęp. autor: Łukasz Chlebda
Segmentacja obrazów cyfrowych Segmentacja obrazów cyfrowych z zastosowaniem teorii grafów - wstęp autor: Łukasz Chlebda 1 Segmentacja obrazów cyfrowych - temat pracy Temat pracy: Aplikacja do segmentacji
Akwizycja obrazów HDR
Akwizycja obrazów HDR Radosław Mantiuk radoslaw.mantiuk@gmail.com 1 Składanie HDRa z sekwencji zdjęć LDR (1) Seria zdjęć sceny wykonanych z różnymi ustawieniami ekspozycji 2 Składanie HDRa z sekwencji
Akademia Górniczo - Hutnicza im. Stanisława Staszica w Krakowie. Projekt. z przedmiotu Analiza i Przetwarzanie Obrazów
30 czerwca 2015 Akademia Górniczo - Hutnicza im. Stanisława Staszica w Krakowie Projekt z przedmiotu Analiza i Przetwarzanie Obrazów Wykrywanie tablic rejestracyjnych Jagieła Michał IS (GKiPO) Michał Jagieła
Parametryzacja obrazu na potrzeby algorytmów decyzyjnych
Parametryzacja obrazu na potrzeby algorytmów decyzyjnych Piotr Dalka Wprowadzenie Z reguły nie stosuje się podawania na wejście algorytmów decyzyjnych bezpośrednio wartości pikseli obrazu Obraz jest przekształcany
Analiza ruchu. Marek Wnuk < > ZPCiR I-6 PWr. MW: SyWizE p.1/22
Analiza ruchu Marek Wnuk < marek.wnuk@pwr.wroc.pl > ZPCiR I-6 PWr MW: SyWizE p.1/22 Ruch w sekwencji obrazów Podstawowe problemy: złożoność obliczeniowa nadmiar informacji niejednoznaczność MW: SyWizE
www.travelrent.pl kontakt@travelrent.pl tel. +48 508 552 765
Idea firmy Naszą misją jest stworzenie przestrzeni dla osób poszukujących miejsc noclegowych oraz dysponentów obiektów, którzy podróżnym mogą zaoferować swoje pokoje. Realizujemy ją poprzez współpracę
Inteligentne Multimedialne Systemy Uczące
Działanie realizowane w ramach projektu Absolwent informatyki lub matematyki specjalistą na rynku pracy Matematyka i informatyka może i trudne, ale nie nudne Inteligentne Multimedialne Systemy Uczące dr
Diagnostyka obrazowa
Diagnostyka obrazowa Ćwiczenie drugie Podstawowe przekształcenia obrazu 1 Cel ćwiczenia Ćwiczenie ma na celu zapoznanie uczestników kursu Diagnostyka obrazowa z podstawowymi przekształceniami obrazu wykonywanymi
Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.
Filtracja nieliniowa może być bardzo skuteczną metodą polepszania jakości obrazów Filtry nieliniowe Filtr medianowy Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy
Synteza i obróbka obrazu HDR. Obrazy o rozszerzonym zakresie dynamiki
Synteza i obróbka obrazu HDR Obrazy o rozszerzonym zakresie dynamiki Dynamika obrazu Zakres dynamiki (dynamicrange) to różnica między najciemniejszymi i najjaśniejszymi elementami obrazu. W fotografii
Akwizycja obrazów HDR
Akwizycja obrazów HDR Radosław Mantiuk radoslaw.mantiuk@gmail.com 1 Składanie HDRa z sekwencji zdjęć LDR (1) Seria&zdjęć&sceny&wykonanych&z&różnymi&ustawieniami&ekspozycji& 2 Składanie HDRa z sekwencji
Optymalizacja systemów
Optymalizacja systemów Laboratorium - problem detekcji twarzy autorzy: A. Gonczarek, J.M. Tomczak, S. Zaręba, P. Klukowski Cel zadania Celem zadania jest zapoznanie się z gradientowymi algorytmami optymalizacji
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Wykrywanie twarzy na zdjęciach przy pomocy kaskad
Wykrywanie twarzy na zdjęciach przy pomocy kaskad Analiza i przetwarzanie obrazów Sebastian Lipnicki Informatyka Stosowana,WFIIS Spis treści 1. Wstęp... 3 2. Struktura i funkcjonalnośd... 4 3. Wyniki...
Podstawy 3D Studio MAX
Podstawy 3D Studio MAX 7 grudnia 2001 roku 1 Charakterystyka programu 3D Studio MAX jest zintegrowanym środowiskiem modelowania i animacji obiektów trójwymiarowych. Doświadczonemu użytkownikowi pozwala
HDR. Obrazy o rozszerzonym zakresie dynamiki
Synteza i obróbka obrazu HDR Obrazy o rozszerzonym zakresie dynamiki Dynamika obrazu Zakres dynamiki (dynamicrange) to różnica między najciemniejszymi i najjaśniejszymi elementami obrazu. W fotografice
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
Cyfrowe przetwarzanie obrazów i sygnałów Wykład 7 AiR III
1 Niniejszy dokument zawiera materiały do wykładu z przedmiotu Cyfrowe Przetwarzanie Obrazów i Sygnałów. Jest on udostępniony pod warunkiem wykorzystania wyłącznie do własnych, prywatnych potrzeb i może
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
Analiza regresji - weryfikacja założeń
Medycyna Praktyczna - portal dla lekarzy Analiza regresji - weryfikacja założeń mgr Andrzej Stanisz z Zakładu Biostatystyki i Informatyki Medycznej Collegium Medicum UJ w Krakowie (Kierownik Zakładu: prof.
Optymalizacja ciągła
Optymalizacja ciągła 5. Metoda stochastycznego spadku wzdłuż gradientu Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 04.04.2019 1 / 20 Wprowadzenie Minimalizacja różniczkowalnej
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III
1 Niniejszy dokument zawiera materiały do wykładu z przedmiotu Cyfrowe Przetwarzanie Obrazów i Sygnałów. Jest on udostępniony pod warunkiem wykorzystania wyłącznie do własnych, prywatnych potrzeb i może
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Analiza obrazów - sprawozdanie nr 2
Analiza obrazów - sprawozdanie nr 2 Filtracja obrazów Filtracja obrazu polega na obliczeniu wartości każdego z punktów obrazu na podstawie punktów z jego otoczenia. Każdy sąsiedni piksel ma wagę, która
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Grafika komputerowa. Zajęcia IX
Grafika komputerowa Zajęcia IX Ćwiczenie 1 Usuwanie efektu czerwonych oczu Celem ćwiczenia jest usunięcie efektu czerwonych oczu u osób występujących na zdjęciu tak, aby plik wynikowy wyglądał jak wzor_1.jpg
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania.
Oświetlenie. Modelowanie oświetlenia sceny 3D. Algorytmy cieniowania. Chcąc osiągnąć realizm renderowanego obrazu, należy rozwiązać problem świetlenia. Barwy, faktury i inne właściwości przedmiotów postrzegamy
Grafika 2D. Animacja Zmiany Kształtu. opracowanie: Jacek Kęsik
Grafika 2D Animacja Zmiany Kształtu opracowanie: Jacek Kęsik Wykład przedstawia podstawy animacji zmiany kształtu - morfingu Animacja zmiany kształtu Podstawowe pojęcia Zlewanie (Dissolving / cross-dissolving)
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 2 Detekcja twarzy autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się algorytmem gradientu prostego
Zmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
Dodatek B - Histogram
Dodatek B - Histogram Histogram to nic innego, jak wykres pokazujący ile elementów od czarnego (od lewej) do białego (prawy koniec histogramu) zostało zarejestrowanych na zdjęciu. Może przedstawiać uśredniony
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3
Wstęp do sieci neuronowych, wykład 6 Wsteczna propagacja błędu - cz. 3 Andrzej Rutkowski, Maja Czoków, Jarosław Piersa Wydział Matematyki i Informatyki, Uniwersytet Mikołaja Kopernika 2018-11-05 Projekt
Zadanie 3: Liczenie winogron
Informatyka, studia dzienne, II st. semestr II Rozpoznawanie obrazów 2012/2013 Prowadzący: dr inż. Bartłomiej Stasiak czwartek, 8:30 Data oddania: Ocena: Andrzej Stasiak 178736 Grzegorz Graczyk 178717
Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować?
Algorytm k-nn Naiwny klasyfikator Bayesa brał pod uwagę jedynie najbliższe otoczenie. Lecz czym jest otoczenie? Jak je zdefiniować? Jak daleko są położone obiekty od siebie? knn k nearest neighbours jest
i ruchów użytkownika komputera za i pozycjonujący oczy cyberagenta internetowego na oczach i akcjach użytkownika Promotor: dr Adrian Horzyk
System śledzenia oczu, twarzy i ruchów użytkownika komputera za pośrednictwem kamery internetowej i pozycjonujący oczy cyberagenta internetowego na oczach i akcjach użytkownika Mirosław ł Słysz Promotor:
Profesjonalista konkurs. Etap II
Profesjonalista konkurs. Etap II Za nami pierwszy etap konkursu, co oznacza, że wybraliście już interesujące Was zawody i możemy bardziej szczegółowo poznać pracę przedstawicieli wybranych profesji. Cieszę
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Struktury Danych i Złożoność Obliczeniowa
Struktury Danych i Złożoność Obliczeniowa Zajęcia 1 Podstawowe struktury danych Tablica Najprostsza metoda przechowywania serii danych, zalety: prostota, wady: musimy wiedzieć, ile elementów chcemy przechowywać
SPOTKANIE 2: Wprowadzenie cz. I
Wrocław University of Technology SPOTKANIE 2: Wprowadzenie cz. I Piotr Klukowski Studenckie Koło Naukowe Estymator piotr.klukowski@pwr.edu.pl 17.10.2016 UCZENIE MASZYNOWE 2/27 UCZENIE MASZYNOWE = Konstruowanie
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Przetwarzanie obrazu
Przetwarzanie obrazu Przekształcenia kontekstowe Liniowe Nieliniowe - filtry Przekształcenia kontekstowe dokonują transformacji poziomów jasności pikseli analizując za każdym razem nie tylko jasność danego
Filtracja obrazu operacje kontekstowe
Filtracja obrazu operacje kontekstowe Podział metod filtracji obrazu Metody przestrzenne i częstotliwościowe Metody liniowe i nieliniowe Główne zadania filtracji Usunięcie niepożądanego szumu z obrazu
XXI Konferencja SNM UKŁADY RÓWNAŃ. Kilka słów o układach równań.
1 XXI Konferencja SNM UKŁADY RÓWNAŃ Piotr Drozdowski (Józefów), piotr.trufla@wp.pl Krzysztof Mostowski (Siedlce), kmostows@o.pl Kilka słów o układach równań. Streszczenie. 100 układów równań w 5 min, jak
POBR Projekt. 1 Cel projektu. 2 Realizacja. 3 Zastosowany algorytm. Celem projektu było rozpoznanie logo firmy Sun Microsystems.
POBR Projekt Michał Przyłuski 198361 10 czerwca 2008 1 Cel projektu Celem projektu było rozpoznanie logo firmy Sun Microsystems. Z analitycznego punktu widzenia, logo to składa się z 8 podobnych obiektów,
Dwie wersje. Opis techniki wykonania. Panorama długiego, wąskiego pokoju. Jacek Kwaśniewski. wersja wersja 2006.
Jacek Kwaśniewski Panorama długiego, wąskiego pokoju Dwie wersje wersja 2008 Opis techniki wykonania wersja 2006 Styczeń 2008 1 Wersja 2006 aparat: kompakt Sony P200 ilość zdjęć cząstkowych: 120 ogniskowa:
Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
Iv. Kreatywne. z mediów
Iv. Kreatywne korzystanie z mediów Edukacja formalna dzieci Kreatywne korzystanie z mediów [ 45 ] Zagadnienia Wychowanie przedszkolne Szkoła podstawowa, klasy 1-3 Szkoła podstawowa, klasy 4-6 Tworzenie
8. Neuron z ciągłą funkcją aktywacji.
8. Neuron z ciągłą funkcją aktywacji. W tym ćwiczeniu zapoznamy się z modelem sztucznego neuronu oraz przykładem jego wykorzystania do rozwiązywanie prostego zadania klasyfikacji. Neuron biologiczny i
!!!!!!!!!!! PORTFOLIO: Analiza zachowań użytkowników serwisów internetowych. Autorzy: Marek Zachara
PORTFOLIO: Analiza zachowań użytkowników serwisów internetowych Autorzy: Marek Zachara Opis merytoryczny Cel naukowy (jaki problem wnioskodawca podejmuje się rozwiązać, co jest jego istotą, co uzasadnia
Ćwiczenie 1 Galeria zdjęć
Galeria zdjęć Pobierz przykład (http://jsekulska.kis.p.lodz.pl/studia.htm). Krok 1 Ustawienie stołu montażowego Otwieramy nowy plik i nazywamy go (np. gallery.fla). Ustawiamy wielkość pola roboczego na
Punkt 2: Stwórz listę Twoich celów finansowych na kolejne 12 miesięcy
Miesiąc:. Punkt 1: Wyznacz Twoje 20 minut z finansami Moje 20 minut na finanse to: (np. Pn-Pt od 7:00 do 7:20, So-Ni od 8:00 do 8:20) Poniedziałki:.. Wtorki:... Środy:. Czwartki: Piątki:. Soboty:.. Niedziele:...
Projekt przejściowy 2015/2016 BARTOSZ JABŁOŃSKI, TOMASZ JANICZEK
Projekt przejściowy 2015/2016 BARTOSZ JABŁOŃSKI, TOMASZ JANICZEK Kto? dr inż. Tomasz Janiczek tomasz.janiczek@pwr.edu.pl s. P1.2, C-16 dr inż. Bartosz Jabłoński bartosz.jablonski@pwr.edu.pl s. P0.2, C-16
Analiza danych z nowej aparatury detekcyjnej "Pi of the Sky"
Uniwersytet Warszawski Wydział Fizyki Bartłomiej Włodarczyk Nr albumu: 306849 Analiza danych z nowej aparatury detekcyjnej "Pi of the Sky" Praca przygotowana w ramach Pracowni Fizycznej II-go stopnia pod
PROJEKT FIRMY BUDOWLANEJ
PROJEKT FIRMY BUDOWLANEJ Grupa osób zastanawia się czy otworzenie spółdzielni socjalnej w ich mieście jest dobrym pomysłem na prowadzenie interesu. Spółdzielnia A chciałaby się zająć pracami remontowo
Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D
Zastosowanie stereowizji do śledzenia trajektorii obiektów w przestrzeni 3D autorzy: Michał Dajda, Łojek Grzegorz opiekun naukowy: dr inż. Paweł Rotter I. O projekcie. 1. Celem projektu było stworzenie
Propozycja struktury treśći i nawigacji dla strony
Propozycja struktury treśći i nawigacji dla strony www.jankarski.org Przyjęta struktura działów 1) Postać karskiego a) Historia o Karskim b) Karski o sobie c) Inni o Karskim d) Echa Karskiego 2) Edukacja
KP, Tele i foto, wykład 3 1
Krystian Pyka Teledetekcja i fotogrametria sem. 4 2007/08 Wykład 3 Promieniowanie elektromagnetyczne padające na obiekt jest w części: odbijane refleksja R rozpraszane S przepuszczane transmisja T pochłaniane
D O K U M E N T A C J A
Państwowa Wyższa Szkoła Zawodowa w Tarnowie Instytut Politechniczny Informatyka Stosowana III r. D O K U M E N T A C J A Snake 3D Piotr Gębiś Paweł Gładysz Dokumentacja do projektu Snake 3D. W dokumencie
Adrian Horzyk
Metody Inteligencji Obliczeniowej Metoda K Najbliższych Sąsiadów (KNN) Adrian Horzyk horzyk@agh.edu.pl AGH Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej
Simp-Q. Porady i wskazówki
Simp-Q Porady i wskazówki ROZWÓJ ZESTAWÓW BEZCIENIOWYCH Pierwsza generacja Najnowsza generacja Profesjonalne studio idealne dla zawodowych fotografów. Zestawy bezcieniowe Simp-Q to rewolucyjne i kompletne
Adobe Photoshop Dodatek do lab4 J.Wiślicki, A.Romanowski;
Spis treści 1. Proste efekty... 2 1.1. Cień...2 1.2. Planeta...5 1.3. Mandarynkowa kostka...8 Grafika rastrowa strona 1 z 9 1. Proste efekty Poniższe ćwiczenia dotyczą prostych (aczkolwiek ciekawych) efektów
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Metody Optymalizacji: Przeszukiwanie z listą tabu
Metody Optymalizacji: Przeszukiwanie z listą tabu Wojciech Kotłowski Instytut Informatyki Politechniki Poznańskiej email: imię.nazwisko@cs.put.poznan.pl pok. 2 (CW) tel. (61)665-2936 konsultacje: wtorek
Jeśli chcemy usunąć ze zdjęć niewielkie obszary 'brudów' powstałych w wyniku np. zanieczyszczeń obiektywu lub matrycy.
Retusz zdjęć STEMPEL Jeśli chcemy usunąć ze zdjęć niewielkie obszary 'brudów' powstałych w wyniku np. zanieczyszczeń obiektywu lub matrycy. Można też stosować to narzędzie z powodzeniem do pozbywania się
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium MATLAB Zadanie nr 1 Regresja liniowa autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z liniowym zadaniem najmniejszych
WYMAGANIA WSTĘPNE W ZAKRESIE WIEDZY, UMIEJĘTNOŚCI I INNYCH KOMPETENCJI
WYDZIAŁ GEOINŻYNIERII, GÓRNICTWA I GEOLOGII KARTA PRZEDMIOTU Nazwa w języku polskim: Statystyka matematyczna Nazwa w języku angielskim: Mathematical Statistics Kierunek studiów (jeśli dotyczy): Górnictwo
Algorytm grupowania danych typu kwantyzacji wektorów
Algorytm grupowania danych typu kwantyzacji wektorów Wstęp Definicja problemu: Typowe, problemem często spotykanym w zagadnieniach eksploracji danych (ang. data mining) jest zagadnienie grupowania danych
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Na komputerze z Windowsem
Dodajemy muzykę do naszych filmów {reklama-artykul}chciałbyś, żeby nagrany przez ciebie film oglądało się przyjemniej? Podłożenie muzyki pod ścieżkę dźwiękową to jeden z najprostszych zabiegów, dzięki
Ćwiczenie 2. Przetwarzanie graficzne plików. Wprowadzenie teoretyczne
Ćwiczenie Przetwarzanie graficzne plików Wprowadzenie teoretyczne ddytywne składanie kolorów (podstawowe barwy R, G, ) arwy składane addytywnie wykorzystywane są najczęściej w wyświetlaczach, czyli stosuje
Organizacja czasu 1
Organizacja czasu 1 Organizacja czasu Czyli jak optymalnie wykorzystać czas. Michał Mielniczuk 2 Do dzieła!!! W tym poradniku, podam Ci kilka sposobów na to jak optymalnie organizować zadania, by zyskać
Schemat programowania dynamicznego (ang. dynamic programming)
Schemat programowania dynamicznego (ang. dynamic programming) Jest jedną z metod rozwiązywania problemów optymalizacyjnych. Jej twórcą (1957) był amerykański matematyk Richard Ernest Bellman. Schemat ten
Wyższa Szkoła Informatyki Stosowanej i Zarządzania
Wyższa Szkoła Informatyki Stosowanej i Zarządzania Grupa ID308, Zespół 11 PRZETWARZANIE OBRAZÓW Sprawozdanie z ćwiczeń Ćwiczenie 8 Temat: Operacje sąsiedztwa detekcja krawędzi Wykonali: 1. Mikołaj Janeczek
Automatyka i Robotyka II stopień ogólno akademicki
Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. KARTA MODUŁU / KARTA PRZEDMIOTU Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2013/2014
2. Zarys metody SIFT (Scale Invariant Feature Transform)
PIOTR PAWLIK *, SŁAWOMIR MIKRUT ** WYSZUKIWANIE PUNKTÓW CHARAKTERYSTYCZNYCH NA POTRZEBY ŁĄCZENIA ZDJĘĆ LOTNICZYCH *** 1.Wstęp Artykuł dotyczy problemu dopasowania fotogrametrycznych zdjęć lotniczych. Istotą
Kompresja danych Streszczenie Studia Dzienne Wykład 10,
1 Kwantyzacja wektorowa Kompresja danych Streszczenie Studia Dzienne Wykład 10, 28.04.2006 Kwantyzacja wektorowa: dane dzielone na bloki (wektory), każdy blok kwantyzowany jako jeden element danych. Ogólny
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
WYMAGANIA EDUKACYJNE Z MATEMATYKI 2016/2017 (zakres podstawowy) klasa 3abc
WYMAGANIA EDUKACYJNE Z MATEMATYKI 2016/2017 (zakres podstawowy) klasa 3abc 1, Ciągi zna definicję ciągu (ciągu liczbowego); potrafi wyznaczyć dowolny wyraz ciągu liczbowego określonego wzorem ogólnym;
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
SCENARIUSZ LEKCJI. Streszczenie. Czas realizacji. Podstawa programowa
Autorzy scenariusza: SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH
WYDZIAŁ BUDOWNICTWA LĄDOWEGO I WODNEGO
Zał. nr 4 do ZW WYDZIAŁ BUDOWNICTWA LĄDOWEGO I WODNEGO KARTA PRZEDMIOTU Nazwa w języku polskim STATYSTYKA STOSOWANA Nazwa w języku angielskim APPLIED STATISTICS Kierunek studiów (jeśli dotyczy): Specjalność
Webowy generator wykresów wykorzystujący program gnuplot
Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Marcin Nowak nr albumu: 254118 Praca inżynierska na kierunku informatyka stosowana Webowy generator wykresów wykorzystujący
PIPP https://sites.google.com/site/astropipp/home
PIPP https://sites.google.com/site/astropipp/home Tutorial, jest przykładem użycia programu PIPP po sesji fotograficznej pełnej tarczy słonecznej. W tym przykładzie wykorzystano zdjęcia wykonane przez
I. Potęgi. Logarytmy. Funkcja wykładnicza.
WYMAGANIA EDUKACYJNE Z MATEMATYKI DLA KLASY TRZECIEJ LICEUM OGÓLNOKSZTAŁCĄCEGO ZAKRES PODSTAWOWY I. Potęgi. Logarytmy. Funkcja wykładnicza. dobrą, bardzo - oblicza potęgi o wykładnikach wymiernych; - zna
Szkolenie biblioteczne w formie e-learningu
Anna Gruca anna.gruca@bg.agh.edu.pl Biblioteka Główna Akademii Górniczo-Hutniczej Szkolenie biblioteczne w formie e-learningu w Bibliotece Głównej Akademii Górniczo-Hutniczej Szkolenie biblioteczne w formie
zna wybrane modele kolorów i metody transformacji między nimi zna podstawowe techniki filtracji liniowej, nieliniowej dla obrazów cyfrowych
Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Kod modułu Język kształcenia Wydział Matematyki i Informatyki Instytut Informatyki Przetwarzanie i analiza obrazów cyfrowych w
Wykład 9 Wnioskowanie o średnich
Wykład 9 Wnioskowanie o średnich Rozkład t (Studenta) Wnioskowanie dla jednej populacji: Test i przedziały ufności dla jednej próby Test i przedziały ufności dla par Porównanie dwóch populacji: Test i
Zadanie 1: Piętnastka
Informatyka, studia dzienne, inż. I st. semestr VI Sztuczna Inteligencja i Systemy Ekspertowe 2010/2011 Prowadzący: mgr Michał Pryczek piątek, 12:00 Data oddania: Ocena: Grzegorz Graczyk 150875 Marek Rogalski
Algorytmy mrówkowe w dynamicznych problemach transportowych
y w dynamicznych problemach transportowych prof. dr hab Jacek Mandziuk MiNI, PW 3 czerwca 2013 Cel pracy Zbadanie zachowania algorytmu go zwykłego oraz z zaimplementowanymi optymalizacjami dla problemów