Opis i rozpoznawanie kształtów na obrazach z wykorzystaniem łańcuchów Browna
|
|
- Klaudia Żurek
- 8 lat temu
- Przeglądów:
Transkrypt
1 Instytut Badań Systemowych Polskiej Akademii Nauk Mgr Studia Doktoranckie IBS PAN Techniki informacyjne - teoria i zastosowania Streszczenie rozprawy doktorskiej Opis i rozpoznawanie kształtów na obrazach z wykorzystaniem łańcuchów Browna Promotor: prof. dr hab. inż. Piotr S. Szczepaniak Warszawa 2012
2 1 Cel i zakres pracy Celem pracy jest opracowanie metody umożliwiającej wykorzystanie łańcuchów Browna do automatycznego opisu i rozpoznawania obiektów na obrazach cyfrowych. W niniejszej rozprawie doktorskiej postawiono i udowodniono następującą tezę: Dzięki łącznemu wykorzystaniu gramatyki ciągowej w postaci łańcuchów Browna oraz metody aktywnego konturu możliwe jest rozpoznawanie obiektów na obrazach cyfrowych. W rozprawie przedstawiono odpowiednie algorytmy autorskie i ich programowe implementacje. Uzyskane wyniki pozwalają stwierdzić, że podana teza jest prawdziwa w odniesieniu do obiektów, które można rozpoznać wyznaczając ich krawędzie. Osiągnięcie postawionego celu badawczego wymagało wykonania szeregu zadań, a w szczególności: Przeglądu badań, mechanizmów i rozwiązań już istniejących. Według najlepszej wiedzy autora nie zostało opracowane wykorzystanie łańcuchów Browna do rozpoznawania obiektów na obrazach. Zastosowania klasyfikacji hierarchicznej do rozpoznawania obiektów. Opracowania modyfikacji filtru Kuwahary. Zaproponowania nowego sposobu optymalizowania łańcuchów Browna (nowego generatora ruchu). Zmodyfikowania odległości Levensteina do potrzeb łańcuchów Browna. Opracowania metody porównywania obiektów opisanych przy pomocy łańcuchów Browna. Sprawdzenia działania opracowanych mechanizmów. Zoptymalizowania algorytmów pod względem szybkości działania. 2 Układ rozprawy Rozprawa została podzielona na pięć rozdziałów, których układ jest podporządkowany weryfikacji postawionej tezy. Praca rozpoczyna się od wstępu, gdzie umieszczony został cel i zakres badań oraz teza będąca przedmiotem rozprawy. Pierwsze dwa rozdziały mają charakter teoretyczny i stanową wprowadzenie w tematykę rozpoznawania kształtów na obrazach, metod aktywnego konturu oraz lingwistycznego opisu 2
3 obrazów. W rozdziale trzecim w sposób szczegółowy jest przedstawiana budowa oraz opracowane operacje na łańcuchach Browna. W kolejnym rozdziale znajduje się omówienie otrzymanych rezultatów przeprowadzonych badań oraz prezentacja stworzonego systemu komputerowego. Ostatni rozdział poświęcony został podsumowaniu rezultatów oraz przedstawieniu dalszych planów badawczych autora pracy. Rozprawę kończy bibliografia. 3 Tematyka rozprawy Ważnym aspektem automatyzacji rozumienia obrazów jest połączenie pomiędzy metodologią, a matematycznym językiem opisującym obraz. Powodem, dla którego często wybierany jest lingwistyczny opis obrazów, jest fakt nieznajomości a priori klas i wzorców, jakie mogą zostać rozpoznane. W związku z tym, że liczba kategorii obiektów może dążyć do nieskończoności, ponieważ nie narzucamy jeszcze żadnych ograniczeń na zbiór oczekiwanych rozwiązań, potrzebne jest narzędzie umożliwiające wygenerowanie potencjalnie nieskończenie wielu kategorii. Każdy mechanizm generujący skończony zbiór elementów jest w tym przypadku nieprzydatny. Dzięki nieskończonej liczbie kategorii jest możliwa klasyfikacja dowolnego obiektu na podstawie wektora cech opisującego dany obiekt do jednej ze zdefiniowanych kategorii. Kolejnym powodem użycia metod lingwistycznych jest fakt, że po wstępnym przetworzeniu obrazu otrzymamy opis zawartości obrazu wolny od jakiejkolwiek klasyfikacji znanej a priori. Jest to możliwe, ponieważ w proces konstrukcji opisu lingwistycznego wbudowany jest bardzo ogólny mechanizm generalizacji. Technologia matematycznej lingwistycznej generalizacji jest polecana jako najlepsza metoda generalizacji. Prace nad utworzeniem lingwistycznego modelu i wykorzystaniu go przy rozpoznawaniu obrazów prowadzone są od wielu lat. Już w roku 1962 powstała publikacja R. Narasimhana (A linguistic approach to pattern recognition, Digital Computer Laboratory University of Illinois) poruszająca tę tematykę. Tworzenie języka opisującego obrazy należy rozpocząć od zdefiniowania podstawowych elementów należących do budowanej gramatyki obrazowej. Analizując poszczególne obrazy dochodzimy do wniosku, że zawierają one pewne klasy podstawowych (pierwotnych) graficznych obiektów oraz klasy reprezentujące relacje pomiędzy tymi obiektami. Obiekty te możemy interpretować jak rzeczowniki, natomiast relacje między obiektami będą odpowiadać czasownikom. Używając zaproponowanego słownictwa możemy zastąpić każdy obraz równoważnym schematem. Wykorzystanie symbolicznej notacji dla elementów słownika, w rezultacie umożliwia otrzymanie dla każdego obrazu ciągu symboli opisujących 3
4 ten obraz przy pomocy napisów należących do tworzonego języka. Po wykonaniu symbolicznego opisu obrazu należy zbudować model kognitywnego wnioskowania, wyjaśniający procesy myślowe oraz umożliwiający ich symulację komputerową. Oczywiście jest to najtrudniejsza część całego zadania. Struktury symboliczne Podstawową ideą wykorzystania struktur symbolicznych jest odwzorowanie obiektu lub modelowanie klasy obiektów. Najprostszą strukturą symboliczną jest ciąg, nazywany również łańcuchem. Ciąg składa się z pojedynczych, prymitywnych elementów, będących najbardziej podstawowymi, niepodzielnymi częściami obrazu. Te niepodzielne elementy postrzegane są jako całość lub część większego obiektu lecz nigdy jako składające się z mniejszych części. Model obiektu tworzony jest poprzez łączenie ze sobą, pojedynczych prymitywnych elementów. Oprócz struktur ciągowych wyróżnia się również struktury drzewiaste, grafowe i relacyjne. Zostały one wprowadzone, ponieważ struktury ciągowe, mimo niewątpliwych zalet (np. łatwość generowania i porównywania), mają dość mocno ograniczone możliwości odwzorowywania obiektów dwu- i trójwymiarowych. Dysponując strukturą nieznanego obiektu możemy go porównać z prototypami różnych klas w celu określenia ich podobieństwa. W rzeczywistym świecie nigdy nie uzyskamy idealnego podobieństwa; dwie porównywane struktury zawsze będą się różniły. Celem porównania ma być określenie kosztu transformacji jednej struktury w drugą. Koszt transformacji może być traktowany jak miara podobieństwa i jest nazywany odległością strukturalną. Łańcuchy Browna Łańcuchy Browna (ang. Brownian Strings) powstały z połączenia metody Freemana i techniki segmentacji obrazów Kassa. Po raz pierwszy technika ta została opisana przez R. P. Grzeszczuka i D.N. Levina. Opracowali oni technikę segmentacji obrazu, w której arbitrażowo naszkicowany kontur był stochastycznie deformowany do momentu dopasowania się do żądanego kształtu obiektu. Segmentacja obiektów polega na poprowadzeniu zamkniętej skierowanej krzywej łamanej złożonej z tzw. segmentów crack edges. Wewnątrz tej krzywej powinien znaleźć się obiekt. Każdy z tych segmentów oddziela na obrazie dwa sąsiadujące ze sobą piksele. Ważny do odnotowania jest fakt, że skoro każdy segment oddziela dwa piksele, to również długość każdego segmentu jest identyczna i równa długości piksela na obrazie. 4
5 Ponieważ segmenty oddzielają piksele, więc istnieją cztery możliwe kierunki segmentów oddzielające piksele: z lewej na prawą, z prawej na lewą, z góry do dołu i z dołu do góry. Zostały one symbolicznie nazwane R (ang. Right), L (ang. Left), D (ang. Down) i U (ang. Up). Po wprowadzeniu skierowania segmentów można już zapisać kontur obiektu jako kod łańcuchowy krzywej łamanej składający się ze skierowanych segmentów. Łatwo można zauważyć następujące własności łańcuchów Browna: segmenty tworzą pary: R-L oraz D-U; liczba segmentów R i L tworzących kontur jest taka sama, analogicznie w przypadku segmentów U i D; po segmencie X może wystąpić dowolny inny segment oprócz segmentu tworzącego parę z segmentem X np.: po segmencie R może wystąpić R, D lub U ale nie L; kontur obiektu opisany za pomocą łańcucha Browna jest cyklem. W zależności od wyboru elementu początkowego (miejsca przecięcia cyklu) otrzymujemy inny łańcuch odpowiadający temu samemu obiektowi; postać łańcucha zależy też od kierunku, w którym poruszamy się po brzegu obiektu. Na rysunku 1 umieszczono przykładowy obiekt z różnie wybranym elementem początkowym. DDRDDDLDRRRURRUULLDDLUUURURULLLL LLLLDDRDDDLDRRRURRUULLDDLUUURURU a b Rys. 1: Wpływ wyboru elementu początkowego na wygląd łańcucha Browna. 5
6 Deformacja konturów Browna Zostało wprowadzone pojęcie energii konturu. Każdemu konturowi w przeszukiwanej przestrzeni można przypisać energię, która zależy od całościowej charakterystyki konturu. Energia ta określa prawdopodobieństwo wybrania konkretnego konturu, jako zarysu poszukiwanego obszaru. Optymalizacja konturu polega na minimalizacji wartości tej energii. Można rozpatrywać dwa typy energii: energię zewnętrzną związaną z lokalnymi cechami analizowanego obrazu, takimi jak jasność, gradient; energię wewnętrzną związaną wyłącznie z geometrycznymi charakterystykami konturu, takimi jak krągłość, długość lub pole. Deformacja konturu jest algorytmicznym iteracyjnym procesem automatycznej zmiany kształtu konturu. Algorytmy takie nazywane są generatorami ruchu (ang. move generator), natomiast ich zadaniem jest doprowadzenie do sytuacji kiedy obszar objęty konturem będzie w jak najlepszym stopniu przybliżać obiekt. Oczywiście na jakość tego przybliżenia będzie wpływać konkretna sytuacja, ostrość krawędzi obiektu oraz przyjęta metoda segmentacji. Autorzy łańcuchów Browna zaproponowali dwa algorytmy zmieniające kontur. W obu, nowy kontur tworzony jest na podstawie poprzedniego poprzez wprowadzenie lokalnych zaburzeń, polegających na wybraniu części konturu i zastąpieniu go innym, zmodyfikowanym. Niestety po dokładniejszych analizach okazało się, że zaproponowane generatory zmian nie są pozbawione wad. Może się zdarzyć, że kilka kolejnych iteracji nie przybliża użytkownika do osiągnięcia pożądanego rezultatu. Co więcej, może dojść do tak zwanego zapętlenia algorytmu tzn. poprawnie działający mechanizm może wygenerować taką serię kolejnych iteracji, że na początku i na końcu wystąpi identyczny kontur oraz, że nie pozyska się żadnych dodatkowych informacji o obiekcie lub poszukiwanym optymalnym konturze. Kolejnym problemem jest możliwość wygenerowania w kolejnych iteracjach konturów o energii gorszej niż aktualny kontur. W szczególnym przypadku w każdej iteracji może zostać wygenerowany ten sam mniej optymalny kontur. Oczywiście gorszy kontur zostanie odrzucony i nie będzie punktem wejścia kolejnej iteracji, ale sam fakt dopuszczenia do możliwości zajścia takiej sytuacji jest niepokojący. Ostatnim zauważonym problemem jest brak możliwości zrównoleglenia obliczeń. Większość nowoczesnych procesorów komputerowych wyposażona jest w więcej niż jeden rdzeń, przez co możliwe jest przeprowadzanie obliczeń równolegle na każdym ze rdzeni. 6
7 Takie podejście jest znacznie bardziej wydajne i umożliwia bardziej optymalne wykorzystanie zasobów sprzętowych. Autor niniejszej rozprawy opracował trzeci generator ruchu eliminujący wszystkie wymienione problemy. Proponowane rozwiązanie polega na rozdzieleniu energii wewnętrznej od zewnętrznej podczas procesu optymalizacji konturu. W tym celu przeprowadzane są następujące etapy: 1) poszukiwanie obszaru na obrazie posiadającego pożądane cechy, 2) przeprowadzenie analizy sąsiedztwa elementów zaklasyfikowanych, jako należących do obiektu, 3) odrzucenie obszarów zbyt małych, 4) optymalizacja geometrycznego kształtu konturu. W dwóch pierwszych etapach, analizując obraz, optymalizuje się energię zewnętrzną konturu. Drugi etap wpływa już na energię wewnętrzną poprzez sprawdzenie sąsiedztwa poszczególnych pikseli. Ma to na celu wygładzenie konturu. W trzecim etapie odrzucane są małe obszary zgodnie z przyjętym ograniczeniem. W ostatnim etapie należy zadbać, aby kontur miał pożądany kształt zgodnie z przyjętymi zasadami optymalizacji, np. aby był pozbawiony pojedynczych odstających elementów, bądź nie posiadał ostrych rogów. Opracowany algorytm umożliwia wykrycie wszystkich, nawet rozłącznych obiektów. Ponieważ łańcuchy Browna nie dopuszczają występowania niepewności, każdy piksel musi zostać jednoznacznie zaklasyfikowany jako należący do obiektu albo należący do tła. W związku z tym, że etap analizy obrazu został oddzielony od etapu optymalizacji geometrycznego kształtu konturu, to każdy piksel obrazu będzie analizowany i rozpoznawany jako należący do obiektu bądź tła co najwyżej jeden raz. Oznacza to, że procedura badania poszczególnych pikseli może zostać zrównoleglona, co w znaczący sposób wpływa na wydajność działania proponowanego rozwiązania. Porównywanie łańcuchów Istnieje wiele metod umożliwiających porównywanie łańcuchów. Do najpopularniejszych należą: odległość Hamminga, odległość Levenstaina, metoda n-gramów, uogólniona metoda n-gramów. 7
8 Niestety, żadna z tych metod nie sprawdzała się w przypadku konturów Browna. Głównym ograniczeniem istniejących metod jest nie uwzględnianie cyklicznej budowy łańcuchów Browna. Również proste operacje polegające na odbiciu lustrzanym figury, bądź obrocie o 90 stopni w sposób znaczący ograniczają możliwość wykorzystania znanych metod porównujących łańcuchy. Otrzymywane wyniki są znacząco różne od intuicyjnych oczekiwań. W celu usunięcia wymienionych problemów została opracowana modyfikacja odległości Levenstaina przystosowana do cyklicznej budowy konturów Browna. Operacje na łańcuchach Browna W celu umożliwienia porównywania łańcuchów zostało opracowanych kilkanaście metod przekształcających bądź opisujących cechy konturu i obiektu na podstawie, którego dany kontur został wygenerowany. Wspólnym wyróżnikiem wszystkich opracowanych metod jest założenie, że obliczenia wykonywane są wyłącznie w oparciu o łańcuch Browna bez żadnej wiedzy o oryginalnym obiekcie. Do najważniejszych opracowanych metod można zaliczyć: cykliczne przesunięcie konturu; wyznaczanie askonomicznej szerokości i wysokości obiektu; wyznaczanie pola obiektu; odtwarzanie obiektu na podstawie konturu; badanie konturu pod kontem występowania czterosegmentowych wierzchołków; określanie skierowania konturu; wyznaczanie projekcji obiektu; wyznaczanie Centroidy; zmiana kierunku skierowania konturu; obrót konturu o 90 stopni w prawo i w lewo; obrót konturu o 180 stopni; odbicie lustrzane konturu w pionie i w poziomie. Adaptacyjny filtr Kuwahary Podczas przeprowadzania badań i wstępnego przetwarzania zdjęć, mającego na celu poprawę jakości, pojawił się poważny problem. Dotyczył on nierównomiernego oświetlenia sceny oraz użycia trybu automatycznego podczas wykonywania zdjęć. Sprawiło to, że różnice pomiędzy kolejnymi obrazami były tak duże, a dokładniej, niedoskonałości na nich występujące były na tyle poważne, że nie udało się dopasować przekształcenia dostatecznie dobrze poprawiającego wszystkie niedoskonałości, a jednocześnie niezaburzającego kolejnych faz analizy. Wypróbowano użycie kilku efektów m.in.: 8
9 rozciąganie histogramu, wyrównywanie histogramu, filtr uśredniający, filtr selektywnie uśredniający, filtr uśredniający Gaussa, filtr selektywnie uśredniający Gaussa, filtr medianowy, adaptacyjny filtr medianowy, filtr Kuwahary. Rozwiązaniem tego problemu było opracowanie zupełnie nowego filtru posiadającego wszystkie pożądane cechy. Filtr ten został nazwany adaptacyjnym filtrem Kuwahary. Przed rozpoczęciem jakiejkolwiek analizy na każdym z przetwarzanych obrazów był stosowany zaproponowany filtr. Jego użycie dało najbardziej pożądane wyniki spośród wszystkich przebadanych metod. Algorytm adaptacyjnego filtru Kuwahary powstał z połączenia dwóch innych filtrów: adaptacyjnego filtru medianowego i filtru Kuwahary. Najważniejszą cechą adaptacyjnego filtru medianowego jest dostosowywanie rozmiaru okna działania filtru do wyników częściowej analizy uzyskanych w trakcie działania. Natomiast zadaniem filtru Kuwahary jest wygładzanie kolorów oraz usuwanie drobnych szumów przy jednoczesnym zachowaniu krawędzi. Niestety, oba te filtry nie są pozbawione wad. Pierwszy z nich rozmywa krawędzie, co bardzo utrudnia dalszą analizę. Ponadto, w związku ze zmiennym rozmiarem okna złożoność obliczeniowa tego filtru jest znacznie większa niż innych filtrów. Natomiast filtr Kuwahary wprawdzie zachowuje krawędzie, ale wymagane jest podanie rozmiaru okna. Niepożądanym efektem działania drugiego filtru jest bardzo wyraźna pikselizacja, czyli mozaika dużych, jednorodnych, często prostokątnych obszarów. Opracowany filtr ma następujące cechy: zachowuje krawędzie przetwarzanego obrazu, krawędzie obiektów po zastosowaniu adaptacyjnego filtru Kuwahary są znacznie mniej zmodyfikowane niż w przypadku użycia standardowego filtru Kuwahary z większym oknem, tendencja do pikselizacji w porównaniu ze standardowym filtrem Kuwahary została znacznie zmniejszona, posiada możliwości usuwania szumu z obrazu porównywalną do adaptacyjnego filtru medianowego oraz filtru Kuwahary, zachowuje większą różnorodność intensywności kolorów w odniesieniu do filtru 9
10 Kuwahary, jest bardzo szybką operacją, szczególnie w porównaniu z adaptacyjnym filtrem medianowym. Porównywanie obiektów Proces rozpoznawania obiektów został podzielony na dwie fazy: ograniczenie zbioru możliwych rezultatów za pomocą klasyfikacji hierarchicznej oraz porównywanie badanego konturu z konkretnymi reprezentacjami wzorcowych konturów zapamiętanych w bazie. Jest to zastosowanie wnioskowania na podstawie przykładów (ang. case-based reasoning). Druga z wymienionych faza może być przetwarzana równolegle. Każdy z możliwych rezultatów może być analizowany w osobnym wątku. Następnie po uzyskaniu informacji o wszystkich badanych wzorcach wyniki są porównywane i wybierany jest ten, który uzyskał najlepszą ocenę. Pierwsza faza jest modyfikacją klasyfikatora hierarchicznego. Rozpoczynając od pojedynczego skupienia zawierającego wszystkie elementy, poprzez kolejne etapy, w których skupienie początkowe jest ograniczane aż do uzyskania skupienia o minimalnej liczbie elementów. Jedyną różnicą pomiędzy proponowanym podejściem a standardową koncepcją klasyfikatorów jest dopuszczenie, aby na końcu procesu klasyfikacji ostatnie skupienie mogło składać się z więcej niż jednego elementu. Wynika to z faktu, że niektóre elementy mogą być bardzo zbliżone i nie zawsze możliwe jest jednoznaczne rozdzielenie skupień na tym etapie analizy. Oczywiście, pociąga to za sobą konieczność użycia dodatkowych mechanizmów, aby rozpoznać obiekt. Bardzo ważną cechą opracowanej klasyfikacji hierarchicznej jest znaczne uproszczenie całego procesu rozpoznawania oraz znaczna poprawa wydajności obliczeniowej. Dzięki określeniu pewnych uniwersalnych cech, jakie posiadają znane obiekty było istotne ograniczenie zbioru możliwych rezultatów. Zostały określone następujące etapy: porównywanie liczby elementów składających się na reprezentację obiektu, porównywanie rozpiętości, porównywanie zwartości, porównywanie pola, porównywanie długości, porównywanie centroidy. Każdy etap na wejściu otrzymuje listę dopuszczalnych skupień. Następnie porównuje się wartości wzorcowe, zapisane w bazie, z wartościami wyliczonymi dla konkretnego badanego 10
11 konturu. Ostatecznie, otrzymujemy listę dopuszczalnych skupień pomniejszoną o rozwiązania odrzucone w danym etapie. W ramach poszczególnych etapów następuje sprawdzenie, czy analizowany kontur ma cechy odpowiadające wcześniej znanym wzorcom lub czy dopuszczalnie różni się od tych wzorców. Optymalną sytuacją byłoby posiadanie wszystkich możliwych wzorców danej klasy obiektów bądź przynajmniej pewnej reprezentatywnej grupy zawierającej przypadki brzegowe. Jednakże zazwyczaj dysponujemy tylko pewną bardzo ograniczoną liczbą wzorców, dla której nie możemy stwierdzić, czy ma rozkład normalny czy jednorodny. Dodatkowo, jedną z cech gramatyk lingwistycznych jest możliwość generowania wzorców o praktycznie nieograniczonej postaci. Należy to rozpatrywać raczej jako zaletę niż wadę, gdyż dzięki temu metody lingwistyczne mogą w lepszy sposób odzwierciedlić rzeczywiste obiekty. Natomiast, najważniejszym zadaniem badacza jest opracowanie miary podobieństwa w taki sposób, aby uwzględniała charakter wzorców. Każdy z etapów klasyfikacji jest podobny i składa się z dwóch części. Na początku sprawdzamy, czy analizowany kontur, a właściwie wartości badanej cechy, zawierają się w zakresie: średnia ± 3*odchylenie standardowe. Zakres ten, zgodnie z własnościami rozkładu normalnego, powinien zawierać 99,73% wszystkich obserwacji. Tak jak zostało wspomniane wcześniej, nie mamy pewności, czy rozkład danych wzorcowych jest rozkładem normalnym, zatem musimy dopuścić również te obiekty, które nie zawierają się w określonym zakresie, ale są wystarczająco podobne do elementów wzorcowych. Określenie tego podobieństwa zostało wykonane poprzez sprawdzenie prawdziwości następującej pary nierówności: Wartość współczynnika została określona na poziomie 120% dla porównywania pola oraz 140% w pozostałych etapach. Jeśli para nierówności jest spełniona, to można przyjąć, że dana cecha analizowanego konturu jest podobna do wartości wzorcowej w sposób znaczący i badany kontur można dopuścić do dalszych etapów klasyfikacji. Oczywiście, pierwszy etap jest inny. Służy do identyfikacji obiektów składających się z większej liczby elementów. Na przykład podczas rozpoznawania znaków drukowanych umożliwia identyfikację liter i, j, ć, ń, ó, ś, ż i ź dzięki przekazaniu informacji, że składają się one z dwóch części. W fazie porównywania ze wzorcem można wyróżnić następujące etapy: ocena podobieństwa rozpiętości, ocena podobieństwa zwartości, 11
12 ocena podobieństwa pola, ocena podobieństwa długości, obliczanie odległości Levenstaina, ocena podobieństwa projekcji, wyliczanie ostatecznej oceny poprzez zastosowanie wag dla wcześniej wyliczonych ocen. Każda z ocen wyrażana jest w postaci liczby z przedziału [0,1] gdzie 0 oznacza całkowitą zgodność, natomiast 1 zupełnie odmienny charakter obiektu. Sposób oceny podobieństwa można interpretować jako wyznaczenie miary podobieństwa pomiędzy analizowanymi obiektami. Matematyczne postulaty miary nie były sprawdzane. Jak zostało wspomniane, druga faza może być realizowana równolegle, przy czym równolegle przetwarzane są nie poszczególne operacje oceniające cechy badanego konturu, ale operacje oceniające całe klasy wzorców. Praktyka pokazała, że nie opłaca się realizować zrównoleglenia na niższym poziomie, bo skutkowałoby to koniecznością zbyt częstego przełączania zadań, a w rezultacie zmniejszoną wydajnością. Opracowany proces jest na tyle uniwersalny, że został wykorzystany do analizy wszystkich badanych zagadnień. 4 Wyniki badań Celem badań było wykorzystanie gramatyki ciągowej w postaci łańcuchów Browna oraz metod aktywnego konturu do rozpoznawania obiektów na obrazach cyfrowych. Badania zostały podjęte, ponieważ: Nie istniały badania pokazujące możliwość wykorzystania ciągowych struktur symbolicznych do opisywania obiektów na obrazach cyfrowych. Obecnie wykorzystywane metody symboliczne używają gramatyk drzewiastych i grafowych. Gramatyki drzewiaste i grafowe są skomplikowane oraz mało intuicyjne. Użycie łańcuchów Browna znacznie upraszcza zapis oraz ułatwia interpretacje. Łańcuchy Browna łatwo można wykorzystać w bardzo różnorodnych zastosowaniach bez wprowadzania zmian w konstrukcji mechanizmu rozpoznawania obiektów. Metody ciągowe w zapisie komputerowym mają znacznie prostszą budowę, a obiekty zbudowane przy użyciu łańcuchów Browna wymagają znacznie mniej miejsca w pamięci. Nie zostały opracowane żadne operacje (np.: pole, aksonomiczna szerokość 12
13 i wysokość, centroid) na łańcuchach Browna, umożliwiające badanie cech oraz porównywanie obiektów. W niniejszej pracy przeprowadzono badania w oparciu o trzy zagadnienia: rozpoznawanie znaków tekstu drukowanego, rozpoznawanie liści wybranych drzew, rozpoznawanie kształtów dłoni dla wybranych liter języka migowego. Każdy z badanych problemów odnosi się do zupełnie innego zagadnienia, co ma na celu pokazanie, że jest możliwe wykorzystanie gramatyki ciągowej w postaci łańcuchów Browna oraz metod aktywnego konturu do rozpoznawania obiektów na obrazach cyfrowych. Jako przykład skuteczności opracowanej metody można rozważyć wyniki otrzymane podczas rozpoznawania liter tekstu drukowanego. Obrazy do tego eksperymentu zostały pozyskane poprzez wydrukowanie a następnie zeskanowanie fragmentu artykułu popularnonaukowego. Ze względu na chęć uproszczenia zagadnienia separacji tekstu na poszczególne znaki użyto czcionki Courier New, w której każdy znak ma stałą szerokość. Spośród wszystkich znaków w danym kroju ograniczono się do znaków alfanumerycznych. W poniższej tabeli umieszczono otrzymane rezultaty. Znak Poprawnie zaklasyfikowane Niepoprawnie zaklasyfikowane Procent poprawnie zaklasyfikowanych a ,00% ą ,00% b ,00% c ,00% ć ,00% d ,00% e ,00% ę ,00% f ,67% g ,00% h ,00% i ,00% 13
14 j ,00% k ,00% l ,00% ł ,00% m ,00% n ,66% ń ,00% o ,00% ó ,00% p ,00% r ,51% s ,00% ś ,00% t ,00% u ,74% w ,00% y ,00% z ,00% ż ,00% ź ,00% Łącznie ,58% Uzyskano doskonałą skuteczność, porównywalną z komercyjnymi narzędziami dostępnymi na rynku. Warty podkreślenia jest fakt, że podczas rozpoznawania nie były dostarczone żadne informacje dotyczące kontekstu tekstu. W zagadnieniu celowo pominięto możliwość wykorzystania słowników wyrazów oraz prawdopodobieństwa występowania poszczególnych znaków i par znaków. Miało to na celu uzyskanie jak najbardziej klarownych rezultatów, dotyczących tylko i wyłącznie możliwości wykorzystanie gramatyki ciągowej w postaci łańcuchów Browna oraz metod aktywnego konturu do rozpoznawania obiektów. Ponieważ poddany analizie został prawdziwy, posiadający sens artykuł, a nie spreparowany dokument, to liczba niektórych znaków, w szczególności diakrytycznych, była stosunkowo niewielka. Nie powinno jednak mieć to większego wpływu na całościową ocenę eksperymentu ponieważ budowa tych znaków jest bardzo charakterystyczna. Potwierdzają to również przeprowadzone dodatkowe badania. Jedynym problemem jest rozróżnienie 14
15 znaków ż i ź. Jednakże jak zostało wspomniane wcześniej, dołączając kontekstowe informacje możliwe byłoby osiągnięcie jeszcze lepszej skuteczności. Wyniki rozpoznawania liści najpopularniejszych drzew występujących w parkach były również satysfakcjonujące. Z przebadanych 109 obrazów tylko 6 zostało niepoprawnie zaklasyfikowanych bądź nie udało się zidentyfikować, żadnego obiektu. Oznacza to, że łączny procent poprawnie rozpoznanych liści wyniósł 94,50%. Najwięcej problemów pojawiło się podczas identyfikacji liści jarzębiny. Pojedynczy liść tego gatunku składa się tak jakby z kilkunastu mniejszych listków połączonych z ogonkiem (osadką). Jest to przykład liścia złożonego nieparzysto-pierzastego. W procesie przetwarzania i analizy obrazów czasami miała miejsce sytuacja, w której zamiast jednego pojedynczego obiektu system wykrywał wiele pojedynczych elementów niepołączonych ze sobą. Dodatkowo wiotkość liścia i sposób ułożenia na ekranie skanera w sposób znaczący wpływały na wynik rozpoznawania. Należy zwrócić uwagę na ogromną różnorodność obiektów, zarówno mnogość gatunków jak i odmian wewnątrz danego gatunku. Osoba bez odpowiedniego wykształcenia, bądź zamiłowania do roślin jest co najwyżej w stanie rozpoznać gatunek kilku rodzajów drzew. Usuwając informacje o fakturze, kolorystyce i przestrzennym ułożeniu nerwów zazwyczaj uniemożliwia dokładne określenie gatunku. Różnorodność jest tak ogromna, że często do pewnej identyfikacji konieczne jest również uwzględnienie wysokości drzewa, układu konarów drzewa oraz gęstości korony. Ostatnim analizowanym zagadnieniem było rozpoznawanie kształtów dłoni dla wybranych liter języka migowego. Głównym celem eksperymentu było sprawdzenie, czy możliwe jest usprawnienie komunikacji komputer-człowiek. Mysz i klawiatura komputerowa zostały wprowadzone w celu usprawnienia komunikacji (wcześniej wykorzystywano karty perforowane), ale nie są to naturalne kanały. Wszystko wskazuje na to, że w najbliższej przyszłości rozwój branży IT będzie podążał w kierunku eliminacji wszelkich kontrolerów, a komunikacja będzie odbywać się za pomocą głosu, dotyku, gestu a w przyszłości zapewni i myśli. Język migowy został wybrany w celu uściślenia i ujednolicenia wykonywanych gestów. Równie dobrym rozwiązaniem byłoby opracowanie innego zestawu gestów znacznie prostszych do identyfikacji. Wybór konkretnych gestów spośród wszystkich znaków polskiego alfabetu migowego miał zarówno pokazać różnorodność dostępnych gestów jak i stopień podobieństwa pomiędzy znakami. W poniższej tabeli umieszczono wyniki rozpoznawania wybranych znaków języka migowego. Uzyskano bardzo zadowalające wyniki, gdyż dla 380 przeanalizowanych zdjęć poprawny znak został rozpoznany w 323 przypadkach, co stanowi 85%. Głównym 15
16 problemem jest różny sposób wykonywania gestów przez różne osoby. Niestety mimo wkładanego wysiłku dwie osoby nie mogą w sposób identyczny pokazać złożonego gestu. Zostało rozpoznane A B C F M N O S T W Y Łącznie Procent poprawnych A ,00% B ,00% C ,30% Powinno zostać rozpoznane F ,76% M ,00% N ,00% O ,36% S ,73% T ,14% W ,11% Y ,24% Łącznie ,00% Rozpoznawanie przy użyciu łańcuchów Browna można porównać do próby rozpoznania obiektu na podstawie rzucanego przez niego cienia. Tracona jest w ten sposób informacja o wzajemnym ułożeniu palców dłoni, co często jest jedyną istotną różnicą odróżniającą dwa znaki. Dodatkowo, dysponując wiedzą specjalistyczną często usuwając ze zdjęć, teksturę pozostawiając jedynie obrys dłoni również nie można jednoznacznie określić jaki znak został poddany rozpoznawaniu. Należy też zauważyć, że człowiek również mylnie odczytuje pojedyncze znaki. Jednak składając je w słowa uwzględnia sąsiedztwo (kontekst) oraz wiedzę o temacie, na który prowadzona jest rozmowa migowa. Oczywiście, nic nie szkodzi na przeszkodzie, aby pominąć uniwersalność i stworzyć system dedykowany dla danej osoby. Należałoby stworzyć bazę wiedzy złożoną tylko i wyłącznie z łańcuchów Browna odpowiadającym gestom wykonywanym przez jedną osobę. Można przypuszczać, że system zbudowany o takie zasady posiadałby skuteczność bliską 100%. 16
17 Każdy z badanych problemów odnosił się do zupełnie innej tematyki, co miało na celu pokazanie, że łańcuchy Browna cechuje bardzo duża uniwersalność i możliwość wykorzystania w różnorodnych zastosowaniach. Bez wprowadzenia większych zmian w algorytmie było możliwe wykorzystanie opracowanych mechanizmów do rozpoznawania zupełnie różnych obiektów. Można stwierdzić, że zbudowany system posiada pożądane własności. Liczba danych treningowych, z jednej strony, nie była zbyt duża, natomiast z drugiej strony pozwoliła na ekstrakcję istotnych cech badanych obiektów, w taki sposób, aby wyniki klasyfikacji były zadowalające. System i sposób doboru cech posiada oczekiwane własności. Dostarcza potrzebnych i wyczerpujących informacji na temat badanych obiektów oraz umożliwia podzielenie badanej przestrzeni na klasy w sposób wyczerpujący oraz rozłączny. Cel pracy udało się zrealizować, a otrzymane rezultaty są satysfakcjonujące. 17
18 5 Wybrana literatura R. Tadeusiewicz, M. R. Ogiela, P. S. Szczepaniak, Notes on a Linguistic Description as the Basis for Automatic Image Understanding, Applied Mathematics and Computer Science, pp , R. Tadeusiewicz, P. S. Szczepaniak, Basic concepts of knowledge-based image understanding, Agent and Multi-Agent Systems: Technologies and Applications. Springer Berlin/Heidelberg, 2008, pp R. Tadeusiewicz, M. R. Ogiela, Medical Image Understanding Technology, Springer Berlin/Heidelberg, L. Ogiela, R. Tadeusiewicz, M. R. Ogiela, Cognitive techniques in medical information systems, Computers in Biology and Medicine, pp , K. Stępor, Automatyczna klasyfikacja obiektów. Warszawa: Exit, P. S. Szczepaniak, R. Tadeusiewicz, The Role of Artificial Intelligence, Knowledge and Wisdom in Automatic Image Understanding, Journal of Applied Computer Science, R. Narasimhan, A linguistic approach to pattern recognition, Digital Computer Laboratory University of Illinois, D. Lu, Q. Weng, A survey of image classification methods and techniques for improving classification performance, International Journal of Remote Sensing, vol. 28, no. 5, pp , Mar H. Birk, T. B. Moeslund, C. B. Madsen, Real-Time Recognition of Hand Alphabet Gestures Using Principal Component Analysis, in Proceedings of the 10th Scandinavian Conference on Image Analysis, M. H. Yang, N. Ahuja, M. Tabb, Extraction of 2-D Motion Trajectories and its Application to Hand Gesture Recognition, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 29, no. 8, pp ,
19 S. P. Kaustubh, D. R. Sumantra, Hand gesture modelling and recognition involving changing shapes and trajectories, using a Predictive EigenTracker, Pattern Recognition Letters, vol. 28, no. 3, pp , P. Kakumanu, S. Makrogiannis, N. Bourbakis, A survey of skin-color modeling and detection methods, Pattern Recognition, vol. 40, p , P. Peer, J. Kovac, F. Solina, Human skin colour clustering for face detection, in EUROCON 2003 International Conference on Computer as a Tool, vol. 2, 2003, pp M. J. Jones, J. M. Rehg, Statistical color models with application to skin detection, in Proc. of the CVPR 99, vol. 1, 1999, p J. Brand, J. Mason, A comparative assessment of three approaches to pixel level human skin-detection, in ICPR01, vol. 1, 2000, p H. Freeman, On the encoding of arbitrary geometric configurations, IRE Trans. Electron. Computers EC-10, pp , M. Kass, W. Witkin, D. Terzopoulos, Snakes: Active Contour Models, International Journal of Computer Vision, R. P. Grzeszczuk, D. N. Levin, Brownian strings : Segmenting images with stochastically deformable contours, IEEE Transactions on Pattern Analysis and Machine Intelligence, pp , A. Blake, M. Isard, Active Contours The Application of Techniques from Graphics, Vision, Control Theory and Statistics to Visual Tracking of Shapes in Motion. Springer-Verlag,
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Kognitywne hierarchiczne aktywne podziały. Arkadiusz Tomczyk.
Arkadiusz Tomczyk arkadiusz.tomczyk@p.lodz.pl projekt finansowany przez: Narodowe Centrum Nauki numer projektu: 2012/05/D/ST6/03091 Przykładowy problem Diagnostyka zatorowości płucnej Obrazowanie CT sprzężone
Przetwarzanie obrazów wykład 4
Przetwarzanie obrazów wykład 4 Adam Wojciechowski Wykład opracowany na podstawie Komputerowa analiza i przetwarzanie obrazów R. Tadeusiewicz, P. Korohoda Filtry nieliniowe Filtry nieliniowe (kombinowane)
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy
Rozpoznawanie obrazów na przykładzie rozpoznawania twarzy Wykorzystane materiały: Zadanie W dalszej części prezentacji będzie omawiane zagadnienie rozpoznawania twarzy Problem ten można jednak uogólnić
Przygotowanie materiału uczącego dla OCR w oparciu o aplikację Wycinanki.
Przygotowanie materiału uczącego dla OCR w oparciu o aplikację Wycinanki. Zespół bibliotek cyfrowych PCSS 6 maja 2011 1 Cel aplikacji Aplikacja wspomaga przygotowanie poprawnego materiału uczącego dla
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy prosty i skuteczny.
Filtracja nieliniowa może być bardzo skuteczną metodą polepszania jakości obrazów Filtry nieliniowe Filtr medianowy Spośród licznych filtrów nieliniowych najlepszymi właściwościami odznacza się filtr medianowy
Cyfrowe przetwarzanie obrazów i sygnałów Wykład 8 AiR III
1 Niniejszy dokument zawiera materiały do wykładu z przedmiotu Cyfrowe Przetwarzanie Obrazów i Sygnałów. Jest on udostępniony pod warunkiem wykorzystania wyłącznie do własnych, prywatnych potrzeb i może
Metody systemowe i decyzyjne w informatyce
Metody systemowe i decyzyjne w informatyce Laboratorium JAVA Zadanie nr 2 Rozpoznawanie liter autorzy: A. Gonczarek, J.M. Tomczak Cel zadania Celem zadania jest zapoznanie się z problemem klasyfikacji
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
Przetwarzanie obrazu
Przetwarzanie obrazu Przekształcenia kontekstowe Liniowe Nieliniowe - filtry Przekształcenia kontekstowe dokonują transformacji poziomów jasności pikseli analizując za każdym razem nie tylko jasność danego
Samochodowy system detekcji i rozpoznawania znaków drogowych. Sensory w budowie maszyn i pojazdów Maciej Śmigielski
Samochodowy system detekcji i rozpoznawania znaków drogowych Sensory w budowie maszyn i pojazdów Maciej Śmigielski Rozpoznawanie obrazów Rozpoznawaniem obrazów możemy nazwać proces przetwarzania i analizowania
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
W poszukiwaniu sensu w świecie widzialnym
W poszukiwaniu sensu w świecie widzialnym Andrzej Śluzek Nanyang Technological University Singapore Uniwersytet Mikołaja Kopernika Toruń AGH, Kraków, 28 maja 2010 1 Podziękowania Przedstawione wyniki powstały
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle
Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,
Testowanie hipotez statystycznych. Wnioskowanie statystyczne
Testowanie hipotez statystycznych Wnioskowanie statystyczne Hipoteza statystyczna to dowolne przypuszczenie co do rozkładu populacji generalnej (jego postaci funkcyjnej lub wartości parametrów). Hipotezy
Analiza obrazów - sprawozdanie nr 2
Analiza obrazów - sprawozdanie nr 2 Filtracja obrazów Filtracja obrazu polega na obliczeniu wartości każdego z punktów obrazu na podstawie punktów z jego otoczenia. Każdy sąsiedni piksel ma wagę, która
WYKŁAD 12. Analiza obrazu Wyznaczanie parametrów ruchu obiektów
WYKŁAD 1 Analiza obrazu Wyznaczanie parametrów ruchu obiektów Cel analizy obrazu: przedstawienie każdego z poszczególnych obiektów danego obrazu w postaci wektora cech dla przeprowadzenia procesu rozpoznania
Implementacja filtru Canny ego
ANALIZA I PRZETWARZANIE OBRAZÓW Implementacja filtru Canny ego Autor: Katarzyna Piotrowicz Kraków,2015-06-11 Spis treści 1. Wstęp... 1 2. Implementacja... 2 3. Przykłady... 3 Porównanie wykrytych krawędzi
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat
BIBLIOTEKA PROGRAMU R - BIOPS Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat Biblioteka biops zawiera funkcje do analizy i przetwarzania obrazów. Operacje geometryczne (obrót, przesunięcie,
Analiza obrazu. wykład 1. Marek Jan Kasprowicz Uniwersytet Rolniczy Marek Jan Kasprowicz Analiza obrazu komputerowego 2009 r.
Analiza obrazu komputerowego wykład 1 Marek Jan Kasprowicz Uniwersytet Rolniczy 2009 Plan wykładu Wprowadzenie pojęcie obrazu cyfrowego i analogowego Geometryczne przekształcenia obrazu Przekształcenia
Filtracja obrazu operacje kontekstowe
Filtracja obrazu operacje kontekstowe Podział metod filtracji obrazu Metody przestrzenne i częstotliwościowe Metody liniowe i nieliniowe Główne zadania filtracji Usunięcie niepożądanego szumu z obrazu
Rozpoznawanie Twarzy i Systemy Biometryczne
Filtry Plan wykładu Przegląd dostępnych filtrów Zastosowanie filtrów na różnych etapach pracy systemu Dalsze badania Kontrast i ostrość Kontrast różnica w kolorze i świetle między częściami ś i obrazu
Detekcja punktów zainteresowania
Informatyka, S2 sem. Letni, 2013/2014, wykład#8 Detekcja punktów zainteresowania dr inż. Paweł Forczmański Katedra Systemów Multimedialnych, Wydział Informatyki ZUT 1 / 61 Proces przetwarzania obrazów
Analiza obrazu. wykład 4. Marek Jan Kasprowicz Uniwersytet Rolniczy 2009
Analiza obrazu komputerowego wykład 4 Marek Jan Kasprowicz Uniwersytet Rolniczy 2009 Filtry górnoprzepustowe - gradienty Gradient - definicje Intuicyjnie, gradient jest wektorem, którego zwrot wskazuje
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Instrukcja interpretacji Raportu podobieństwa systemu Antyplagiat
Instrukcja interpretacji Raportu podobieństwa systemu Antyplagiat Użytkownik Indywidualny Raport podobieństwa: ułatwia ocenę samodzielności badanego tekstu, wskazuje liczbę zapożyczonych fragmentów i podaje
Widzenie komputerowe (computer vision)
Widzenie komputerowe (computer vision) dr inż. Marcin Wilczewski 2018/2019 Organizacja zajęć Tematyka wykładu Cele Python jako narzędzie uczenia maszynowego i widzenia komputerowego. Binaryzacja i segmentacja
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych
Automatyczne tworzenie trójwymiarowego planu pomieszczenia z zastosowaniem metod stereowizyjnych autor: Robert Drab opiekun naukowy: dr inż. Paweł Rotter 1. Wstęp Zagadnienie generowania trójwymiarowego
PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM
Mostefa Mohamed-Seghir Akademia Morska w Gdyni PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM W artykule przedstawiono propozycję zastosowania programowania dynamicznego do rozwiązywania
Proces badawczy schemat i zasady realizacji
Proces badawczy schemat i zasady realizacji Agata Górny Zaoczne Studia Doktoranckie z Ekonomii Warszawa, 23 października 2016 Metodologia i metoda naukowa 1 Metodologia Metodologia nauka o metodach nauki
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska.
SYSTEMY UCZĄCE SIĘ WYKŁAD 10. PRZEKSZTAŁCANIE ATRYBUTÓW Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska INFORMACJE WSTĘPNE Hipotezy do uczenia się lub tworzenia
Algorytmy i złożoności Wykład 5. Haszowanie (hashowanie, mieszanie)
Algorytmy i złożoności Wykład 5. Haszowanie (hashowanie, mieszanie) Wprowadzenie Haszowanie jest to pewna technika rozwiązywania ogólnego problemu słownika. Przez problem słownika rozumiemy tutaj takie
Klasyfikator. ˆp(k x) = 1 K. I(ρ(x,x i ) ρ(x,x (K) ))I(y i =k),k =1,...,L,
Klasyfikator Jedną z najistotniejszych nieparametrycznych metod klasyfikacji jest metoda K-najbliższych sąsiadów, oznaczana przez K-NN. W metodzie tej zaliczamy rozpoznawany obiekt do tej klasy, do której
OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI
Autoreferat do rozprawy doktorskiej OPTYMALIZACJA HARMONOGRAMOWANIA MONTAŻU SAMOCHODÓW Z ZASTOSOWANIEM PROGRAMOWANIA W LOGICE Z OGRANICZENIAMI Michał Mazur Gliwice 2016 1 2 Montaż samochodów na linii w
Reprezentacja i analiza obszarów
Cechy kształtu Topologiczne Geometryczne spójność liczba otworów liczba Eulera szkielet obwód pole powierzchni środek cięŝkości ułoŝenie przestrzenne momenty wyŝszych rzędów promienie max-min centryczność
Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia. Mgr inż.
Metody kodowania wybranych cech biometrycznych na przykładzie wzoru naczyń krwionośnych dłoni i przedramienia Mgr inż. Dorota Smorawa Plan prezentacji 1. Wprowadzenie do zagadnienia 2. Opis urządzeń badawczych
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe. Autor: Mariusz Sasko Promotor: dr Adrian Horzyk Plan prezentacji 1. Wstęp 2. Cele pracy 3. Rozwiązanie 3.1. Robot
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Reprezentacja i analiza obszarów
Cechy kształtu Topologiczne Geometryczne spójność liczba otworów liczba Eulera szkielet obwód pole powierzchni środek ciężkości ułożenie przestrzenne momenty wyższych rzędów promienie max-min centryczność
Statystyki: miary opisujące rozkład! np. : średnia, frakcja (procent), odchylenie standardowe, wariancja, mediana itd.
Wnioskowanie statystyczne obejmujące metody pozwalające na uogólnianie wyników z próby na nieznane wartości parametrów oraz szacowanie błędów tego uogólnienia. Przewidujemy nieznaną wartości parametru
Elementy modelowania matematycznego
Elementy modelowania matematycznego Modelowanie algorytmów klasyfikujących. Podejście probabilistyczne. Naiwny klasyfikator bayesowski. Modelowanie danych metodą najbliższych sąsiadów. Jakub Wróblewski
Przetwarzanie obrazów rastrowych macierzą konwolucji
Przetwarzanie obrazów rastrowych macierzą konwolucji 1 Wstęp Obrazy rastrowe są na ogół reprezentowane w dwuwymiarowych tablicach złożonych z pikseli, reprezentowanych przez liczby określające ich jasność
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
10. Redukcja wymiaru - metoda PCA
Algorytmy rozpoznawania obrazów 10. Redukcja wymiaru - metoda PCA dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. PCA Analiza składowych głównych: w skrócie nazywana PCA (od ang. Principle Component
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Programowanie współbieżne Wykład 2. Iwona Kochańska
Programowanie współbieżne Wykład 2 Iwona Kochańska Miary skalowalności algorytmu równoległego Przyspieszenie Stały rozmiar danych N T(1) - czas obliczeń dla najlepszego algorytmu sekwencyjnego T(p) - czas
Analiza stanów gry na potrzeby UCT w DVRP
Analiza stanów gry na potrzeby UCT w DVRP Seminarium IO na MiNI 04.11.2014 Michał Okulewicz based on the decision DEC-2012/07/B/ST6/01527 Plan prezentacji Definicja problemu DVRP DVRP na potrzeby UCB Analiza
ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO
Szybkobieżne Pojazdy Gąsienicowe (2) Nr 2, 24 Mirosław ADAMSKI Norbert GRZESIK ALGORYTM PROJEKTOWANIA CH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO. WSTĘP
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
Analiza obrazów. Segmentacja i indeksacja obiektów
Analiza obrazów. Segmentacja i indeksacja obiektów Wykorzystane materiały: R. Tadeusiewicz, P. Korohoda, Komputerowa analiza i przetwarzanie obrazów, Wyd. FPT, Kraków, 1997 Analiza obrazu Analiza obrazu
Politechnika Świętokrzyska. Laboratorium. Cyfrowe przetwarzanie sygnałów. Ćwiczenie 8. Filtracja uśredniająca i statystyczna.
Politechnika Świętokrzyska Laboratorium Cyfrowe przetwarzanie sygnałów Ćwiczenie 8 Filtracja uśredniająca i statystyczna. Cel ćwiczenia Celem ćwiczenia jest zdobycie umiejętności tworzenia i wykorzystywania
Złożoność obliczeniowa zadania, zestaw 2
Złożoność obliczeniowa zadania, zestaw 2 Określanie złożoności obliczeniowej algorytmów, obliczanie pesymistycznej i oczekiwanej złożoności obliczeniowej 1. Dana jest tablica jednowymiarowa A o rozmiarze
Priorytetyzacja przypadków testowych za pomocą macierzy
Priorytetyzacja przypadków testowych za pomocą macierzy W niniejszym artykule przedstawiony został problem przyporządkowania priorytetów do przypadków testowych przed rozpoczęciem testów oprogramowania.
Summary in Polish. Fatimah Mohammed Furaiji. Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling
Summary in Polish Fatimah Mohammed Furaiji Application of Multi-Agent Based Simulation in Consumer Behaviour Modeling Zastosowanie symulacji wieloagentowej w modelowaniu zachowania konsumentów Streszczenie
9.9 Algorytmy przeglądu
14 9. PODSTAWOWE PROBLEMY JEDNOMASZYNOWE 9.9 Algorytmy przeglądu Metody przeglądu dla problemu 1 r j,q j C max były analizowane między innymi w pracach 25, 51, 129, 238. Jak dotychczas najbardziej elegancka
Maciej Piotr Jankowski
Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach instrumentów muzycznych
Wydział Fizyki Technicznej, Informatyki i Matematyki Stosowanej Politechnika Łódzka Streszczenie rozprawy doktorskiej Hybrydowa analiza transformat w rozpoznawaniu wysokości dźwięków w polifonicznych nagraniach
Proces badawczy schemat i zasady realizacji
Proces badawczy schemat i zasady realizacji Agata Górny Zaoczne Studia Doktoranckie z Ekonomii Warszawa, 14 grudnia 2014 Metodologia i metoda badawcza Metodologia Zadania metodologii Metodologia nauka
AiSD zadanie trzecie
AiSD zadanie trzecie Gliwiński Jarosław Marek Kruczyński Konrad Marek Grupa dziekańska I5 5 czerwca 2008 1 Wstęp Celem postawionym przez zadanie trzecie było tzw. sortowanie topologiczne. Jest to typ sortowania
WYKŁAD 10. kodem pierwotnym krzywej jest ciąg par współrzędnych x, y kolejnych punktów krzywej: (x 1, y 1 ), (x 2, y 2 ),...
WYKŁAD 10 Kompresja krzywych dyskretnych Kompresja krzywych dyskretnych KP SK = KW SK - stopień kompresji krzywej. KP [bajt] - obszar pamięci zajmowany przez kod pierwotny krzywej. KW [bajt] - obszar pamięci
Filtrowanie tekstur. Kinga Laurowska
Filtrowanie tekstur Kinga Laurowska Wprowadzenie Filtrowanie tekstur (inaczej wygładzanie) technika polegająca na 'rozmywaniu' sąsiadujących ze sobą tekseli (pikseli tekstury). Istnieje wiele metod filtrowania,
Układy stochastyczne
Instytut Informatyki Uniwersytetu Śląskiego 21 stycznia 2009 Definicja Definicja Proces stochastyczny to funkcja losowa, czyli funkcja matematyczna, której wartości leżą w przestrzeni zdarzeń losowych.
Systemy uczące się Lab 4
Systemy uczące się Lab 4 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 26 X 2018 Projekt zaliczeniowy Podstawą zaliczenia ćwiczeń jest indywidualne wykonanie projektu uwzględniającego
6. Organizacja dostępu do danych przestrzennych
6. Organizacja dostępu do danych przestrzennych Duża liczba danych przestrzennych oraz ich specyficzny charakter sprawiają, że do sprawnego funkcjonowania systemu, przetwarzania zgromadzonych w nim danych,
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
Diagnostyka obrazowa
Diagnostyka obrazowa 1. Cel ćwiczenia Ćwiczenie czwarte Przekształcenia morfologiczne obrazu Ćwiczenie ma na celu zapoznanie uczestników kursu Diagnostyka obrazowa z definicjami operacji morfologicznych
Biostatystyka, # 3 /Weterynaria I/
Biostatystyka, # 3 /Weterynaria I/ dr n. mat. Zdzisław Otachel Uniwersytet Przyrodniczy w Lublinie Katedra Zastosowań Matematyki i Informatyki ul. Głęboka 28, p. 221 bud. CIW, e-mail: zdzislaw.otachel@up.lublin.pl
Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32
Analiza i projektowanie oprogramowania Analiza i projektowanie oprogramowania 1/32 Analiza i projektowanie oprogramowania 2/32 Cel analizy Celem fazy określania wymagań jest udzielenie odpowiedzi na pytanie:
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Problematyka budowy skanera 3D doświadczenia własne
Problematyka budowy skanera 3D doświadczenia własne dr inż. Ireneusz Wróbel ATH Bielsko-Biała, Evatronix S.A. iwrobel@ath.bielsko.pl mgr inż. Paweł Harężlak mgr inż. Michał Bogusz Evatronix S.A. Plan wykładu
Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a
TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji
Faza Określania Wymagań
Faza Określania Wymagań Celem tej fazy jest dokładne określenie wymagań klienta wobec tworzonego systemu. W tej fazie dokonywana jest zamiana celów klienta na konkretne wymagania zapewniające osiągnięcie
Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego
IBS PAN, Warszawa 9 kwietnia 2008 Obrona rozprawy doktorskiej Neuro-genetyczny system komputerowy do prognozowania zmiany indeksu giełdowego mgr inż. Marcin Jaruszewicz promotor: dr hab. inż. Jacek Mańdziuk,
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
Przetwarzanie obrazów wykład 7. Adam Wojciechowski
Przetwarzanie obrazów wykład 7 Adam Wojciechowski Przekształcenia morfologiczne Przekształcenia podobne do filtrów, z tym że element obrazu nie jest modyfikowany zawsze lecz tylko jeśli spełniony jest
Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych
dr Piotr Sulewski POMORSKA AKADEMIA PEDAGOGICZNA W SŁUPSKU KATEDRA INFORMATYKI I STATYSTYKI Porównanie generatorów liczb losowych wykorzystywanych w arkuszach kalkulacyjnych Wprowadzenie Obecnie bardzo
Propensity Score Matching
Zajęcia 2 Plan dzisiejszych zajęć 1 Doświadczenia Idealne doświadczenie Nie-idealne doświadczenia 2 Idealne doświadczenie Nie-idealne doświadczenia Plan idealnego doświadczenia (eksperymentu) Plan doświadczenia
SYSTEM BIOMETRYCZNY IDENTYFIKUJĄCY OSOBY NA PODSTAWIE CECH OSOBNICZYCH TWARZY. Autorzy: M. Lewicka, K. Stańczyk
SYSTEM BIOMETRYCZNY IDENTYFIKUJĄCY OSOBY NA PODSTAWIE CECH OSOBNICZYCH TWARZY Autorzy: M. Lewicka, K. Stańczyk Kraków 2008 Cel pracy projekt i implementacja systemu rozpoznawania twarzy, który na podstawie
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI 16/01/2017 WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Repetytorium złożoność obliczeniowa 2 Złożoność obliczeniowa Notacja wielkie 0 Notacja Ω i Θ Rozwiązywanie
Dwufazowy system monitorowania obiektów. Karina Murawko, Michał Wiśniewski
Dwufazowy system monitorowania obiektów Karina Murawko, Michał Wiśniewski Instytut Grafiki Komputerowej i Systemów Multimedialnych Wydziału Informatyki Politechniki Szczecińskiej Streszczenie W artykule
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
1.7. Eksploracja danych: pogłębianie, przeszukiwanie i wyławianie
Wykaz tabel Wykaz rysunków Przedmowa 1. Wprowadzenie 1.1. Wprowadzenie do eksploracji danych 1.2. Natura zbiorów danych 1.3. Rodzaje struktur: modele i wzorce 1.4. Zadania eksploracji danych 1.5. Komponenty
Jak przygotować pliki gotowe do publikacji w sieci za pomocą DigitLabu?
Jak przygotować pliki gotowe do publikacji w sieci za pomocą DigitLabu? Po zainstalowaniu DigitLabu na komputerze otrzymujemy pakiet programów niezbędnych do przygotowania cyfrowych wersji obiektów tekstowych.
Bazy danych. Zachodniopomorski Uniwersytet Technologiczny w Szczecinie. Wykład 3: Model związków encji.
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Bazy danych Wykład 3: Model związków encji. dr inż. Magdalena Krakowiak makrakowiak@wi.zut.edu.pl Co to jest model związków encji? Model związków
Podstawy Programowania C++
Wykład 3 - podstawowe konstrukcje Instytut Automatyki i Robotyki Warszawa, 2014 Wstęp Plan wykładu Struktura programu, instrukcja przypisania, podstawowe typy danych, zapis i odczyt danych, wyrażenia:
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania
Politechnika Gdańska Wydział Elektrotechniki i Automatyki Katedra Inżynierii Systemów Sterowania KOMPUTEROWE SYSTEMY STEROWANIA I WSPOMAGANIA DECYZJI Rozproszone programowanie produkcji z wykorzystaniem
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
1. Synteza automatów Moore a i Mealy realizujących zadane przekształcenie 2. Transformacja automatu Moore a w automat Mealy i odwrotnie
Opracował: dr hab. inż. Jan Magott KATEDRA INFORMATYKI TECHNICZNEJ Ćwiczenia laboratoryjne z Logiki Układów Cyfrowych ćwiczenie 207 Temat: Automaty Moore'a i Mealy 1. Cel ćwiczenia Celem ćwiczenia jest
Komputerowa Analiza Danych Doświadczalnych
Komputerowa Analiza Danych Doświadczalnych dr inż. Adam Kisiel kisiel@if.pw.edu.pl pokój 117b (12b) 1 Materiały do wykładu Transparencje do wykładów: http://www.if.pw.edu.pl/~kisiel/kadd/kadd.html Literatura
Proces badawczy schemat i zasady realizacji
Proces badawczy schemat i zasady realizacji Agata Górny Wydział Nauk Ekonomicznych UW Warszawa, 28 października 2014 Najważniejsze rodzaje badań Typy badań Podział wg celu badawczego Kryteria przyczynowości
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Interpretacja gestów dłoni w sekwencji obrazów cyfrowych. autor: Karol Czapnik opiekun: prof. dr hab. Włodzimierz Kasprzak
Interpretacja gestów dłoni w sekwencji obrazów cyfrowych autor: Karol Czapnik opiekun: prof. dr hab. Włodzimierz Kasprzak Plan prezentacji Cel pracy magisterskiej Zastosowanie pracy Założenia projektowe