ROK XXXVI 1/2011(14) TECHNOLOGIE INFORMACYJNE BIOMETRIA, ROBOTYKA, KRYPTOGRAFIA, METROLOGIA

Wielkość: px
Rozpocząć pokaz od strony:

Download "ROK XXXVI 1/2011(14) TECHNOLOGIE INFORMACYJNE BIOMETRIA, ROBOTYKA, KRYPTOGRAFIA, METROLOGIA"

Transkrypt

1 ROK XXXVI 1/2011(14) TECHNOLOGIE INFORMACYJNE BIOMETRIA, ROBOTYKA, KRYPTOGRAFIA, METROLOGIA

2 Metody i aparatura do badania parametrów powierzchni przy wykorzystaniu zjawiska rozpraszania światła dr inż. ROMUALD SYNAK, mgr inż. JAN RYŻKO Instytut Maszyn Matematycznych, Warszawa Zjawisko rozpraszanie światła jest już od dość dawna wykorzystywane do pomiarów chropowatości i innych parametrów powierzchni, np. reflektancji. Na rozwój metod opartych na tym zjawisku wpłynęły takie ich cechy, jak bezstykowy sposób pomiaru, możliwość pomiaru nawet skrajnie małych wysokości nierówności, mały czas pomiaru. Zalety te sprawiają, że metody rozproszeniowe (nazywane też skaterometrycznymi) znajdują liczne zastosowania w dziedzinach zaliczanych do tzw. wysokiej technologii. W elektronice są wykorzystywane w badaniach i kontroli podłożowych płytek krzemowych, warstw cienkich, dysków magnetycznych, podłoży szklanych i ceramicznych itp. [3, 7, 9, 10], a w optyce w ocenie zwierciadeł, soczewek i innych podzespołów [2, 4, 10]. Również w pomiarach powierzchni bardzo gładkich elementów mechanicznych, np. płytek wzorcowych metody rozproszeniowe mogą być korzystniejsze niż standardowe (warsztatowe) profilometry stykowe ze względu na ich niewystarczającą wtedy rozdzielczość. Bezstykowy sposób pomiaru może też być cenną zaletą, gdy chodzi o kontrolę elementów w czasie ich ruchu. Metody pomiarowe Obszerne omówienie różnych metod pomiarowych powierzchni można znaleźć w pracach [4,5]. Przy wykorzystaniu zjawiska rozpraszania najczęściej stosowane są metody reflektometryczne (odbiciowe), integracyjne i różniczkowe [6]. Przy metodach reflektometrycznych do obliczania wysokości nierówności powierzchni wykorzystuje się zależność między odchyleniem standardowym tej wysokości a stosunkiem reflektancji zwierciadlanej R s do reflektancji całkowitej R o : 4 cos i R s /R o = exp [ - ( ) 2 ] (1) gdzie R s jest stosunkiem mocy wiązki odbitej P s do mocy wiązki padającej P i, R o sumą reflektancji odbitej i dyfuzyjnej R o =P d /P i, i kątem padania, a - długością fali. Zależność tę można stosować zakładając, że jest znacznie mniejsze, a odstępy między nierównościami znacznie większe od. Stosując tę metodę mierzymy moc wiązki odbitej, a także moc wiązki rozproszonej w jednym, lub kilku kierunkach. Z metodami reflektometrycznymi związane są ściśle metody integracyjne, przy których mierzymy całkowitą moc promieniowania rozpraszanego we wszystkich kierunkach. W języku angielskim stosuje się tu określenie total integrated scatter (lub scattering) i oznacza się symbolem TIS=R d /R s czyli stosunek reflektancji dyfuzyjnej do zwierciadlanej [10]. Wówczas TIS (2) 4 cos i Dla przeprowadzenia tego pomiaru wykorzystuje się specjalne układy jak półkuliste zwierciadło wklęsłe zwane zwierciadłem Coblentza [3], kulę całkującą (nazywaną też kulą Ulbrichta), której wnętrze pokryte jest materiałem rozpraszającym [10], lub inne rozwiązania jak np. zintegrowaną głowicę pomiarową [12]. 1

3 Z kolei metody różniczkowe, zwane też ARS od angle-resolved-scatter, wymagają pomiaru rozkładu kątowego mocy promienistej światła rozproszonego. Jeśli pomiaru dokonujemy tylko w płaszczyźnie padania światła, to rozkład ten będzie funkcją jednej zmiennej, zwykle kąta rozproszenia d dając tzw. indykatrysę rozproszenia. Jeśli wyznaczymy rozkład przestrzennie, będzie on także funkcją azymutalnego kąta rozproszenia i wówczas uzyskamy rozkłady oznaczone symbolami BRDF (bidirectional reflectance distribution function - dwukierunkowa funkcja rozkładu reflektancji) lub BSDF (bidirectional scatter distribution function dwukierunkowa funkcja rozkładu rozproszenia). Ta pierwsza została określona [8] jako stosunek mocy zawartej w elementarnym kącie bryłowym do mocy promienistej padającej na jednostkę powierzchni BRDF = cos i cos QS(f x,f y ) (3) d gdzie d kąt rozproszenia, Q bezwymiarowy czynnik zależny od azymutalnego kąta rozproszenia, uwzględniający także polaryzację światła padającego i optyczne właściwości powierzchni, S(f x,f y ) dwuwymiarowa funkcja gęstości widmowej nierówności powierzchni odbijającej, a f x, f y częstości przestrzenne nierówności. Opisane metody różniczkowe są stosowane do bardzo małych nierówności powierzchni. Można je również stosować do większych nierówności co jednak wymaga kalibracji urządzeń pomiarowych przy wykorzystaniu odpowiednich wzorców. Rozkład natężenia światła rozproszonego mierzy się często metodą goniometryczną lub za pomocą linijek fotodetektorów, z których sygnały są analizowane za pomocą komputera, a wyniki przedstawiane w postaci indykatrysy rozproszenia. Oprócz wyżej stosowanych metod stosowane są jeszcze metody wykorzystujące optyczne przekształcenie Fouriera. Tu również określa się rozkład kątowy światła rozproszonego, ale rejestracji dokonuje się tylko w niewielkim zakresie kątów rozproszenia. Przekształcenie Fouriera może być realizowane za pomocą specjalnych soczewek, by odległość obiektu od obszaru Fraunhofera nie była zbyt duża. Zaletą jest tu nieznaczny wpływ ruchu powierzchni na postać i położenie obszaru dyfrakcyjnego. Aparatura Obecnie najczęściej stosowane są metody integracyjne i różniczkowe. Dlatego ograniczymy się do pokazania kilku urządzeń pomiarowych działających tymi metodami na przykładach firm z USA: Schmitt Measurement Systems Inc. (SMS) [14] i PerkinElmer [13]. Pierwsza z nich, mająca swą siedzibę w Portland, stan Oregon, ma w swym katalogu całą gamę systemów zarówno uniwersalnych jak i przeznaczonych do określonych zastosowań. Urządzenia wykorzystujące metody integracyjne 2

4 Na rys. 1. [14] pokazane jest urządzenie TMS-2000RC, które wykorzystywane jest przez producentów twardych dysków komputerowych do pomiarów chropowatości ich powierzchni. Jako źródło światła stosowany jest tu laser o długości fali 670 nm. Pozwala ono określać średnią wysokość nierówności Ra lub odchylenie standardowe nierówności powierzchni, a także reflektancje: zwierciadlaną, dyfuzyjną i całkowitą, oraz parametr TIS. Dokonuje 100 pomiarów na sekundę. Dokładność przy obrocie wynosi 0,05 stopnia, a przy przesuwie 0,03 mm. Firma SMS twierdzi, że zastosowanie tego urządzenia pozwala na 4-krotne zwiększenie wydajności przy produkcji dysków. Następną grupą przyrządów specjalizowanych są urządzenia TMS 2000W-RC i TMS 3000W-RC przeznaczone do kontroli produkcji płytek krzemowych. Już wcześniej [7, 9] zwracano uwagę na przydatność tego rodzaju urządzeń pomiarowych w tych zastosowaniach. Większość ich parametrów jest zbliżona do tych, jakie podano wyżej dla TMS-2000RC. Drugie z wymienionych urządzeń jest pokazane na rys. 2. [14] Jest interesującym, że przednia strona tych płytek kontrolowana jest dla znacznie mniejszych nierówności powierzchni (średnio około 0,3nm), aniżeli strona tylna około 9nm. 3

5 Kule integracyjne (Ulbrichta) wykorzystywane są również w systemach pomiarowych firmy Perkin-Elmer [13] wraz z spektrofotometrami LAMBDA 650 i 850 UV/Vis oraz LAMBDA 950 UV/Vis/NIR. Stanowią one bardzo wszechstronne wyposażenie do precyzyjnych pomiarów reflektancji i transmitancji zarówno ciał stałych jak i cieczy i mogą być wykorzystywane do pomiarów przy kontroli jakości i opracowywania nowych wyrobów (tkanin, barwników, papieru i szkła). Uniwersalne zestawy pomiarowe tej firmy składają się z szeregu wy-miennych modułów, co pozwala na szybkie dostosowa-nie zestawu do rodzaju prze-prowadzanych pomiarów, a także wielkości mierzonych próbek. Na przykład kule integracyjne mogą mieć średnicę 60 lub 150 mm. Rys 3 pokazuje taki zestaw pomiarowy. Przyrządy wykorzystujące metody różniczkowe Przedstawimy tu dwa urządzenia tego rodzaju, oba oferowane przez Schmitt Measurement Systems, ale znacznie różniące się rodzajem przyrządu. Pierwszy z nich to pokazany na rys. 4. skaterometr CASI (Complete Angle Scatter Instrument 4

6 instrument mierzący rozproszenie pod wszystkimi kątami) [14] wykorzystujący promieniowanie laserowe od ultrafioletu (0,325 m) do podczerwieni (10,6 m). Próbka jest mocowana w uchwycie, który może przesuwać się wzdłuż osi x i y, a także obracać się, przy czym kątowa dokładność ustawienia wynosi 0,05 stopnia, a liniowa 0,01 mm. Kąt padania może zmieniać się od 0 do 85 stopni. Detektor przesuwa się dokoła próbki w płaszczyźnie padania światła mierząc światło rozproszone i odbite. W czasie badania komputer steruje zmianami wzmocnienia, filtrowania i apertury w sposób określony przez użytkownika. Oprogramowanie ułatwia analizę danych rozproszenia. Mierzone są wspomniane funkcje BRDF i BSDF, a także funkcja rozkładu transmitancji BTDF, co pozwala na obliczenie TIS, THR (Total Semispherical Reflectance całkowitej reflektacji półkulistej), PSD i średnią kwadratową wysokość nierówności. Wyniki mogą być drukowane w żądanej postaci. Zwraca uwagę bardzo wysoka rozdzielczość 0,001stopnia. Zupełnie inną klasę przyrządów reprezentuje podręczne urządzenie do pomiaru nierówności powierzchni i rozproszenia noszące nazwę Scan (Rys. 5) [14], które składa się z jednostki sterującej, wymiennej głowicy pomiarowej i oddzielnej jednostki zasilającej. Głowicę tę umieszcza się na powierzchni mierzonej i inicjuje pomiar przy pomocy przycisku. Każdy pomiar trwa mniej niż 5 sekund. Wynik jest wyświetlany i zapamiętany (pamięć systemu może przechować do 700 wyników). Z pojedynczego pomiaru użytkownik może określić chropowatość powierzchni (w zakresie nm), reflektancję i poziom rozproszonego promieniowania (BRDF) w dowolnych warunkach oświetlenia. Dokładność pomiaru reflektancji wynosi 2%, a rozproszenia 3%. Przyrząd ten może służyć do różnych zastosowań...aparatura opracowana w kraju Urządzenia działające na zasadzie pomiaru parametru TIS Prace nad aparaturą do pomiaru chropowatości metodą integracyjną podjęto dość wcześnie m.in. w Centralnym Ośrodku Aparatury Badawczej i Dydaktycznej oraz w Instytucie Konstrukcji Przyrządów Optycznych i Precyzyjnych (obecnie Instytut Mikromechaniki i Fotoniki) Politechniki Warszawskiej. Opracowano zestaw pomiarowy zawierający kulę Ulbrichta o średnicy 28 cm, a jako źródło światła laser He-Ne o mocy wiązki światła 10 mw. Badane próbki materiałów były umieszczane 5

7 na stoliku przesuwnym sterowanym za pomocą komputera. Zakres pomiarowy średniego kwadratowego odchylenia wysokości nierówności wynosił 0,5-10 nm. Podobny zestaw wykorzystujący analogiczną kulę o podobnym zakresie pomiarowym został zbudowany również w Katedrze Inżynierii Produkcji Politechniki Koszalińskiej (rys. 6) Rys. 6. Aparatura do pomiaru TIS z kulą integracyjną (Politechnika Koszalińska) Fig. 6. Equipment for measurement TIS parameter with integrating spheres (Koszalin University of Technology) Udaną próbę stworzenia nowego typu głowicy pomiarowej TIS podjęto w Instytucie Maszyn Matematycznych w Warszawie [12]. Głowica stanowi samodzielny zespół zawierający nie tylko elementy optyczne, ale również laser półprzewodnikowy i układy elektroniczne. Odznacza się ona małymi rozmiarami, co jest widoczne na poniższym zdjęciu (rys. 7). Może być zamontowana w uchwycie umożliwiającym jej pozycjonowanie (skanowanie) względem powierzchni mierzonej. Razem z modułem sterującym tworzy przyrząd p.n. Skaterometr Laserowy SL 31 o bogatych funkcjach wyboru trybu pomiaru, gromadzenia danych i połączenia z urządzeniami zewnętrznymi [11]. Rys. 7. Skaterometr SL 31 opracowany w Instytucie Maszyn Matematycznych Fig. 7. SL-31 scatterometer developed in Institute of Mathematical Machines 6

8 Przyrząd jest przystosowany głównie do pomiaru nierówności powierzchni od powyżej 1-2 nm do ok. 200 nm. Tak dużą górną granicę pomiarową uzyskano dzięki opracowaniu specjalnej metody kalibrowania wskazań za pomocą wzorców chropowatości. Przyrząd mierzy też reflektancję zwierciadlaną i dyfuzyjną powierzchni. Nietypowy w stosunku do standardowych rozwiązań przyrząd opracowano również w Instytucie Optyki Stosowanej w Warszawie [1]. Urządzenie nazwane Skateroskopem łączy w sobie funkcję pomiaru chropowatości powierzchni z jednoczesną obserwacją stanu jej powierzchni na monitorze ekranowym, u- możliwiającą identyfikację i eliminację wpływu zanieczyszczeń na pomiar. Przyrząd, pokazany na rys. 8, odznacza się też oryginalną, opatentowaną zasadą pomiaru. Zasadnicza część światła rozproszonego jest skupiana, a następnie rozdzielana na część kierowaną do kamery CCD i część podawaną do fotodetektora, co umożliwia obliczenie wysokości nierówności. Z uwagi na tę zasadę pomiaru przyrząd wymaga kalibracji przy użyciu elementów wzorcowych. Zakres pomiarowy parametru wynosi 0,2 nm 20 nm. Urządzenia działające na zasadzie pomiaru rozkładu promieniowania rozproszonego O możliwościach wykorzystania promieniowania rozproszonego do oceny chropowatości powierzchni detali będących w ruchu wskazują rezultaty uzyskane w Katedrze Inżynierii Produkcji Politechniki Koszalińskiej w dziedzinie badania powierzchni metali za pomocą metody pomiaru kątowego rozkładu światła rozproszonego [5]. Na rys. 9 przedstawiono aparaturę służącą do tego celu. Rys. 9. Stanowisko do badania powierzchni metali za pomocą pomiaru rozkładu światła rozproszonego wykonane w Politechnice Koszalińskiej 7

9 Fig. 9. Stand for investigation of metal surfaces with measurement of scattered light layout Głowica pomiarowa i powierzchnia mierzona przemieszczają się względem siebie ze stałą niewielką prędkością. Światło padające na powierzchnię jest przez nią rozpraszane i pada na liniał CCD, z którego sygnały są rejestrowane w komputerze i wykorzystane do wyświetlenia na monitorze indykatrysy rozproszenia światła, a także do obliczenia pewnego parametru, który jest skorelowany ze średnim odchyleniem profilu chropowatości powierzchni Ra. Urządzenie umożliwia pomiar Ra w zakresie od 10 nm do 1000 nm. Cenną zaletą urządzenia jest również możliwość wyznaczenie zarysu kształtu i falistości powierzchni. W kraju podjęto szereg prac nad opracowaniem zestawów służących do wyznaczenia funkcji BRDF, np. w Instytucie Optoelektroniki Wojskowej Akademii Technicznej i Instytucie Fizyki Politechniki Krakowskiej. Układ wykonany w tej ostatniej placówce opiera się na wykorzystaniu stolika goniometrycznego, na osi którego umieszcza się badaną próbkę. Na próbkę kieruje się wiązkę światła lasera półprzewodnikowego po uprzednim przejściu przez filtr przestrzenny. Promieniowanie rozproszone jest mierzone za pomocą fotodetektora krzemowego, a zmiana kąta rozproszenia następuje za pomocą silnika krokowego ze skokiem 0,01 stopnia. Bardziej szczegółowe dane, a także opis innych przyrządów opracowanych w IF PK (m.in. profilometru fourierowskiego podano w pracy [4]. Zakończenie Metody polegające na wykorzystaniu zjawiska rozpraszania światła umożliwiają bezstykowy i szybki pomiar parametrów powierzchni odznaczających się dużą gładkością. Dzięki temu znajdują szczególnie zastosowanie w technologiach elektronicznych, optycznych i mechanicznych, a także w pracach badawczych dotyczących np. nowych materiałów. Najczęściej są stosowane obecnie dwie metody pomiarowe: integracyjna i różniczkowa. Pierwsza polega na pomiarze całkowitej mocy promieniowania rozproszonego przez fragment powierzchni, na który skierowano wiązkę światła i mocy wiązki odbitej od niej zwierciadlanie. Wysokość nierówności oblicza się na podstawie stosunku tych wielkości, nazywanego parametrem TIS. W drugiej metodzie przedmiotem pomiaru jest rozkład mocy promieniowania rozproszonego (BRDF), przy czym często mierzy się go tylko w wybranym przekroju promieniowania. Przykłady aparatury skaterometrycznej stosującej wymienione metody podano w artykule. Opisano w nim również wyniki prac krajowych nad taką aparaturą. Można stwierdzić, że duża część z niej odznacza się oryginalnymi rozwiązaniami konstrukcyjnymi. Artykuł ten został opracowany w ramach projektu sfinansowanego ze środków Narodowego Centrum Badań. Literatura [1] Chabros W., Gawlas J., Nano-Skateroskop, II Konferencja Optoelektronika 2003, Komunikaty, Poznań, , [2] Choi N., Harvey J., Krywonos A.: New capabilities for predicting image degradation from optical surface metrology data, Proc. of SPIE Vol. 7801, 78010E

10 [3] Duparre A.: Light scaterring techniques for the inspection of microcomponents and microstructures (w:) Optical Inspection of Microsystems, W. Osten (ed.), Optical Science and Engineering, vol. 102, , [4] Jaglarz J.: Metody optyczne w badaniach powierzchni i powłok rzeczywistych, Wydawnictwo Politechniki Krakowskiej, Seria: Podstawowe Nauki Techniczne, Monografia 348, Kraków [5] Łukianowicz C.: Podstawy pomiarów nierówności powierzchni metodami rozpraszania, Wydawnictwo Uczelniane Politechniki Koszalińskiej, Koszalin [6] Łukianowicz C.: Skaterometria powierzchni nierównych, Problemy Metrologii Elektronicznej i Fotonicznej. Oficyna Wydawnicza Politechniki Wrocławskiej, , [7] McNeil J.: Scatterometry Applied to Microelectronics Processing, [8] Nicodemus F.: Reflectance nomenclature and directional reflectance and emissivity, Applied Optics, vol. 19, June, , [9] Scatterometry: Measuring Ever-Smaller Chip Production, ScienceDaily (Mar. 9, 2 010); [10] Stover J.: Optical Scattering. Measurement and Analysis, SPIE Optical Engineering Press, Washington, [11] Synak R. i inni: Laserowy przyrząd do oceny chropowatości powierzchni na podstawie pomiaru parametru TIS, Techniki Komputerowe IMM, XLI, nr 1, 67-75, [12] Synak R., Pawełczak M.: Zintegrowana głowica pomiarowa do badania chropowatości powierzchni bardzo gładkich, Elektronika, nr 11, , [13] Resources. [14] 9

11 METODY USUWANIA SZUMU Z OBRAZÓW TWARZY Noise removing methods from face images Dr inż. Tomasz Andrysiak 1, mgr inż. Lech Naumowski 2 1 Instytut Telekomunikacji, Uniwersytet Technologiczno-Przyrodniczy w Bydgoszczy, 2 Instytut Maszyn Matematycznych, Warszawa Streszczenie: W artykule przedstawiono propozycje aproksymacyjnej metody usuwania szumu impulsowego z obrazów twarzy. Dla osiągniecia tego celu wykorzystano adaptacyjną dekompozycję obrazu względem wyszukanych i dopasowanych elementów określonego słownika. Praktyczną realizację opisywanej metody oparto na iteracyjnym rozwiązaniu zachłannym MP (ang. Matching Pursuit). Zaimplementowano trzy typy słowników oraz przebadano ich wpływ na jakość odszumianych obrazów. Abstract: In this paper we present the proposal of approximation methods for impulse noise removal from face images. We used adaptive image decomposition with the matched dictionaries. The method is based on iterative Matching Pursuit algorithm. Three different types of algorithms have been implemented and tested. Słowa kluczowe: Biometria, adaptacyjna dekompozycja obrazów, słowniki funkcji, odszumianie obrazów. Keywords: Biometrics, adaptive decomposition of images, dictionaries of functions, image denoising. 1 Wprowadzenie Obecnie biometryczne metody identyfikacji i rozpoznawania osób na podstawie obrazów twarzy zyskują coraz większą popularność dzięki dynamicznie rozwijającym się systemom komputerowym oraz techniką obrazowania. Rosnące praktyczne ich znaczenie spowodowane jest głównie poprzez łatwość pozyskiwania oraz brak interakcji systemu z osobą której próbki biometryczne są pobierane. Dlatego też systemy te są szczególnie czułe na warunki akwizycji oraz jakość eksploatowanych urządzeń obrazowania. Istotnymi czynnikami mającymi wpływ na przedmiotową jakość są warunki oświetlenia, zniekształcenia geometryczne systemów akwizycji oraz szumy wprowadzane przez detektory optyczne i kanały transmisyjne. Szum jest podstawowym czynnikiem utrudniającym dalszą analizę obrazu. Potrafi w sposób znaczący wpłynąć na jego interpretacje i rozpoznanie. Dlatego też ważnym zagadnieniem jest rozwijanie metod pozwalających redukować jego wpływ na przetwarzane obrazy w systemach biometrycznych. Metody realizujące to zadanie najczęściej wykorzystują różnego typu techniki filtracji, analizy w dziedzinie określonej transformaty oraz dekompozycji obrazów. Reprezentacje sygnału realizowane jako liniowe rozwinięcia względem określonego zbioru funkcji dobrze zlokalizowanych względem czasu i/lub częstotliwość nie są w wielu przypadkach wystarczająco precyzyjne i optymalne [4]. W (1) 10

12 zależności od dokonanego wyboru funkcji współczynniki rozwinięcia reprezentują różne cechy sygnału. a) b) Rys. 1. Symboliczny podział płaszczyzny czasowo-częstotliwościowej dla a) rozwinięć ortogonalnych DCT, b) diadycznych rozwinięć falkowych Haara [2]. Fig. 1. Symbolic division of the time-frequency plane for a) orthogonal DCT decomposition, b) orthogonal dyadic Haar decomposition [2]. Jeżeli wielkości elementów strukturalnych analizowanego sygnału różnią się w sposób istotny od stałej skalującej funkcji to współczynniki nie stanowią optymalnej reprezentacji przedmiotowego sygnału (rys 1. a). Dlatego też sygnały z elementami o zmiennych długościach wymagają stosowania funkcji bazowych o różnych skalach (rys 1. b). Rozwiązanie takie posiada także istotne ograniczenie związane z powiązaniem parametru częstotliwości i parametru skali dla określonych funkcji bazowych. W przypadku skomplikowanych struktur sygnałów nie jesteśmy w stanie określić optymalnych parametrów skali i częstotliwości dla określonych funkcji bazowych. Wówczas naturalnym rozwiązaniem jest wprowadzenie bardziej różnorodnych i liczniejszych a także dostosowanych do charakteru sygnału zbiorów funkcji zwanych słownikami z redundancją [4]. Otrzymujemy wówczas reprezentacje znacznie bardziej uniwersalne i elastyczne (rys. 2). 11

13 Rys. 2. Funkcje bezpośrednio dostosowane do sygnału [2]. Fig. 2. Basis functions adapted directly to the signal [2]. Jednakże dekompozycja sygnału względem słownika wymaga wówczas ciągłego wyszukiwania i dopasowywania odpowiednich jego elementów które najlepiej odzwierciedlają pożądane cech analizowanego sygnału. Dopasowanie to powinno być realizowane w taki sposób aby maksymalizować korelacje pomiędzy wybranym elementem słownika a pozostała częścią przetwarzanego sygnału. Istnieje więc potrzeba określenia miary jakości takiego dopasowania oraz algorytmu zapewniającego znalezienie najlepszej w sensie tej miary reprezentacji sygnału [4]. Przedstawioną idea adaptacyjnej dekompozycji stosowano w analizie czasowoczęstotliwościowej sygnałów akustycznych i biomedycznych [7,8,14]. W dziedzinie przetwarzania obrazów cyfrowych stosowano najczęściej w zadaniach związanych z wydzielaniem cech, kompresją oraz metodach poprawy jakości analizowanych obrazów [1,2,3,9]. 2 Adaptacyjna dekompozycja obrazu Dekompozycja obrazu prowadząca do adaptacyjnej jego reprezentacji poprzez wybór zbioru atomów słownika sprowadza się do zagadnienia jak najlepszego ich dopasowania względem analizowanego obrazu tj. minimalizacji błędu aproksymacji. Reprezentację optymalną możemy określić jako taki podzbiór elementów słownika, którego liniowa kombinacja tłumaczy największy procent energii sygnału wśród wszystkich podzbiorów o tej samej liczebności. Wybór takiej reprezentacji jest obliczeniowo NP-trudny, toteż w praktyce zadowalamy się iteracyjnym rozwiązaniem adaptacyjnym zwanym algorytmem MP [15]. Wynikiem działania tego algorytmu jest projekcja elementów strukturalnych sygnału na wybrane funkcje słownika zwane atomami. 2.1 Algorytm MP W celu realizacji dekompozycji obrazu wyznaczać będziemy liniowe rozwiniecie względem zbioru atomów wybranych ze słownika tak aby były najlepiej dopasowane do elementów strukturalnych analizowanego obrazu. W każdym kroku algorytmu MP dokonywać będziemy kolejnych dekompozycji obrazu za pomocą rzutów ortogonalnych na elementy słownika. Wówczas w -tym kroku dekompozycji otrzymujemy (2), (3) 12

14 gdzie oznacza iloczyn skalarny a stanowi residuum będące wynikiem dekompozycji w kierunku. Dla residuum zerowego rzędu zachodzi oczywista zależność. Wyboru atomu dokonujemy na podstawie, (4) gdzie jest zbiorem indeksów słownika. Dla wybranego za pomocą zależności (4) atomu minimalizujemy residuum w kolejnym kroku algorytmu MP. Z uwagi na ortogonalności wektorów i zachodzi związek Kontynuując proces dekompozycji do -tego poziomu otrzymujemy Podobnie do zależności (5) możemy zapisać. (5). (6), (7) otrzymując równanie zachowania energii [6]. Liczba iteracji w których dokonujemy dekompozycji residuów zależy od wymaganej dokładności rekonstrukcji obrazu i dana jest zależnością (8) będącą jednocześnie kryterium stopu algorytmu MP, (8) gdzie parametr. Szybkości malenia normy residuum zależy od korelacji pomiędzy kolejnymi residuami obrazu a wybranymi atomami słownika. Jeżeli obraz jest suma składowych o dużej energii będących atomami słownika to współczynniki korelacji obrazu i jego residuów są znaczne. Wówczas ich norma szybko maleje ponieważ składowe o dużej energii są elementami strukturalnymi obrazu dobrze skorelowanymi z wybranymi atomami słownika [4,14]. 2.2 Słowniki funkcji bazowych Dokładna reprezentacja analizowanego obrazu w słowniku większym niż baza wprowadza redundancję. Pożądaną zwięzłość możemy osiągnąć godząc się na niedokładności rekonstrukcji obrazu, ale z wykorzystaniem możliwie niewielkiej ilości funkcji [7]. Słownik DCT Zbiór atomów słownika DCT może otrzymać wykorzystują funkcje bazowe transformacji DCT gdzie (9). (10) 13

15 Słownik Haara. Rys. 3. Słownik DCT. Fig. 3. DCT dictionary. Zbiór atomów słownika Haara generujemy poprzez operacje przesunięcia i skalowania funkcji [12]: dla, gdzie falkę podstawową Haara określamy jako:, (11). (12 ) Słownik Gabora. Rys. 4. Słownik Haara. Fig. 4. Haar dictionary. Zbiór atomów słownika Gabora możemy wygenerować poprzez skalowanie, przesuniecie i modulacje gaussowskiej funkcji okna [11,13]. Definiujemy wówczas zbiór, indeksów atomów, gdzie parametr odpowiedzialny jest za skalowanie, jest przesunięciem, a częstotliwością modulującą [15]. Otrzymujemy wówczas 14

16 , (13) gdzie, faza, a stała jest tak dobrana aby. W tabeli 1 przedstawiono wartości parametrów wykorzystywanych w procesie tworzenia atomów słownika Gabora na podstawie zależności (13). Tabela 1. Parametry dla atomów Gabora [2]. Table 1. Parameters for the Gabor atoms [2]. n π / π / π / π / π / 4 Na Rys. 5 przedstawiono obraz słownika Gabora modelowanego za pomocą parametrów określonych w tabeli 1. 15

17 3 Wyniki eksperymentów Rys. 5. Słownik Gabora. Fig. 5. Gabor dictionary. W przeprowadzonych badaniach analizowano obrazy testowe twarzy zaszumiane szumem gaussowskim o zerowej wartości średniej i zmiennym odchyleniu standardowym. Proces usuwania szumu polegał na selekcji współczynników dekompozycji realizowanej poprzez kryterium stopu algorytmu MP zgodnie z zależnością (8) dla parametru. Wszystkie wykorzystywane słowniki składały się z atomów, a każdy pojedynczy atom był blokiem o rozmiarze elementów. Na rys. 6 przedstawiono oryginalne obrazy testowe wybrane z baz IMM oraz BioID wykorzystywane w celu zilustrowania przykładowych wyników prezentowanej metody usuwania szumów z przetwarzanych obrazów testowych [18, 20]. a) b) Rys. 6. Obrazy testowe: a) BioID_0437, b) IMM Fig. 6. Sample images: a) BioID_0437, b ) IMM Przykładowe obrazy będące efektem opisywanej metody usuwania szumu przedstawiono na rys. 7 i 8. Obrazują one dobrą subiektywną ocenę prezentowanej metody szczególnie dla parametru (rys. 7) choć analizując szczegóły odszumianych obrazów dla (rys. 8) łatwo zauważyć że powstałe zniekształcenia były efektem rekonstrukcji obrazów z mało licznego zbioru atomów. 16

18 a) b) c) d) Rys. 7. Przykładowe rezultaty usuwania szumu dla obrazu BioID_0437: a) obraz zaszumiany σ=30, PSNR=18,58 db, b) Harr PSNR=32,51 db, c) DCT PSNR=33,63 db, d) Gabor PSNR=34,16 db. Fig. 7. Example of the denoising results for the image BioID_0437: a) noisy image σ=50, PSNR=18,58 db, b) Harr PSNR=32,51 db, c) DCT PSNR=33,63 db, d) Gabor PSNR=34,16 db. a) b) c) d) Rys. 8. Przykładowe rezultaty usuwania szumu do obrazu IMM 07-1: a) obraz zaszumiany σ=50, PSNR=14,15 db, b) Haar PSNR=30,83 db, c) DCT PSNR=30,94 db, d) Gabor PSNR=31,39 db. Fig. 8. Example of the denoising results for the image IMM 07-1: a) noisy image σ=50, PSNR=14,15 db, 17

19 b) DCT PSNR=29,81 db, c) Haar PSNR=30,21 db, d) Gabor PSNR=31,74 db. Porównanie prezentowanej metody z wynikami zawartymi w pracy [16] przedstawiono na rys. 9. Obrazują one fluktuacje jakości opisywanej metody usuwania szumu wokół linii bazowe (wartości osiągnięte dla obrazów testowych na podstawie metody opisanej przez Portilla w [16]) dla tych samych wartości parametru. Analizując te wykresy można stwierdzić, że dodatnie odchylenie PSNR zależne jest od typu wykorzystywanego słownika, zawartości kontekstowej odszumianych obrazów oraz poziomu parametru. Dla wszystkich obrazów testowych najlepsze wyniki PSNR osiągnięto dla słownika Gabora w zakresie parametru co obrazują dodatnie odchylenia PSNR. Najgorsze wyniki PSNR uzyskano dla słownika Haara już dla. Wynikało to prawdopodobnie z charakterystyki zmienności (rys.4) atomów tego słownika. Przedstawiono wykresy charakteryzujące średnią jakość wyliczoną dla całego zbioru obrazów z baz IMM oraz BioID z wykorzystaniem słowników Haara, DCT i Gabora dla parametru modelującego addytywny szum gaussowski. W celu porównania otrzymanych wyników przyjęto za poziom odniesienia (linia bazowa w zerze) rezultaty osiągnięte z wykorzystaniem metody opisanej w pracy [16] dla tych samych parametrów. Widoczne wahania względem linii bazowej obrazują skuteczność prezentowanej metody usuwania szumów z obrazów testowych. a) b) Rys. 9. Porównanie jakości odszumiania obrazów testowych z rezultatami uzyskanymi w pracy [16]. Fig. 9. Comparison between the denoising quality of sample images with the results achieved in work [16]. 18

20 Opisywaną metodę usuwania szumu wykorzystującą adaptacyjną dekompozycję obrazów zaimplementowano przy użyciu środowiska MATLAB 7.5 z wykorzystaniem biblioteki Image Processing Toolbox. 4 Podsumowanie W artykule zaprezentowano metodę usuwania szumu z obrazów twarzy wykorzystującą nadmiarowe reprezentacje słownikowe obrazów. Opisano adaptacyjną metodę dekompozycji obrazu opartą na zachłannym algorytmie MP (ang. Matching Pursuit), który w każdej iteracji wyszukuje i dopasowuje elementy danego słownika do struktury analizowanego obrazu. Przebadano trzy typy słowników zawierających atomy funkcji: Harra, DCT i Gabora. W wyniku przeprowadzenia eksperymentów stwierdzono, że prezentowana metoda usuwania szumu osiąga najlepsze wyniki dla słownika modelowanego funkcjami Gabora w szerokim zakresie parametru modelowanego addytywnego szumu impulsowego. Potwierdza to przypuszczenia że duża różnorodność atomów w wykorzystywanym słowniku Gabora powoduje ich lepsze dopasowanie do elementów strukturalnych obrazu w procesach adaptacyjnej dekompozycji. Dalsze prace ukierunkowane są na przebadanie licznego zbioru słowników opisanego różnymi typami funkcji bazowych w celu szukania odpowiedzi na pytanie jak charakter poszczególnych funkcji wpływa na osiągane wyniki odszumiania. Literatura [1] M. Aharon, M. Elad, and A. Bruckstein, K-SVD: An algorithm for designing overcomplete dictionaries for sparse representation, IEEE Transactions Signal Processing, 54, 11, pp , [2] M.R. Banham, J.C. Brailean, A selective update approach to matching pursuits video coding, IEEE Transactions on Curcuits and Systems Video Technology, vol. 7, no. 1, pp , [3] F. Bergeaud, S. Mallat., Matching pursuit of images, In Proc. IEEE International Conference on Image Processing ICIP 95, vol. 1, pages 53 56, [4] J.T. Białasiewicz, Falki i aproksymacje, WNT Warszawa [5] A. M. Bruckstein, D. L. Donoho, and M. Elad, From sparse solutions of systems of equations to sparse modeling of signals and images, SIAM Review, vol. 51, no. 1, pp , [6] G. Davis, S. Mallat, M. Avellaneda, Adaptive greedy approximations, Journal of Constructive Approximation, vol. 13, pp.57-98, [7] P.J. Durka, Między czasem a częstotliwością: elementy współczesnej analizy sygnałów, [8] P.J. Durka, Time-frequency analyses of EEG, dissertation. Institute of Experimental Physic, Warsaw University, [9] M. Elad, Sparse and Redundant Representations: From Theory to Applications in Signal and Image Processing, Springer, [10] M. Elad,., M. Aharon, Image denoising via sparse and redundant representations over learned dictionaries, IEEE Transactions Image Processing, vol. 54, pp , [11] D. Gabor, Theory of communication, Journal of Institution Electrical Engineering, vol. 93, no. 26, pp ,

21 [12] A. Haar, Zur Theorie der orthogonalen Funktionensysteme, Mathematische Annalen, vol. 69, pp , 1910 [13] A. Janssen, Gabor representation of generalized functions, Journal of the Mathematical. Analysis. and Applications, vol. 83, no. 2, pp , [14] Q. Liu, Q. Wang, and L. Wu, Size of the dictionary in matching pursuit algorithm, IEEE Transactions on Signal Processing, vol. 52, no. 12, pp , [15] S. Mallat, Z. Zhang, Matching pursuits with time-frequency dictionaries, IEEE Transactions on Signal Processing, vol. 41, no. 12, pp , [16] J. Portilla, V. Strela, M.J. Wainwright, E.P. Simoncelli, Image denoising using scale mixture of Gaussians in the wavelet domain, IEEE Transactions on Image Processing, vol. 12, no. 11, pp , [17] R. Rubinstein, M. Bruckstein, M. Elad, Dictionaris for Sparse Representation Modeling, Proceedings of the IEEE, vol. 98, pp , [18] Stegmann M., Ersboll B.K., Larsen R., FAME a flexible appearance modeling environment, IEEE T. on Medical Imaging, vol. 22, no. 10, , [19] J. A. Tropp, Greed is good: Algorithmic results for sparse approximation, ICES Report 03-04, The University of Texas at Austin, [20]http://www.bioid.com/support/downloads/software/bioid-facedatabase.html. 20

22 Mirosława Plucińska Instytut Maszyn Matematycznych, Warszawa Jan Ryżko Instytut Maszyn Matematycznych, Warszawa Techniki biometryczne stan obecny i perspektywa zastosowań Biometric technologies current state and application forecast Słowa kluczowe: techniki biometryczne, zastosowania biometrii, rynek biometryczny Key words: biometric technologies, application of biometrics, biometric market Streszczenie W artykule przedstawiono główne tendencje rozwoju technik biometrycznych i podano ich procentowy udział w rynku biometrycznym w latach i prognozy do roku Omówiono i pokazano przykłady zastosowań tych technik w różnorodnym ujęciu. Abstract The main trends in development of biometric technologies are described and their share in the biometric market is quoted. Different applications are given. Rozpoznanie cech fizjologicznych lub behawioralnych człowieka za pomocą urządzeń, a następnie porównanie uzyskanych wyników z uprzednio pobranymi wzorcami tych cech, uwalnia nas od konieczności noszenia pęku kluczy, pliku kart czy pamiętania szeregu haseł lub kodów. Wysoka dokładność, jaką uzyskuje się obecnie przy stosowaniu rozwiązań biometrycznych, pozwala na zapobieganie oszustwom, a także pozwala eliminować papierowe dokumenty transakcji. Koniec pierwszej dekady tego wieku skłania do przyjrzenia się, jakie przemiany następowały w tej dziedzinie w ostatnich latach [1], a także jakie perspektywy dalszego rozwoju biometrii rysują firmy analizujące ten rynek i oferujące raporty na ten temat. Techniki Procentowy udział najczęściej używanych technik w rynku biometrycznym przedstawia Tabela 1. 21

23 Tabela 1. Procentowy udział technik biometrycznych lata Table 1. Share of technologies in biometric market, [%] Technika \ rok (prognoza) źródło BTT IBG AMI (prognoza) AFIS 4,4 43,0 38,3 33,6-27,8 16,0 palce 34,7 28,0 28,4 25,3-22,1 15,0 twarz 7,1 7,0 11,4 12,9-13,9 15,0 IBG middleware 7,0 8,0 5,4-10,0 tęczówka 3,7 5,0 5,1 5,1-7,4 16,0 siatkówka 0,6 geometria dłoni 31,0 6,0 1,8 4,7-2,9 1,0 15,8 3, ,2-3 13,0 głos AMI 2.0 5,0 IBG 2,7 1,0 10,0 podpis AMI 0,7 1,6 multibiometria 2,9-5,2 IBG 2,9 3,0-3,8 żyły AMI 3,0 6,0 IBG inne 1,6 4,0 4,0 Dane te uzyskano z miesięcznika Biometric Technology Today (BTT) [2], publikacji International Biometric Group (IBG) [3, 4] i Acuity Market Intelligence (AMI) [5]. Z powyższej tabeli widać, że dominującą techniką jest rozpoznawanie linii papilarnych, przy czym większość rozwiązań opartych na tej technice stanowią systemy automatycznej identyfikacji AFIS (Automated Fingerprint Identification System). Co więcej, przewidywania o zmniejszaniu się udziału tej techniki w rynku biometrycznym w roku 2009 nie sprawdziły się i prawdopodobnie prognozy dla lat również trzeba będzie skorygować. Wśród firm zajmujących się techniką rozpoznawania linii papilarnych należałoby wyróżnić firmę Cross Match Technologies, czołowego producenta sprzętu i Bio-key Technologies jako najważniejszego twórcę oprogramowania. Głównym producentem sensorów linii papilarnych jest firma AuthenTec, która dostarczyła na rynek już ponad 50 milionów tych podzespołów. Udział technik rozpoznawania twarzy i tęczówki oka rósł, choć nieco wolniej od przewidywań. Ta ostatnia technika uchodzi za bardzo perspektywiczną, choć drogą. Natomiast udział dość popularnej wcześniej techniki geometrii dłoni malał szybciej od przewidywań. Przyczyną tego są duże rozmiary i cena sprzętu. Z kolei udział podpisu biometrycznego i głosu był nieco większy na początku dekady. W przyszłości przewiduje się ponowny wzrost ich udziału. Ta ostatnia technika, dotycząca cechy behawioralnej jest szczególnie interesująca w zastosowaniach bankowych i telekomunikacyjnych, ponieważ nie 22

24 wymaga dodatkowego sprzętu, a ponadto może spełniać swe funkcje zdalnie. Najnowszą jest technika rozpoznawania układu żył (palców lub dłoni) [6], najbardziej popularna w Japonii i Korei. Oceniana jest ona jako najbardziej dokładna [7]. Rozpoznania układu żył w dłoni można dokonywać nawet przy ruchu ręki pomiar trwa tylko 1 ms [8]. Oprogramowanie, oznaczone angielską nazwą middleware, traktowane jest jako oddzielna kategoria na równi z technikami i również ma tendencje wzrostowe. Stosowanie kilku technik biometrycznych jednocześnie nazywane jest multibiometrią i takie rozwiązanie uważa się za perspektywiczne, choć statystyki obecnie nie podają jakiegoś znacznego jej udziału. Wśród technik oznaczonych Inne można wymienić: sposób uderzania w klawisze, kształt ucha, zapach ciała, DNA, rytm serca, aktywność mózgu. Zastosowania Zastosowań biometrii jest tak wiele, że ograniczono się do podania ich głównych kategorii, stosowanych w publikacjach. Tabele 2 i 3 przedstawiają procentowy udział zastosowań w tzw. podziale poziomym. Tabela 2. Procentowy udział zastosowań wg International Biometric Group Table 2. Percentage share of applications according to IBG publications Rodzaj zastosowania Progn Identyfikacja cywilna 39,3 34,2-40,5 Identyfikacja kryminalna 19,2 24,6 23,6-17,8 Kontrola dostępu i rejestracja czasu pracy 38,4 17,7 21,1-15,8 Dostęp do urządzeń/systemów 13,8 14,8-15,2 Identyfikacja konsumentów 3,6 4,1-6,8 Nadzór 2,0 2,2-4,0 W roku 2009 udział trzech ostatnich pozycji Tabeli 2 był niższy od prognozowanych na lata , a identyfikacji kryminalnych większy. Tabela 3. Procentowy udział zastosowań wg Acuity Market Intelligence Table 3. Percentage share of applications according to AMI publications Rodzaj zastosowania 2009 Progn Dostęp fizyczny Dostęp logiczny Usługi identyfikacyjne 65,0 47,0 Nadzór i monitoring 1,0 8,0 23

25 Natomiast w Tabeli 3 zaskakująca jest prognoza aż 8-krotnego wzrostu nadzoru w roku W roku 1999 dominowała kontrola dostępu i rejestracja czasu pracy oraz identyfikacja kryminalna. Dramatyczne wydarzenia 11 września 2001 roku spowodowały wzrost zainteresowania antyterroryzmem oraz ochroną granic i kontrolą imigrantów. Z tego względu również gwałtownie wzrosło zainteresowanie rozwiązaniami biometrycznymi, zwłaszcza w systemach wizowych. Pod koniec 2006 roku 37 krajów rozpoczęło wydawanie paszportów biometrycznych, nazywanych e-paszportami. W końcu 2009 roku było ich już 65 [1]..Polska uczyniła to 28 sierpnia 2006 jako 28 kraj [9]. Obecnie jest już dostępny raport o zastosowaniach biometrii w dokumentach podróży [10]. Zastosowania nazwane w terminologii IBG rynkami pionowymi określane są całkowicie odmiennie w przypadku IBG i AMI. Pokazują to tabele 4 i 5. Tabela 4. Procentowy udział głównych rynków pionowych wg IBG Table 4. Percentage share of main vertical markets according to IBG Rodzaj rynku Progn Rządowe 30,2 32,5 28,8 Przestrzeganie prawa 19,2 25,4 23,0 18,4 Transport 7,0 7,3 9,8 Samorządowe 6,5 6,9 6,0 Najnowsza technika i telekomunikacja 2,8 5,7 5,2 6,8 Wojsko 4,6 4,8 3,2 Sprzedaż detaliczna 4,4 4,3 7,4 Przemysł 3,9 4,1 4,7 Usługi finansowe 17,0 3,5 3,3 4,3 Opieka zdrowotna 9,6 3,1 2,8 3,8 Rozrywki i hotele 2,0 1,9 2,9 Tabela 5. Procentowy udział sektorów i działów oraz tempo ich wzrostu wg AMI Table 5. Percentage share of global market sectors and areas and CAGR according to AMI 24

26 sektor 2009 Progn średni wzrost roczny e-granice 10 Publiczny e-identyfikacja 12 e-rząd 14,23 42 cały sektor 59,16 44,87 16 bezpieczeństwo przedsiębiorstw 12 Komercyjny transakcje informacyjne 12,21 50 transakcje finansowe 18,22 37 cały sektor 40,84 55,13 24 Z Tabeli 4 wynika, że dominują zastosowania rządowe, a więc dokumenty tożsamości (łącznie z dokumentami podróży i prawami jazdy), ochrona granic i zarządzanie. Dane dla roku 1999 nie są porównywalne z tymi dla lat późniejszych, bo dotyczą innego podziału, ale prawdziwe są ich wzajemne relacje. Warto też zwrócić uwagę na usługi finansowe, których udział w omawianym okresie nie był wysoki, ale obecnie przewiduje się jego wzrost w związku z walką z oszustwami bankowymi. Natomiast podział pokazany w Tabeli 5 [5] zawiera sektor publiczny i komercyjny wraz z wymienionymi tam działami. Transakcje finansowe umieszczone są tu w sektorze komercyjnym i w 2017 roku mają stanowić ponad 18% całego rynku biometrycznego, przy 37 % wzroście rocznym. Rynek Prognozy rozwoju rynku biometrycznego przewidywane w kolejnych raportach cytowanych już firm analitycznych pokazane są na rys. 1 [3-5] mln USD IBG 2007 IBG 2009 AMI 2007 AMI lata 25

27 Rys. 1. Prognozy przychodów rynku biometrycznego z lat 2007 i 2009 Fig. 1 Revenue of global biometric market of 2007 and 2009 Widoczny jest tu wyraźny wpływ kryzysu finansowego z roku 2008, gdyż prognoza IBG z roku 2009 dla tego roku była o ponad 25% niższa od tej z roku W przypadku AMI różnica ta jest mniejsza, ale średni roczny przyrost dla prognozowanych okresów wynosił 30,4% dla prognozy z 2007 roku, a tylko 19,7% dla prognozy z roku Skutkiem kryzysu było też bankructwo firmy Pay-by-Touch i upadek programu CLEAR do rejestrowania pasażerów w podróżach lotniczych, a także rezygnacja z brytyjskiego programu praw jazdy w technice rozpoznawania twarzy [11]. Jednakże cały rynek biometryczny okazał się dosyć odporny na kryzys dzięki dużemu udziałowi zastosowań rządowych. Wiele firm uzyskało z tego źródła nowe fundusze. Na rynku tym dokonała się znaczna konsolidacja. Z firm takich jak Identix, Visionics, Viisage i innych powstała L-1 Identity Solutions z przychodem ponad 650 mln dolarów w 2009 roku. Proces ten prawdopodobnie będzie kontynuowany [1]. Obecnie należy docenić sukcesy biometrii stosowanej w kontroli granic i w walce z terroryzmem. Biometria może być wykorzystana również do szerszych rozwiązań, ułatwiających życie milionom ludzi. Świadczy o tym pomysł nadania wszystkim mieszkańcom Indii numerów identyfikacyjnych [12], z którymi związane będą informacje demograficzne i biometryczne o osobach im przypisanych, a także meksykański projekt bazy danych wykorzystującej trzy techniki biometryczne linie papilarne, rysy twarzy i tęczówkę oka [13]. Dodatkowym atutem biometrii jest wysokie zaufanie do niej użytkowników, potwierdzone badaniami przeprowadzonymi przez firmę Unisys [14]. Literatura: 1. The end of the decade, Biometric Technology Today, January 2010, Market Review, Biometric Technology Today (BTT) December 1999/January 2000, str listopad listopad Rozbicki L., Szacki K., Wzór naczyń krwionośnych dłoni jako osobiste dane identyfikujące, Problemy Biometrii, IMM 2009, str Agre J.:Biometric in emerging sectors, Biometrics 2008, session: Consumer-facing biometrics 8. High-Speed Image Capture for Palm Vein, Biometric Digest (BD), April 2009, str. 2 26

28 9. e-passport status: 65+ countries now issuing, BTT January 2009, str %20Report.html 11. UK DVLA scraps biometric pilot, BTT November/December 2008, str India s massive biometric enrolment project comes a step closer. BTT July/August 2009, str Mexico to implement game-changing tri-modal biometric ID project, BTT February 2010, str U.S. Consumers Trust Biometrics, Biometric Digest, December 2008, str.3 27

29 dr inż. Jolanta Brzostek-Pawłowska Zmiany w modelach i technologiach informacyjnych w dobie Web 2.0 i Web 3.0 Changes in the models and information technologies in the era of Web 2.0 and Web 3.0 Wprowadzenie Zapoczątkowana przed kilku laty pojawieniem się pierwszych portali społecznościowych i udostępnianych na nich aplikacji, dziś zwanych aplikacjami społecznymi lub technologiami Web 2.0, rewolucja informacyjna w krótkim czasie zmieniła model informacyjny Internetu z modelu statycznych stron WWW niosących informacje na model interaktywnego udziału użytkowników tworzących strumienie informacji w czasie rzeczywistym. Web czasu rzeczywistego jest nową formą komunikacji zwiększającej o rząd szybkość informacji. Technologie Web 2.0 i szybkość komunikacji wpłynęły na zmiany w modelach informacyjnych realizowanych przez systemy, ponieważ zmieniły się postawy, potrzeby i oczekiwania użytkowników. Zjawisko społecznej wiedzy spowodowało inne podejście do zarządzania wiedzą jej gromadzenia i dystrybucji. Dziś informacja adekwatna do potrzeby musi natychmiast dotrzeć tam, gdzie znajduje się użytkownik, przede wszystkim na stanowisko pracy, stacjonarne lub mobilne, by zwiększyć wydajność pracownika. By informacja była najbardziej wartościowa i najlepiej dostosowana do kontekstu, w jakim pojawiła się jej potrzeba, to z jednej strony mechanizmy wyszukiwania muszą obejmować jak najwięcej źródeł informacji, z drugiej strony informacje muszą być trafnie, wieloaspektowo opisane. Coraz doskonalsze technologie Web 3.0 mają za zadanie dostarczać wiedzę inteligentnie, czerpiąc ją również ze źródeł społecznych. Inteligentna dystrybucja wiedzy bazuje m.in. na szczegółowym opisie semantycznym gromadzonych informacji, jak również na wnikliwej analizie danych otrzymywanych od użytkownika, czemu służą tzw. semantyka Web 3.0, jak i mechanizmy sztucznej inteligencji. W artykule przedstawiony zostanie wpływ Web 2.0 na zmianę postaw i potrzeb użytkowników, na zmianę modeli biznesowych i systemów informacyjnych oraz przedstawione zostaną główne kierunki rozwoju technologii Web 3.0, wychodzących tym zmianom naprzeciw. Charakterystyka Web 2.0 Web 2.0, zwana też siecią drugiej generacji, charakteryzująca się interaktywnością stron (i użytkowników), rozpoczęła się od serwisów internetowych, udostępniających aplikacje społeczne (społecznościowe) umożliwiające użytkownikom przekazywanie i wymianę treści w postaci artykułów, opinii, komentarzy, porad, ocen i bycie tym samym ich współtwórcą. Serwisy społecznościowe umożliwiają użytkownikom nawiązywanie kontaktów i utrzymywanie łączności w czasie rzeczywistym, gromadzenie i wymianę zasobów (prezentacje, fotografie, wideo, audio), dają też narzędzia porządkowania i współdzielenia zasobów sieciowych. (zakładkowania, kategoryzacji, opisu, eksportu). Komunikacja i współpraca między użytkownikami może odbywać się tekstowo, głosem, obrazem wraz z głosem lub w środowiskach wirtualnej rzeczywistości atrakcyjnych ze względu na immersyjność, dostępnych komercyjnie (np. SecondLife) lub jako open source (np. OpenSimulator). Technologie Web 2.0 Tabela 1 przedstawia krótkie charakterystyki najbardziej popularnych technologii Web 2.0 wraz z przykładami. 28

30 Tabela 1 Technologie Web 2.0 Lp. Typ technologii Web 2.0 Opis Przykłady Social Networks/ Serwisy społecznościowe. wiki 17. blogi Serwisy społecznościowe stwarzają możliwość autoprezentacji, wypowiadania się i umieszczania multimediów, zapraszania do kręgu znajomych, tworzenia grup zainteresowania i zapraszania do nich, przesyłania wiadomości i czatowania. Udostępniają interfejs programowy (API) do tworzenia aplikacji/nakładek m.in. w celu połączeń funkcji, użytkowników i/lub zasobów danego serwisu ze światem zewnętrznym (stronami i serwisami WWW). Serwisy społecznościowe, tworzące sieci społeczne kontaktów, mają na ogół swój charakteryzujący je profil i preferowane grupy docelowe użytkowników. Przykładowo serwisy LinkedIn i polski GoldenLine nastawione są na dorosłych użytkowników chcących rozwijać swoją karierę zawodową i kontakty biznesowe, zaś Facebook i NK-NaszaKlasa głównie wspierają kontakty towarzyskie akademickie i post-szkolne. Istnieją serwisy generyczne do tworzenia własnych portali społecznościowych (przykładem jest NING). Samodzielne serwisy lub aplikacje internetowe umożliwiające tworzenie, współopracowywanie, recenzowanie strukturyzowanych artykułów, wzbogaconych o odwołania (linki) i obrazy. Artykuły odnoszą się do hasła, które definiują, wyjaśniają, opisują itp. Nie mogą zawierać promocji ani kryptopromocji. Istnieją też serwisy generyczne do budowania własnych baz wiedzy, w tym firmowych i lub produktowych, na mechanizmach Wiki (przykład PBWorks). Blogi to serwisy umożliwiające prowadzenie dzienników (blogów) właścicielowi bloga w postaci chronologicznych wpisów, które przez osoby postronne mogą być komentowane lub opiniowane jako odpowiedzi do danego wpisu. Każdy właściciel zarządza swoim blogiem, również jego interfejsem graficznym. Wpisy mogą oprócz tekstu zawierać multimedia. Blogi przyjmują różne formy np.: r. zwykłe blogi z tekstowym wpisem nieograniczonej długości lub ograniczonym np. blogi na Facebooku ograniczone są do 420 znaków; s. mikroblogi wpisy jednozdaniowe, mogą być też wzbogacane o linki i multimedia; t. moblog krótkie wpisy wysyłane z urządzeń mobilnych, popularna formą moblogów są fotoblogi i wideoblogi (z MMSów); u. flog blogi pseudoosobiste, opłacane Facebook LinkedIn GoldenLine NK-NaszaKlasa MySpace NING Wikipedia Twiki PBwiki (PBWorks) Blogger blogs.com TypePad Twitter Mablo BlogRadio 29

31 23. sharing/współdzielenie 24. bookmarking/zakładki 25. events/zdarzenia 26. collaboration/ praca grupowa online, w przez firmę dla promocji produktów/usług; v. audioblogi wpisy są dźwiękowe, odpowiedzi również, mogą być prowadzone w czasie rzeczywistym przypominające audycje radiowe z udziałem aktywnym słuchaczy (prowadzącym jest bloger, uczestnikami osoby chcące zareagować na usłyszaną treść wpisu). Blogi mogą być ze sobą powiązane, autorzy jednych blogów, komentują blogi innych, dając linki do swoich blogów, powstaje w ten sposób blogosfera z powiązanymi blogami. Blogi mogą być dystrybuowane kanałami audio (audioblogi) lub RSS. Serwisy umożliwiające współdzielenie się zasobami (wstawianie własnych zasobów, pobieranie dostępnych, oglądanie/czytanie/słuchanie, komentowanie, ocenianie). Istnieją portale ze zdjęciami, nagraniami video lub audio, prezentacjami PowerPointa (lub w innym formacie), artykułami lub z zasobami mieszanymi. Serwisy kategoryzują zasoby. Są sprofilowane pod określoną grupę odbiorców lub temat (np. motoryzacyjne) lub ogólne. Aplikacje (np.google Bookmarks) lub serwisy internetowe (Delicious - del.icio.us) dające możliwość przechowywania linków (zakładek) do stron wartych dla użytkownika zapamiętania i ewentualnie podzielernia się z innymi, jak również usuwania. W zależności od funkcji aplikacji/serwisu zakładki mogą stanowić zasób prywatny ewentualnie udostępniany przez użytkownika lub zasób prywatny publikowany na serwisie. Każda zakładka jest opisana, opatrzona może być słowami kluczowymi lub tagami lub/i kategorią/ami z przyjętej (zamkniętej) lub współtworzonej (otwartej) taksonomii istniejącej w aplikacji/serwisie. Jest to mechanizm tworzenia własnej bazy wiedzy i współdzielenia się wiedzą. Serwisy przyjmujące, zarządzające i udostępniające informacje zgłaszane o wydarzeniach i miejscach. Zgłaszanemu wydarzeniu użytkownik przypisuje tagi i kategorie z istniejących taksonomii, służące wyszukiwaniu zdarzeń. Można zapisywać się na powiadomienia o zdarzeniach, można też promować własne wydarzenie i informacje o nim poprzez sieci społeczne, w których użytkownik uczestniczy, jak również poprzez płatne usługi m.in. Adds In dostępne w tego typu serwisach. Serwisy udostępniające narzędzia zdalnej komunikacji, w tym komunikacji audio (np. czaty, telaudiokonferencje), tworzenia, zarządzania i wymiany dokumentów, Flickr SlideShare Wrzuta.pl Patrz.pl YouTube Google Bookmarks Delicious - del.icio.us Linkologia Zvents eventful EventFull.com Zimbra Collaboration Suite Google SecondLife 30

32 27 chmurze. audio 30. wideo 31. fora dyskusyjne kalendarzy, organizatorów i narzędzia o innych funkcjach ułatwiające pracę zdalnych zespołów użytkowników. Również serwisy ze środowiskami wirtualnej rzeczywistości mogą wspomagać pracę grupową m.in. wizualizując prace nad projektami, mogą też pełnić rolę taniej namiastki systemu videokonferencyjnego. Serwisy audio umożliwiają propagowanie informacji bb. asynchronicznie w podcastach jako tematy w radiu internetowym lub jako audiowpisy blogów, na które można się zarejestrować, cc. synchronicznie jako audycje radiowe, przykładowo w postaci audio-blogów, z zarejestrowanymi aktywnymi słuchaczami mogącymi online kierować do blogera audio-wypowiedzi ze swoich telefonów lub Skype a, lub jako audiokonferencje, pomocne w zdalnej pracy grupowej. Wideo jest coraz popularniejszą technologią informacyjną, stosowaną w formie wideo podcastów (klipów) dostępnych na życzenie, ładowanych w plikach na stronę klienta lub przesyłanych strumieniowo za pośrednictwem serwerów strumieniowych; coraz popularniejsze stają się wideo podcasty interaktywne ( clickable ); również wideo podcasty mają zastosowanie w wideoblogach, webminarów umożliwiających strumieniowe rozsyłanie w czasie rzeczywistym lub z niewielkim opóźnieniem prezentacji, zawartości ekranu, przeprowadzanie testów i ankietowania, czatowania wideokonferencji internetowych, z możliwością wymiany dokumentów (praca grupowa), transmisja na żywo z wydarzeń, również do środowiska wirtualnej rzeczywistości. Istnieją internetowe serwisy zarządzające podcastami, serwisy świadczące usługi webminarowe/wideokonferencyjne, istnieje oprogramowanie komercyjne i open source do web castingów i wideokonferencji. Są wyszukiwarki internetowe wideo np. Google Video. Fora służą prowadzeniu w trybie asynchronicznym dyskusji wielu użytkowników na dany temat (wątek) zainicjowany wpisem, na który następnie przychodzą odpowiedzi poprzez wpisy przyporządkowane temu tematowi (tzn. hierarchicznie). Fora mogą być otwarte BlogTalkRadio Sirius Satellite Radio Pandora Internet Radio DimDim (wideo konerencje internetowe, webminary) Portal-forum matematyczne Matematyka.pl 31

33 32. czaty 33. kanały komunikacyjne RSS/ /SMS (anonimowe) lub wymagające rejestracji, mogą być ukierunkowane tematycznie lub ogólne. Najczęściej stanowią dostępną aplikację na portalach, mogą być samodzielnymi portalami, mogą też być aplikacjami włączanymi do wewnętrznych informatycznych systemów firmowych. Są moderowane przez wyróżnionego uczestnika forum. Czaty służą prowadzeniu, w trybie synchronicznym, rozmowy prywatnej dwóch uczestników, lub wielu uczestników w tzw. pokoju (tematycznym). Są serwisy czatowe jak Gadu-Gadu lub aplikacje wbudowane w serwisy internetowe lub w systemy informatyczne firmowe. Kanały RSS, , SMS w Web 2.0 służą do zwiększania zasięg dystrybucji treści tworzonych społecznie. Przykładowo: treść blogów w postaci audio podcastów może być prenumerowana i dystrybuowana przez kanał RSS (dokładnie protokołem ATOM nowocześniejszym niż RSS), który w pierwotnym celu służył i służy do dystrybucji treści ze stron WWW; em można przesłać treści ze świata wirtualnego (w którym np. trwa praca grupowa) do świata rzeczywistego (i odwrotnie); informacja wysłana SMS em może być umieszczona jako wpis na mikroblogu lub moblogu. Serwisy Web 2.0 wykorzystują te kanały, np. serwis z informacjami o zdarzeniach może informacje o nich przesyłać przez RSS, jeśli użytkownik chce z kanału RSS skorzystać. Są serwisy wspomagające korzystanie z tych kanałów i uefektywniające prace z nimi, np. serwisy i aplikacje typu bacn (bacon) zarządzają ami mniej wartościowymi, zamówionymi przez użytkownika, więc nie będącymi spamami, ale które nie muszą na bieżąco pochłaniać uwagi użytkownika i go dekoncentrować, takimi wiadomościami są np. zaprenumerowane newslettery, powiadomienia z serwisów społecznościowych. Przykładowo serwis BaconAid gromadzi i BaconAid porządkuje e z powiadomieniami o aktywnościach lub zdarzeniach w serwisach, w których użytkownik jest zarejestrowany. Technologie Web 2.0 generują strumienie informacji w czasie rzeczywistym, które podlegają konwersji tzn. informacje zgromadzone jedną technologią są lub mogą być dystrybuowane innymi technologiami. Treści wpisów na blogach mogą być dystrybuowane przez RSS lub technologie audio, inne przykłady zostały podane w Tabeli 1. Zwiększa się w ten sposób dostępność, zakres i szybkość informacji. 32

34 Cechy i wpływ Web 2.0 Łatwość w komunikowaniu się, tworzeniu, współpracy i dzieleniu się treścią, jaką użytkownikom stwarzają technologie Web 2., jak również ich dostępność i niskie koszty używania obniżają bariery dla dostarczania, współdzielenia i rozpowszechniania treści. Coraz większe wykorzystanie społecznych aplikacji (np. 150 mln/dzień użytkowników Facebooka), w celu dzielenia się informacją, udzielania pomocy, znajdowania osób sobie podobnych, wzajemnego uczenia się i przekazywania wiedzy wymusza i powoduje zmiany postaw, organizacji pracy i procesów biznesowych, jak również zmiany w funkcjach i możliwościach systemów informacyjnych. Obraz statystyczny - trendy używalności Web 2.0 przez pracowników i stosunek organizacji do Web 2.0 Ostatni raport, z końca 2010 r., gildy The Elearning Guild [1], dotyczący wykorzystania technologii 2.0. podaje dane z badań, którymi zostało objętych 1000 organizacji (przedsiębiorstwa, wyższe uczelnie, organizacje pozarządowe, administracja publiczna) z całego świata. Raport przedstawia poziom i trendy zainteresowania Web 2.0 pracowników i pracodawców w okresie trzech lat Przedstawia również plany pracowników i organizacji na 2011 r. wykorzystania technologii 2.0. Największą popularnością wśród pracowników cieszy się czytanie blogów (codzienne 71,1%), czytanie Wiki (codzienne - 70,9 %), korzystanie z Facebooka i LinkedIn (codziennie odpowiednio 54,7% i 54,3%), mniejszym uznaniem cieszy się Twitter (26,8%), a najmniejsze zainteresowanie pracownicy wykazują tworzeniem podcastów (nigdy - 72,4% ) i pisaniem artykułów do wiki (nigdy 66,9%). Jeśli chodzi o trendy używalności, to po zmniejszeniu zainteresowania Web 2.0 (z wyjątkiem Facebooka i Twittera) w okresie załamania gospodarczego, widoczna jest tendencja wzrostowa, z wyjątkiem spadku popularności zakładkowania (bookmarkingu). Warto zauważyć, że najsilniejszy wzrost popularności wykazuje Facebook, a zaraz za nim obrót fotografiami i tworzenie podcastów. W tym ostatnim wypadku można sądzić, że coraz bardziej upowszechniają się technologie tworzenia podcastów i wzrosły umiejętności odbiorców w tym zakresie, oprócz tego, że coraz bardziej preferowanym środkiem przekazu informacji jest obraz i audio (Rys. 1a i Rys. 1b). 33

35 Najpopularniejsze czytanie wiki i blogów, gorzej z ich tworzeniem. Największy trend wzrostowy foto oraz Facebook (Rys. 1 b). Rysunek 1 a. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 1) Źródło: [1] 34

36 Najmniej popularne tworzenie podcastów, ale silnie wzrasta. Rysunek 1 b. Poziom i trendy używalności technologii 2.0 przez pracowników (cz. 2) Źródło: [1] Jeśli chodzi o postrzeganie Web 2.0 przez pracodawców, to wg pracowników organizacje wykazują coraz mniejszą obojętność w stosunku do korzystania przez pracowników z Web 2.0, zaś pracownicy coraz większą ochotę. Organizacje dostrzegają wiążące się z Web 2.0 kłopoty i problemy do rozwiązania, zwiększające się wraz z coraz większą popularnością Web 2.0 wśród pracowników. Opinia pracodawców o Web 2.0, ujawniona w ww. badaniach, wskazuje, że największa grupa organizacji (30,9%) stosuje pewne ograniczenia w dostępie do zewnętrznych technologii 2.0 (Rys. 2), np. wybiórczą kontrolę treści przed ich umieszczeniem na zewnątrz, najmniej liczną grupą (9,6%), i stale malejącą, są organizacje, które dają nieograniczony dostęp do 2.0. Wzrasta też liczba organizacji (w ciągu roku o ok. 4% do 19,9% w 2010 r.), które nie planują żadnych zastosowań 2.0, co może wynikać z lęku przed skutkami ich zastosowań. Z technologii 2.0, których wykorzystywanie przez pracowników (z firmy lub z domu) w największym stopniu są akceptowane przez organizacje należy wymienić: Wikipedię (90,9%), serwis społecznościowy LinkedIn (76,6%), pocztę elektroniczną Google gmail (71,8%) i aplikację igoogle (70,4%) do prowadzenia osobistych stron WWW. Wyjaśnienia wymaga wysokie poparcie stosowania LinkedIn przy dużo 35

37 niższym Facebooka (67,0%). Wynika to z charakteru LikedIn ukierunkowanego na rozwój zawodowy i biznesowy. LinkedIn jest o wiele doskonalszym wcieleniem polskiego GoldenLine, a to m.in. dlatego, że zostanie członkiem LinkedIn wymaga referencji, co ma wpływ na wysoką jakość komunikacji i poziom informacji będącej w obrocie. Największe protesty budzi wykorzystywanie przez pracowników Facebooka (29,9%) i YouTube (26,4%), może dlatego, że są przez pracowników najintensywniej wykorzystywane, zaś pracodawcy w większości, bez względu na sektor do jakiego należą, nie widzą z tego korzyści biznesowych (Rys. 2). Najwięcej uczelnie limitują dostęp Słabo u wszystkich z planami biznesowymi w stosunku do Web 2.0 Najwięcej NGO przymierza się, podpatrując Rysunek 2. Stosunek organizacji do technologii Web 2.0 Źródło: [1] Obraz statystyczny - plany organizacji dotyczące Web 2.0 Przy istniejących obawach organizacji co do negatywnych skutków wynikających ze stosowania przez pracowników technologii 2.0 i przy słabym dostrzeganiu aspektu biznesowego, ok. 70% organizacji deklaruje jednak uwzględnienie tych technologii w planowanych przedsięwzięciach, pozostając przy obawach zawartych w pytaniach (bez odpowiedzi): b) Jak chronić własność intelektualną treści wygenerowanych przez pracowników? c) Kto jest właścicielem treści powstałych ze współpracy grupy?, d) Jak zachować wiarygodność i bezpieczeństwo współdzielonych treści? Korzyści z Web 2.0 widziane przez organizacje wynikające z luźnych wypowiedzi zawartych w ankietach badawczych [1] są następujące: świetna metoda dzielenia się pomysłami na wskroś struktury organizacyjnej i pełnionych funkcji; zwiększanie efektywności pracy; zwiększenie i poprawa współpracy; 36

38 lepsza komunikacja między pracownikami; zwiększona kreatywność i rozwiązywalność problemów; zmniejszenie dezinformacji; poprawa przepływu informacji wewnątrz organizacji, w tym między oddalonymi geograficznie oddziałami. Ten pozytywny obraz ulega deformacji po analizie danych zebranych z kwestionariuszy ankietowych, z których wynika, że np. 62,1% organizacji nie widzi związku między Web 2.0 a redukcją kosztów, ani związku (56,1%) z poprawą wydajności pracy czy uczenia się (Rys.3). Rysunek 3. Pożytki z Web 2.0 widziane przez organizacje Źródło: [1] Problemem więc pozostaje, jak włączyć Web 2.0 do przedsiębiorstwa w sytuacji, gdy im więcej przyjaciół na Twitterze, tym mniejsza produktywność? Czyli jak dokonać transformacji formalnej i nieformalnej wiedzy pracownika w aktywa materialne? Zmiany modeli przyswajania wiedzy pod wpływem Web 2.0 Pod wpływem Web 2.0 zmieniły się postawy i tendencje społeczne, które można wyrazić przez model user -centryczny i model niehierarchiczny pozyskiwania i przyswajania wiedzy. Model user -centryczny bardzo dobrze wyraża kilka zdań (angielskich), które przytacza w wywiadzie [2] Anya Kamenetz dla opisania postawy młodego pokolenia:.to have control over how I learn, what I learn, and where I learn. I'm not just a consumer, I'm a co-creator and collaborator. I can share/mashup/remix knowledge. Odbiorca wiedzy jest również jest współautorem, decydującym kiedy, gdzie i w jaki sposób ją zdobywa, przekształca i przyswaja. 37

39 Model niehierarchiczny zdobywania wiedzy wynika ze spłaszczania hierarchii organizacyjnej, przykładem mogą być społeczne grupy bez wyraźnego przywództwa osiągające cel, albo poziome, w poprzek hierarchii organizacyjnej zespoły zadaniowe. Zanika różnica między pracą a procesem uczenia się, wobec ogromnej dynamiki zmian potrzeb, wymagań, technologii. Stanowisko pracy, gdzie potrzebny jest online dostęp do wiedzy dla efektywnej realizacji zadań, jest jednocześnie stanowiskiem ciągłego uczenia się i podnoszenia kompetencji. Nieformalna nauka to 75%-80% procesu uczenia się, zarówno w pracy, jak i w szkole, w tym dużą rolę odgrywa uczenie się społeczne, zespołowe i korzystanie z wiedzy budowanej społecznie (nazywanej czasami w publikacjach mądrością tłumu lub inteligencją społeczną). Te tendencje społeczne dobrze wyraża nazwa popularnego systemu open source zarządzania treścią Joomla! (Razem!). W tym odchodzeniu od autorytarnego przekazywania wiedzy, zmienia się też rola osób przekazujących wiedzę z mędrca-nauczyciela w lidera, facylitatora. Model sage on the stage (prawd z ambony) staje się mniej potrzebny i mniej popularny. Oprócz centryczności użytkownika i spłaszczenia hierarchii organizacyjnej tworzenia i przyswajania wiedzy, zauważalną tendencją jest grywalizacja (ang. edutainment) czyli oczekiwanie i dążenie do jak najatrakcyjniejszej formy przekazywania i przyswajania informacji przez gry i symulacje, cieszące się ogromną popularnością. Grywalizacja jest częścią immersyjności systemów informacyjnych, co będzie omówione w dalszej części artykułu. Trendy potrzeb informacyjnych Pracownik potrzebuje wiedzy na stanowisku pracy - tu i teraz, dokładnie takiej, jakiej potrzebuje. Zamiast dużych porcji szkoleń/wiedzy potrzebne są granulki wiedzy na stanowisku pracy, z których pracownik buduje sobie potrzebną wiedzę (agregacja wiedzy). Pracownik ustala ścieżki szkolenia (zdobywania wiedzy) zgodnie z potrzebami. Ścieżka edukacyjna zastępowana jest obecnie przez środowisko edukacyjne albo informacyjne, jakie pracownik sobie tworzy i jakie mu tworzy organizacja. Następuje indywidualizacja procesu dostarczania wiedzy (zgodnie z modelem centrycznym). Zwiększa się immersyjność przekazu wiedzy poprzez interaktywny udział użytkownika (gry, symulacje, ćwiczenia, sprawdziany), przyswajanie wiedzy przez dotknięcie np. konstrukcja projektu w wirtualnej rzeczywistości lub uliczne gry edukacyjne za pomocą urządzeń mobilnych z GPS i zastosowaniem w nich technologii rozszerzonej rzeczywistości. Imersyjność procesu informacyjnego (edukacyjnego), polegająca na aktywnym wprowadzaniu użytkownika w wirtualnych świat i prowokowaniu w nim użytkownika do aktywnych zachowań, w głównej mierze opiera się na zastosowaniu multimediów, animowanego obrazu 2D i 3D, możliwości lokalizacji geograficznej użytkownika, rozpoznawaniu otoczenia, rozpoznawaniu obrazu i gestów, uzyskiwania w czasie rzeczywistym od mobilnego użytkownika informacji, jak również zdobywania w czasie rzeczywistym informacji o nim i dokładnie dla niego. Więcej informacji o zastosowaniach wirtualnej i rozszerzonej rzeczywistości w procesach informacyjnych i edukacyjnych oraz o imersyjności systemów informacyjnych zawartych jest w pracy [3]. Co oferuje Web 3.0? Web 2.0 spowodował z jednej strony duże uspołecznienie w komunikacji oraz tworzeniu treści i wiedzy, z drugiej strony nastąpiło zwiększenie egocentryzmu użytkowników i potrzeby indywidualizacji kontaktów i procesów informacyjnych. Potrzeba indywidualizacji wynika również z powodu natłoku informacji i konieczności wsparcia użytkownika w poszukiwaniu i dostępie do właściwej informacji. W wyniku kilkuletnich doświadczeń z Web 2.0 powstały i powstają ogromne zasoby treści - potencjalne źródła wiedzy dla 38

40 użytkowników. Istnieje potrzeba szybkiej dystrybucji tej wiedzy, dokładnie wg potrzeb, czyli skutecznie i efektywnie. Trwa rozwój technologii Web - od Web 2.0 do Web 3.0. Modelowi user -centrycznemu towarzyszy rozwój modelu decentralizacji i adaptacyjności wirtualnej platformy dostarczającej danych i funkcji. Biorą się one z chmury, z oprogramowania SaaS, z przeglądarek WWW, z komputerów stacjonarnych i urządzeń mobilnych, z zasobów społecznych i prywatnych, dzięki otwartym interfejsom API, standardowym protokołom WWW, formatom danych z dobrze opisaną ich semantyką. Dane są zabezpieczane otwartymi protokołami bezpieczeństwa i standardami. Web 3.0 popycha przedsiębiorstwa od działań opartych na zamkniętych, systemach strzegących własności w kierunku większej otwartości działania, charakteryzującego się dzieleniem się zasobami i ich współużywalnością oraz współpracą. Mashup Ideą Web 3.0 jest automatycznie dostarczać i zarządzać informacją jak najlepiej dostosowaną do potrzeb użytkownika. Web 3.0 to, w skrócie, automatyczne, rozumne, inteligentne i szybkie dostarczanie treści. Web 3.0 to sposób kreacji nowej wiedzy z istniejących zasobów Internetu za pomocą inteligentnego oprogramowania komputerowego. To co dziś charakteryzuje Web 2.0 i Web 3.0 to: wirtualna agregacja danych i funkcji z wielu źródeł (mashups), przetwarzanie w chmurze - model SaaS oprogramowania (cloud computing), informacje z sieci społecznych (lifestreaming), informacje w czasie rzeczywistym (real-time Web), informacyjna efektywność stron WWW (technologia programistyczna Ajax), rozumienie semantyczne informacji w/z Internetu (semantic Web). Powyższe technologie i zjawiska objęte są terminem mashstream (agregowany strumień z wielu źródeł). Web 3.0 często jest kojarzony z mashup, który bazuje na otwartych, współużywalnych zasobach danych i funkcji w technologiach internetowych. Web 3.0 i mashup w przedsiębiorstwie powoduje ewolucję w modelach biznesowych. Wymagają one odpowiedniej infrastruktury. By ją utworzyć i utrzymać, potrzebne są technologie, interfejsy, narzędzia oraz serwery. Przykładowymi: technologiami są HTML/XHTML, XML, AJAX, REST, RDF, RSS/Atom, Widgets/Gadgets; otwartymi protokołami umożliwiającymi sięgnięcie do danych społecznych i funkcji są YouTube API, YouTube Player, YooTube Widgets; narzędziami zwanymi edytorami mashupu są Google App Engine (środowisko do tworzenia aplikacji mashup opartych o infrastrukturę Google), lub Yahoo! Pipes (edytor do agregowania, wg zdefiniowanego kryterium, danych z różnych źródeł Web jako nową, nazwaną porcję wiedzy). Istotę mashupu bardzo dobrze ilustruje obrazek (Rys.4) wyłaniającego się kształtu gruszki z kilku różnorodnych warstw plasterków owoców, umieszczonego na okładce książki J.J. Hanson a Mashups. Proces tworzenia (edycji) mashupu, przykładowo - przy pomocy Yahoo! Pipes, przedstawia Rys 5., a Rys. 6. ilustruje proces agregowania nowej wiedzy z zasobów z różnych źródeł. 39

41 Rysunek 4 Ilustracja idei mashup u Źródło: pierwsza strona okładki [4] Rysunek 5. Przykład edycji mashupu w Yahoo! Pipes Źródło: własne Nowa porcja wiedzy jest tworzona pod indywidualną potrzebę użytkownika. Tworzona jest z wielu źródeł, społecznych i prywatnych, z najbardziej wartościowych elementów informacyjnych (wg społecznych ocen), uporządkowanych wg ważności (stopnia dopasowania), z najbardziej relewantnych w stosunku do zapytania (zgłoszonej potrzeby). Wyszukiwanie elementów odbywa się zgodnie z ich semantycznymi opisami wg przyjętych ontologii. Opisy elementów zawarte są albo w treści elementów albo w oddzielnych plikach towarzyszących elementom. Powstający 40

42 nowy artykuł (nowa porcja wiedzy) może być opatrzony własnymi opisami (komentarze, opinie, oceny) użytkownika i zapamiętany. Proces tworzenia wiedzy mashupowej ilustruje Rys. 6. Dla wybranego tematu pobierane są lub przekazywane najbardziej wartościowe treści z publicznych i prywatnych zasobów. By utworzyć bazę wiedzy powstałą z mashup u, treści muszą być zestrukturalizowane, uporządkowane i muszą mieć przypisany kontekst. Odpowiedzialni za mashup (twórcy) muszą treściom Odbiorca wiedzy uzyskanej przez zapewnić kontekst, używając mashup może ją uzupełniać swoimi do tego np. konspektów, map komentarzami, opiniami i uwagami. treści, listy referencyjnej, osi czasu, syllabusa Rysunek 6 Ilustracja knowledge mashup Źródło: własne Semantyka Web 3.0 W Web 3.0 rozwijają się technologie semantyczne i semantyczne wyszukiwanie treści. Te technologie są stosowane w mashupie. Semantyka w sensie Web 3.0, różni się od semantyki języków naturalnych. Jest prostsza. Zasób jest semantycznie opisywany, by wg tego opisu mógłby być wyszukany. Semantyczne metadane, opisujące zasób, mogą znajdować się wewnątrz zasobu (np. wewnątrz strony html) lub w zewnętrznym pliku, na który jest wskazanie w zasobie. Metadane tworzone są w języku XMLpodobnym RDF 1 wg słowników ontologicznych (ontologii). Treść pliku.rdf jest zapisem (opisem) treści zasobu językiem danej ontologii (z użyciem elementów ze słownika ontologicznego) w formacie narzuconym przez język RDF. Ontologie można określić jako słowniki hierarchiczne - taksonomie, z dodanymi relacjami między elementami ontologii lub między ontologiami, co lepiej i szczegółowiej pozwala opisać zasób. Można zrobić odniesienie ontologii do zasad programowania obiektowego i relacji między klasami, klasami i obiektami i ich właściwościami. Ontologie są dziedzinowe np.: SIOC 2 do opisu dyskusji w forach, blogach, ach; FOAF 3 do opisu osób uczestników Web 2.0; Good Relations do opisu w e- handlu produktów, cen, firm; SKOS 4 do opisu systemów organizacji wiedzy, jak semantycznych specyfikacji słowników, taksonomii, tezaurusów. Językiem opisu 1 RDF Resource Description Framework 2 SIOC - Semantically-Interlinked Online Communities 3 FOAF - The Friend of a Friend 4 SKOS - Simple Knowledge Organization System 41

43 ontologii jest język OWL 5. Zasób może być opisany w więcej niż jednej ontologii, równolegle z tradycyjnymi opisami metatagami HTML. Ponieważ procesy opisywania zasobów metadanymi są czasochłonne i wymagają kompetencji, co jest przyczyną dość powolnego rozwoju sieci semantycznych, dostępne są narzędzia wspomagające tworzenie ontologii i tworzenie opisów (plików.rdf) wg ontologii, zwane edytorami i generatorami RDF. Nowszą technologią opisu semantyki zasobów są mikroformaty (tagi) związane ze standardem HTML5. Nie są jeszcze tak popularne jak.rdf i nie wszystkie wersje przeglądarek WWW akceptują HTML5. Zasoby są indeksowane na podstawie opisów semantycznych. Z indeksów semantycznych korzystają semantyczne wyszukiwarki, takie jak Swoogle, Sindice, FalconS. Istnieją oczekiwania, by Google objął indeksacją pliki.rdf i wtedy szybciej by się upowszechniła semantyka Web 3.0 i korzyści z tego płynące. Rysunek 7 przedstawia zarys sieci semantycznej i semantycznego wyszukiwania. Sieć semantyczna www html Plik.rdf Plik z ontologią X z opisem.owl semantycznym.rdf.rdf html Plik z ontologią Y.rdf..owl Wyszukiwarka semantyczna Google? 1. Ontologie (słowniki taksonomiczne z relacjami w standardzie OWL - Web Ontology Language). 2. Metadane semantyczne (pliki.rdf w standardzie RDF - Resource Description Framework z opisami wg przyjętej ontologii) 3. Indeksowanie pliku.rdf 4. Wyszukiwanie semantyczne: relewantne dokumenty, uporządkowane wg ważności i podobieństwa Rysunek 7. Schemat wyszukiwania w sieci semantycznej Źródło: własne Gdy zasoby nie są stronami html, a znajdują się w repozytoriach, dochodzi potrzeba komunikacji miedzy wyszukiwarką semantyczną a repozytorium. Jest kilka standardów języków (protokołów) komunikacji z repozytoriami takie jak OAI-PMH 6, XMI 7 (dla metadanych w standardzie MOF 8 ), IMS DRI 9, CORDRA 10. Najczęściej wyszukiwarki dogadują się z repozytoriami w języku OAI-PMH. W repozytoriach zasoby są opisane w różnych standardach metadanych, w różnych ontologiach. Przykładem lżejszej ontologii, niespecjalizowanej i nierozbudowanej jest popularna ontologia Dublin Core do opisywania różnych zasobów, np. w bibliotekach 5 OWL Web Ontology Language 6 OAI-PMH - Open Archives Initiative Protocol for Metadata Harvesting 7 XMI - Metadata Interchange 8 MOF - Meta-Object Facility 9 IMS DRI - IMS Digital Repositories interoperability 10 CORDRA - Content Object Repository Discovery and Registration 42

44 cyfrowych. Innymi standardami metadanych są np.: IEEE LOM 11 i IMS LOM - do opisu kontentu edukacyjnego; S do opisu dokumentacji technicznej, zwłaszcza sprzętu; DocBook - do opisu dokumentacji technicznej oprogramowania. Rozbudowane wyszukiwarki akceptują wiele standardów opisu. Zwłaszcza, że współpracują z repozytoriami metadanych, tzw. harvesterami, które gromadzą metadane o zasobach w różnych standardach znajdujących się z repozytoriach zasobów. Harvestery są pośrednikami między wyszukiwarkami i repozytoriami z zasobami. Strukturyzacja zasobów informacyjnych Im większa strukturyzacja zasobu informacyjnego, tym możliwy jest precyzyjniejszy jego opis i większe prawdopodobieństwo wyszukania nie tylko całego zasobu, ale również jego części. Każdy element struktury zasobu, wyodrębniony przez autora/ów, jak i cały zasób, może być opisany wg przyjętego standardu, najbardziej pasującego semantycznie. Przykładowo wyszukiwarka kontaktów Friend Find Facebooka korzysta z metadanych opartych o ontologię, wcześniej wymienioną, FOAF. Narzucona przez ontologię struktura metadanych obrazowana jest w formularzach elektronicznych, które użytkownik wypełnia np. w formularzu swojego profilu, i wg tych danych może być wyszukiwany. Bloger ma możliwość otagowania blogu lub wpisu, czytelnik blogu dodać mu swojego lajka ( lubię to ). Treść wpisu może być wyszukana wg słów kluczowych w procesie mashupu (np. przez agregatory blogów takich jak Google Blocksearch) i uporządkowana wg wartości nadanej społecznie poprzez liczbę lajków. Na tle zestrukturalizowanych zasobów w serwisach społecznościowych i w blogach, zasoby Wikipedii są opisane skromnie artykuł ma autora, tytuł, kategorię, datę zmiany, słowa kluczowe. Dlatego jednym z ciekawszych projektów jest znany DBpedia Project [6] mający na celu lepsze wykorzystanie ogromnych zasobów Wikipedii, poprzez ich większe zestrukturalizowanie i opisanie wg odpowiednich ontologii, by artykuły i ich części mogły być wykorzystane poza systemem Wikipedii np. w przeglądarkach otoczenia [5]. W końcu 2010 r. DBpedia dysponowała 1,67 miliona (z istniejących pond 3,5 mln) sklasyfikowanych semantycznie elementów informacyjnych wg spójnych ontologii. Opisane elementy dotyczą m.in osób, miejsc, albumów muzycznych, filmów. O strukturyzacji zasobów i opisie semantycznym, np. dokumentacji, podręczników, warto pamiętać przy ich tworzeniu, zapisując ich treść zgodnie z przyjętym standardem/ontologią i/lub tworząc w tym standardzie (lub w kilku) plik (pliki) z metadanymi. Tak przygotowane zasoby będą mogły uczestniczyć w procesach wyszukiwania semantycznego dostarczając adekwatną do potrzeby granulkę wiedzy użytkownikom np. o produkcie lub technologii w czasie nauki i/lub pracy. (Mega)tendencje technologiczne i przykłady nowoczesnych systemów informacyjnych Stały wzrost szybkości transmisji danych i obniżające się jej jednostkowe koszty powodują wzrost usieciowienia. Za tym idzie wzrost zakresu i możliwości wirtualizacji dalszego rozwoju modelu SaaS i przetwarzania w chmurze. Popularnym kierunkiem rozwoju systemów jest korzystanie z zasobów z chmury, funkcjonalnych i informacyjnych - z zasobów serwisów społecznościowych, z Google Apps, w wyniku otwartych interfejsów programistycznych API. Nowe systemy projektowane są często jako nakładki na Google. Wirtualizacja zaczyna obejmować również działania ludzkie, które w rzeczywistości nie 11 LOM Learning Object Metadata 43

45 mogą być realizowane, ponieważ coraz większe kłopoty z pracą i coraz więcej posiadanego czasu wolnego kieruje uwagę ludzi do wirtualnych środowisk, gdzie mogą się realizować zawodowo (np. być aktorami, nauczycielami) lub społecznie (np. w grupach dyskusyjnych). Tempo i ciągłe zmiany technologii, wymagań i wynikających stąd potrzeb, zwłaszcza w miejscu pracy, powoduje zwiększające się zapotrzebowanie na informacje/wiedzę on line na żądanie, adaptatywną, just-in-time. Zwiększająca się automatyzacja, wsparta inteligencją systemów, zastępuje w coraz większym stopniu nie tylko pracę rąk, ale umysłów. Zwiększa się otwartość na współpracę, wynikająca z oddolnych społecznych działań Web 2.0. Aplikacje społeczne, takie jak fora, blogi, czaty wprowadzane są do rozwiązań biznesowych: do informacyjnych systemów korporacyjnych, systemów zarządzania korporacyjną bazą wiedzy, do systemów edukacyjnych, do e-kursów. Korporacyjne zasoby wiedzy uzupełniane są wiedzą czerpaną z zasobów społecznych zewnętrznych i wewnętrznych. Coraz powszechniejszym modelem udostępniania funkcji jest open source (na licencjach płatnych i nieodpłatnych) i usługi wspomagające odbiorców open source w utrzymywaniu tych rozwiązań. W związku z dynamicznie rozwijającymi się potrzebami wiedzy/informacji, na żądanie, dostarczanej do miejsca, w którym znajduje się odbiorca, systemy informacyjne ulegają funkcjonalnym rozszerzeniom i przekształceniom, np. edukacyjne systemy typu LMS 12 przekształcają się w systemy zarządzania wiedzą KMS 13 m.in. w wyniku współpracy z zewnętrznymi repozytoriami zasobów informacyjnych, serwis Facebook we współpracy z Google Analytics może pełnić rolę platformy edukacyjnej LMS m.in dzięki otwartemu interfejsowi API i otwartemu interfejsowi API Google Analytics, środowiska wirtualne MUVE 14, np. SecondLife, mogą pełnić rolę systemów pracy grupowej, bądź systemów edukacyjnych. Silnie rozwija się immersyjność systemów informacyjnych, zwłaszcza w zastosowaniach edukacyjnych i wsparciu informacyjnym na stanowisku pracy. Imersyjne rozwiązania, umożliwiające interaktywność użytkowników i dostosowanie przekazywanej wiedzy do bieżącej potrzeby, wykorzystują technologie wirtualnej rzeczywistości, rozszerzonej rzeczywistości, rozpoznawania gestów, obrazu i lokalizacji użytkownika. Przykładami nowoczesnych systemów informacyjnych, na których budowie i funkcjonowaniu odcisnęły ślad technologie Web 2.0 i Web 3.0, są: system zarządzania korporacyjną wiedzą Absolutely! (AHG Inc.) [7], który współpracuje z Google Apps korzystając z zasobów z chmury oraz ma wbudowane aplikacje społeczne służące do rozwijania przez pracowników wewnętrznej bazy wiedzy; system InGenius (SkillSoft PLC) [8] zarządzania wiedzą firmową stanowiący przykład rozwinięcia systemu e-learningowego LMS w kierunku KMS i włączenia technologii społecznych Web 2.0, również zewnętrznych Facebook i Twitter; DBMobile [6] mobilny system informujący o bieżącym otoczeniu użytkownika (osobach, obiektach, miejscach) za pomocą obiektów wirtualnej rzeczywistości zawierających informacje z DBpedii - zestrukturalizowanych semantycznie zasobów Wikipedii (produkt projektu DBpedia); SZOK (KIGEiT, Polska) [9] system w modelu SaaS, w fazie opracowywania, zarządzania dokumentami, będący nakładką na Google Apps. Zakończenie 12 LMS Learning Management System 13 KMS Knowledge Management System 14 MUVE Multiuser Virtual Environment 44

46 Media społeczne będą nadal się rozwijać jako źródła treści i weryfikacji treści. Wzrośnie liczba tych, co będą wiedzieli, jak dla własnych potrzeb zagospodarować te media. Wiedza społeczna ( mądrość tłumu ) będzie główną strategią pozyskiwania wiedzy, zwłaszcza przez osobników mocno usieciowionych (w sieciach społecznych). Społeczne pozyskiwanie wiedzy stanie się nowym modelem w zarządzaniu wiedzą. Będzie rosło znaczenie współpracy społecznej dla podnoszenia wiedzy i jako wsparcie na stanowisku pracy (performance support), w tym z zastosowaniem rzeczywistości rozszerzonej. Połączenie technologii mobilnych i społecznych będzie katalizatorem nowych, silniejszych strategii uczenia się i wspierania na stanowisku pracy. Adopcja technologii mobilnych w procesach uczenia się i pomocy w pracy będzie zmieniać systemy wspomagające edukację LMS, LCSM 15, KMS i EPSS 16 m.in. w kierunku większej współpracy w udostępnianiu swoich repozytoriów kontentu, jak i wykorzystywania zasobów społecznych. Potrzeba zwiększonej interoperacyjności systemów będzie wymagała zwiększonych wysiłków twórców systemów w zakresie standaryzacji zapisów i semantycznych opisów kontentu, jak również jego większej strukturyzacji, niezbędnej dla mobilnych urządzeń i zwiększającej skuteczność wyszukiwania. Literatura b) Shank P.: Learning 2.0, the Elearning Guild Research, 2010 c) Kamenetz A.: How Startl Is Hacking Education From the Outside In, d) Brzostek-Pawłowska J.: Imersyjna edukacja: zastosowania wirtualnej rzeczywistości w elektronicznych kursach, Prace Naukowo-Badawcze Instytut Maszyn Matematycznych, nr 2/2009 (12) e) Hanson J.J.: Mashups: strategies for the modern enterprise, Addison-Wesley, 2009 f) Brzostek-Pawłowska J.: Między Web 2.0 i 3.0: Mobilne systemy informacyjne z rozszerzoną rzeczywistością, Elektronika, nr 11/2010 Netografia g) h) i) j) 15 LCMS Learning Content Management System 16 EPSS - Electronic Performance Support Systems 45

47 Zastosowanie map semantycznych w symulacji robota mobilnego Application of semantic maps for mobile robot simulation Dr inż. Janusz Będkowski, prof. dr hab. inż. Andrzej Masłowski Instytut Maszyn Matematycznych Streszczenie W artykule przedstawiono algorytm budowy mapy semantycznej wykorzystanej w tworzeniu modelu otoczenia robota mobilnego na potrzeby symulacji. Dane gromadzone są za pomocą robota mobilnego wyposażonego w laserowy system pomiarowy 3D. Wirtualna scena zbudowana z kilku semantycznych elementów powiązanych zdefiniowanymi zależnościami jest rdzeniem zaproponowanego silnika semantycznej symulacji. Budowa map semantycznych jest ciągle wyzwaniem ze względu na złożoność tego problemu. Istnieje wiele rozwiązań robotycznych wykorzystujących mapy semantyczne zawierające liczne elementy, na bazie której możliwe jest zaawansowane sterowanie robotem mobilnym wykorzystujące podejmowanie decyzji na wysokim poziomie abstrakcji. W pracy przedstawiona jest nowa realizacja mapy semantycznej służąca do automatycznego tworzenia fizycznego modelu zintegrowanego z symulacją robota mobilnego. Mapa semantyczna jest tworzona na podstawie danych 3D zebranych przez robota mobilnego pracującego w środowisku INDOOR. Dane są następnie przetransformowane wykorzystując mapę semantyczną do modelu fizycznego NVIDIA PhysX. Model fizyki jest wykorzystany do symulacji robota inspekcyjno interwencyjnego wykorzystującej wykrywanie kolizji oraz symulację brył sztywnych. Abstract The paper concerns the algorithm of semantic mapping applied for automatic virtual scene generation. Data is acquired by a mobile robot equipped with 3D laser measurement system. The virtual scene composed by several entities and relations between them is the core of the proposed semantic simulation engine. Semantic mapping is still an open problem because of its complexity. There are several robotic applications that use semantic information to build complex environment maps with labeled entities, therefore advanced robot behavior based on ontological information can be processed in high conceptual level. We are presenting a new approach that uses semantic mapping to generate physical model of an environment that is integrated with mobile robot simulator. Semantic map is generated based on 3D data acquired by a mobile robot in INDOOR environment. This raw data is transformed into a semantic map and then NVIDIA PhysX model is constructed. The PhysX model is used to perform an inspection intervention mobile robot simulation in which collision detection and rigid body simulation is available. Keywords Mobile robot, operator training, simulation, semantic map, image processing. Robot mobilny, trening operatora, symulacja, semantyczna mapa, przetwarzanie obrazów. Introduction In this paper a new concept of using semantic map for robot operator training purpose is described. The approach consists of 3D laser data acquisition, semantic elements extraction (using image processing techniques) and transformation to rigid body simulation engine, therefore the State Of the Art related to those research topics will be discussed. The combination of a 2D laser range finder with a mobile unit was described as the simulation of a 3D laser range finder in [1]. In this sense we can consider that several researches are using so 46

48 called simulator of 3D laser range finder to obtain 3D cloud of points [2]. The common 3D laser simulator is built on the basis of a rotated 2D range finder. The rotation axis can be horizontal [3], vertical [4] or similarly to our approach (the rotational axis lies in the middle of the scanners field of view). Semantic information extracted from 3D laser data is recent research topic of modern mobile robotics. In [5] a semantic map for a mobile robot was described as a map that contains, in addition to spatial information about the environment, assignments of mapped features to entities of known classes. In [6] a model of an indoor scene is implemented as a semantic net. This approach is used in [7] where robot extracts semantic information from 3D models built from a laser scanner. In [8] the location of features is extracted by using a probabilistic technique (RANSAC). Also the region growing approach [9] extended from [10] by efficiently integrating k-nearest neighbor (KNN) search is able to process unorganized clouds of points. The semantic map building is related to SLAM (Simultaneous Localization And Mapping) problem [11]. Most of recent SLAM (Simultaneous Localization And Mapping) techniques use camera [12], laser measurement system [13] or even registered 3D laser data [14]. Concerning the registration of 3D scans described in [15] we can find several techniques solving this important issue. The authors of [16] briefly describe ICP (Iterative Closest Points) algorithm and in [17] the probabilistic matching technique is proposed. In [18] the mapping system that acquires 3D object models of man-made indoor environments such as kitchens is shown. The system segments and geometrically reconstructs cabinets with doors, tables, drawers, and shelves, objects that are important for robots retrieving and manipulating objects in these environments. A detailed description of computer based simulators for unmanned vehicles is shown in [19] [57]. Also in [20] the comparison of real-time physics simulation systems is given, where a qualitative evaluation of a number of free publicly available physics engines for simulation systems and game development is presented. Several frameworks are mentioned such as USARSim which is very popular in research society [21], Stage, Gazebo [22], Webots [23], MRDS (Microsoft Robotics Developer Studio) [24]. Some researchers found that there are many available simulators that offer attractive functionality, therefore they proposed a new simulator classification system specific to mobile robots and autonomous vehicles [25]. A classification system for robot simulators will allow researchers to identify existing simulators which may be useful in conducting a wide variety of robotics research from testing low level or autonomous control to human robot interaction.. To ensure the validity of robot models, NIST proposes standardized test methods that can be easily replicated in both computer simulation and physical form [26]. In this paper we propose a new idea of semantic map building, this map can be transformed into rigid body simulation. It can be used for several applications such as robot operator training. It is a new idea and can give an opportunity to develop training systems composed by real and virtual robots. We hope that it will improve multi robot system design and development. The paper is organized as follows: in section Robot robot and its data acquisition module is described. In section Semantic map approach we explained the semantic map concept applied to walls and stairs detection. Section Semantic simulation engine describes the core of proposed simulation system. The final discussion is given in the Conclusion. Robot The robot used is an ActiveMedia PIONEER 3AT, equipped with SARA (Sensor Data Acquisition System for Mobile Robotic Applications). SARA is composed by 2 lasers LMS SICK 100 orthogonally mounted. Bottom laser can rotate, therefore it delivers 3D cloud of 47

49 points in stop-scan fashion. Ethernet camera delivers image data available via web browser. Figure 1 shows the hardware and data visualization. Figure 1: Robot PIONEER 3AT equipped with SARA (Sensor Data Acquisition System for Mobile Robotic Applications). From left: robot, image from onboard camera, 3D cloud of points. Rysunek 1: Robot PIONEER 3AT wyposażony w SARA (Sensor Data Acquisition System for Mobile Robotic Applications ). Od lewej: robot, widok z kamery, chmura punktów 3D. Rotated SICK The rotational axis lies in the middle of the scanners field of view. To rotate the scanner we use a computer controlled PTU-D pan-tilt unit from Directed Perception. A horizontal scan point without rotation of pan tilt unit would have the coordinates x cos r ; y sin r ; z 0; (1) i i i i i with i as an angle between optical axis and the laser beam, r i as corresponding distance. Taking into account the additional rotation around the optical axis X (figure 1) leads to xi cos i ri ; yi sin i cos ri ; zi sin i sin ri ; (2) with as the rotation angle around X axis measured form Y counterclockwise. Semantic map approach The proposed approach is dedicated to structured INDOOR environment where floor is flat and walls are straight and orthogonal to floor and ceiling, stairs are parallel and ergonomic. It is obvious that if we try to use this approach in unstructured environment, algorithm will generate numerous not-labeled objects. To find semantic objects such as wall, ceiling, floor, doors (with joint), stairs we are using a new idea that is based on prerequisites generation from projected single 3D scan (onto OXY plane for wall, door, stairs and onto OXZ for ceiling and floor ). Prerequisites are generated using image processing techniques such as Hough transform for line extraction. The prerequisites are checked in next step, if the constraint in satisfied, the semantic object is assigned. For instance if we assume 3D scan projected onto OXY plane, a single line is related to a wall prerequisite, 3 parallel lines are prerequisite of stairs, 2 connected lines are prerequisite of opened doors and the connection can be a joint. Single long line in 3D scan projected onto OXZ plane is a prerequisite of ceiling and floor. In next subsection we introduce the algorithm for line extraction from projected 3D scan. Line extraction from projected 3D scan In figure 2 the rectangle of 3D scan projection onto OXY plane is shown. We assume that robot is located on a surface (in other case additional pitch/roll sensors can be used), therefore projected wall, doors and stairs determine the line on the considered binary image. The same assumption is related to ceiling and floor detection in case of 3D scan projection onto OXZ plane. We consider the region 10m x 10m because of the acceptable distance between closest measured 3D points. On the same figure the correspond image coordinates are shown for instance point Pxy=(-5, -5) corresponds to Puv=(0, 0). The image size is 512 pixels width, 512 i i 48

50 pixels height, therefore one pixels occupies the rectangle region approximately 20cm x 20cm. The step of line extraction algorithm is to compute the sum of projected points for each pixels. This approach has a disadvantage caused by the 3D data acquisition technique. Because laser is rotated around its optical axis, the sum values are increased in front of the laser and decreased in other regions. To avoid this disadvantage we propose prerequisites boosting method. In figure 3 it can be seen that the obstacle located in front of laser (its optical axis) influences increased sum-values. On the contrary obstacle located near Y axis influences decreased sum-value that can result in omitting this prerequisite. The prerequisites boosting method is based on normalization technique that uses the model of laser beam intersection with rectangular prisms with base assigned by pixel uv. The model of laser beam intersection is shown in figure 3 (centre). It is related to the computation of maximum available laser beam intersection with rectangular prism with the base in pixel uv. Once the model uv is computed it can be used for normalization prerequisites image (sum uv ), where sum new; uv = sum uv / model uv. Figure 2: The rectangle of 3D scan projection onto OXY plane - left, corresponding image coordinates - right. Rysunek 2: Rzutowanie chmury punktów 3D na płaszczyznę OXY oraz współrzędne obrazu. Computed sum new,uv image (where values are real numbers from 0 to 1) is used for prerequisites generation based on image processing methods. The implementation is based on OpenCV image processing library [27]. Figure 4 shows the procedure. Input image box represents the computed sum new,uv image transformed into binary image using simple threshold method. Filtering box reduces noise from image. The structuring element used for this operation is strel (3) Figure 3: Left: sum of projected points xy onto pixels uv, middle: model of laser beam intersection with rectangular prisms with base assigned by pixel uv, right the result of prerequisites boosting method. Rysunek 3: Lewy: suma punktów points xy rzutowanych na pixels uv, środkowy: model laserowego systemu pomiarowego, prawy: rezultat zastosowanej metody wzmocnienia przesłanek. Figure 4: Image processing methods used for prerequisites computation. 49

51 Rysunek 4: Algorytm wyznaczania przesłanek na bazie procedur przetwarzania obrazów. For each pixel p k;l from binary image, where k = 1:510, l = 1:510, following equation is solved. 1 1 p strel p i j (4) res( k, l ) i 1 j 1 i, j k i, l j if p res(k;l) > 0 and p k;l = 1 then p out(k;l) = 1, else p out(k;l) = 0. Dilation box mathematical morphology operation increase the width of binary objects in the image. The operation dilation [27] dilates the source image using the specified structuring element that determines the shape of a pixel neighborhood over which the maximum is taken. Neighboring objects are going to be connected for better Hough transform result. Skeletonization based on classical Pavlidis [28] algorithm gives the output as thin lines that are used by Hough transform box to obtain line segments. Walls and doors detection The procedure of walls and doors prerequisites generation is using image processing methods. The result of this procedure is shown in figure 5, where each line (marked by blue color) corresponds to wall prerequisite. The set of lines is used to obtain segmentation of 3D cloud of points, where different walls will have different labels. For each line segment the orthogonal plane orth to plane OXY is computed (figure 5 - right). The intersection between this two planes is the same line segment. All 3D points which satisfy the condition of distance to plane orth have the same label. In the first step all prerequisites of walls are checked separately. To perform the scene interpretation semantic net is proposed. Nodes of a semantic net represent entities of the world and the relationships between them are defined. Possible labels of the nodes are L = { wall, wall above door, floor, ceiling, door, free space for door }. The relationships between the entities are R = { parallel, orthogonal, above, under, equal height, available inside, connected via joint }. The semantic net can easily be extended to more entities and relationships which determine a more sophisticated feature detection algorithms. In our case the feature detection algorithm is composed by the method of cubes generation, where each cube should contain measured 3D point. In the second step of the algorithm wall candidates are chosen. From this set of candidates, based on relationships between them, proper labels are assigned and output model is generated. Figure 5: Walls prerequisites detection. Left: Input image, centre: result as lines (prerequisites of walls), right: example orthogonal plane orth to plane OXY. Rysunek 5: Przesłanki ścian, lewy: wejściowy obraz, środkowy: wynik jako linie będące przesłankami ścian, prawy: przykładowe prostopadłe płaszczyzny plane orth i plane OXY. Stairs detection The image processing methods are used for stairs prerequisites generation. The result of this procedure is shown in figure 6, where red rectangle corresponds to stairs prerequisite. It is important to emphasize that the set of parallel lines in the same short distance between each other can be a projection of stairs. Possible label of the node is L = { stair }. The relationships between the entities are R = { parallel, above, under }. 50

52 Figure 6: Stairs prerequisites detection. Rysunek 6: Detekcja przesłanek wystąpienia schodów. Semantic simulation engine The concept of semantic simulation engine is a new idea, and its strength lies on the semantic map integration with mobile robot simulator. The engine basic elements are: semantic map nodes(entities) Lsm={ wall, wall above door, floor, ceiling, door, free space for door, stairs }, robot simulator nodes(entities) Lrs={ robot, rigid body object, soft body object }, semantic map relationships between the entities Rsm = { parallel, orthogonal, above, under, equal height, available inside, connected via joint }, robot simulator relationships between the entities Rrs = { connected via joint, position }, semantic map events Esm = robot simulator events Ers = { movement, collision between two entities started, collision between two entities stopped, collision between two entities continued, broken joint }. Robot simulator is implemented in NVIDIA PhysX. The entities from semantic map correspond to actors in PhysX. Lsm is transformed into Lrs based on spatial model i.e. walls, doors and stairs correspond to actors with BOX shapes (details concerning NVIDIA PhysX shapes of actors are available at [58]). Rsm are transformed into Rrs with remark that doors are connected to walls via revolute joints. All entities/relations Rsm has the same initial location in Rrs, obviously the location of each actor/entity may change during simulation. The transformation from Esm to Ers effects that events related to entities from semantic map correspond to the events related to actors representing proper entities. Following events can be noticed during simulation: robot can touch each entity, open/close the door, climb the stairs, enter empty space of the door, damage itself (broken joint between actors in robot arm), brake joint that connects door to the wall. It is noteworthy to mention that all robot simulator semantic events are useful for operator training, where computer has to monitor simulation events, judge them, and report the result to the instructor. Figure 7: Robot simulator semantic events. Rysunek 7: Semantyczne zdarzenia w symulatorze robota. 51

Zastosowanie deflektometrii do pomiarów kształtu 3D. Katarzyna Goplańska

Zastosowanie deflektometrii do pomiarów kształtu 3D. Katarzyna Goplańska Zastosowanie deflektometrii do pomiarów kształtu 3D Plan prezentacji Metody pomiaru kształtu Deflektometria Zasada działania Stereo-deflektometria Kalibracja Zalety Zastosowania Przykład Podsumowanie Metody

Bardziej szczegółowo

LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ.

LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 12. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ. LABORATORIUM AKUSTYKI MUZYCZNEJ. Ćw. nr 1. Analiza falkowa dźwięków instrumentów muzycznych. 1. PODSTAWY TEORETYCZNE ANALIZY FALKOWEJ. Transformacja falkowa (ang. wavelet falka) przeznaczona jest do analizy

Bardziej szczegółowo

Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła

Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła Badania porównawcze parametrów powierzchni gładkich metodami rozpraszania światła dr JANUSZ JAGLARZ 2, dr inż. WOJCIECH KAPŁONEK 3, WŁODZIMIERZ LIPIŃSKI 1, mgr inż. MARCIN PAWEŁCZAK 1, dr inż. ROMUALD

Bardziej szczegółowo

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU

ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU ANALIZA SEMANTYCZNA OBRAZU I DŹWIĘKU obraz dr inż. Jacek Naruniec Analiza Składowych Niezależnych (ICA) Independent Component Analysis Dąży do wyznaczenia zmiennych niezależnych z obserwacji Problem opiera

Bardziej szczegółowo

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7

IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE Z RDZENIEM ARM7 Łukasz Deńca V rok Koło Techniki Cyfrowej dr inż. Wojciech Mysiński opiekun naukowy IMPLEMENTATION OF THE SPECTRUM ANALYZER ON MICROCONTROLLER WITH ARM7 CORE IMPLEMENTACJA ANALIZATORA WIDMA NA MIKROKONTROLERZE

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

WYBÓR PUNKTÓW POMIAROWYCH

WYBÓR PUNKTÓW POMIAROWYCH Scientific Bulletin of Che lm Section of Technical Sciences No. 1/2008 WYBÓR PUNKTÓW POMIAROWYCH WE WSPÓŁRZĘDNOŚCIOWEJ TECHNICE POMIAROWEJ MAREK MAGDZIAK Katedra Technik Wytwarzania i Automatyzacji, Politechnika

Bardziej szczegółowo

Pomiar drogi koherencji wybranych źródeł światła

Pomiar drogi koherencji wybranych źródeł światła Politechnika Gdańska WYDZIAŁ ELEKTRONIKI TELEKOMUNIKACJI I INFORMATYKI Katedra Optoelektroniki i Systemów Elektronicznych Pomiar drogi koherencji wybranych źródeł światła Instrukcja do ćwiczenia laboratoryjnego

Bardziej szczegółowo

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie. SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

ĆWICZENIE nr 3. Badanie podstawowych parametrów metrologicznych przetworników analogowo-cyfrowych

ĆWICZENIE nr 3. Badanie podstawowych parametrów metrologicznych przetworników analogowo-cyfrowych Politechnika Łódzka Katedra Przyrządów Półprzewodnikowych i Optoelektronicznych WWW.DSOD.PL LABORATORIUM METROLOGII ELEKTRONICZNEJ ĆWICZENIE nr 3 Badanie podstawowych parametrów metrologicznych przetworników

Bardziej szczegółowo

CHARAKTERYSTYKA WIĄZKI GENEROWANEJ PRZEZ LASER

CHARAKTERYSTYKA WIĄZKI GENEROWANEJ PRZEZ LASER CHARATERYSTYA WIĄZI GENEROWANEJ PRZEZ LASER ształt wiązki lasera i jej widmo są rezultatem interferencji promieniowania we wnęce rezonansowej. W wyniku tego procesu powstają charakterystyczne rozkłady

Bardziej szczegółowo

Czujniki podczerwieni do bezkontaktowego pomiaru temperatury. Czujniki stacjonarne.

Czujniki podczerwieni do bezkontaktowego pomiaru temperatury. Czujniki stacjonarne. Czujniki podczerwieni do bezkontaktowego pomiaru temperatury Niemiecka firma Micro-Epsilon, której WObit jest wyłącznym przedstawicielem w Polsce, uzupełniła swoją ofertę sensorów o czujniki podczerwieni

Bardziej szczegółowo

Materiały dydaktyczne: Maciej Krzymowski. Biometryka

Materiały dydaktyczne: Maciej Krzymowski. Biometryka Biometryka Biometryka Nauka o mierzalnych cechach fizycznych lub behawioralnych organizmów Ŝywych, z greckiego: "bios" = Ŝywy "metron" = mierzyć. Biometria Zespół metod słuŝących do sprawdzania toŝsamości

Bardziej szczegółowo

Przewaga klasycznego spektrometru Ramana czyli siatkowego, dyspersyjnego nad przystawką ramanowską FT-Raman

Przewaga klasycznego spektrometru Ramana czyli siatkowego, dyspersyjnego nad przystawką ramanowską FT-Raman Porównanie Przewaga klasycznego spektrometru Ramana czyli siatkowego, dyspersyjnego nad przystawką ramanowską FT-Raman Spektroskopia FT-Raman Spektroskopia FT-Raman jest dostępna od 1987 roku. Systemy

Bardziej szczegółowo

Katedra Technik Wytwarzania i Automatyzacji STATYSTYCZNA KONTROLA PROCESU

Katedra Technik Wytwarzania i Automatyzacji STATYSTYCZNA KONTROLA PROCESU Katedra Technik Wytwarzania i Automatyzacji METROLOGIA I KONTKOLA JAKOŚCI - LABORATORIUM TEMAT: STATYSTYCZNA KONTROLA PROCESU 1. Cel ćwiczenia Zapoznanie studentów z podstawami wdrażania i stosowania metod

Bardziej szczegółowo

System automatycznego odwzorowania kształtu obiektów przestrzennych 3DMADMAC

System automatycznego odwzorowania kształtu obiektów przestrzennych 3DMADMAC System automatycznego odwzorowania kształtu obiektów przestrzennych 3DMADMAC Robert Sitnik, Maciej Karaszewski, Wojciech Załuski, Paweł Bolewicki *OGX Optographx Instytut Mikromechaniki i Fotoniki Wydział

Bardziej szczegółowo

Projekt rejestratora obiektów trójwymiarowych na bazie frezarki CNC. The project of the scanner for three-dimensional objects based on the CNC

Projekt rejestratora obiektów trójwymiarowych na bazie frezarki CNC. The project of the scanner for three-dimensional objects based on the CNC Dr inż. Henryk Bąkowski, e-mail: henryk.bakowski@polsl.pl Politechnika Śląska, Wydział Transportu Mateusz Kuś, e-mail: kus.mate@gmail.com Jakub Siuta, e-mail: siuta.jakub@gmail.com Andrzej Kubik, e-mail:

Bardziej szczegółowo

Trackery Leica Absolute

Trackery Leica Absolute BROSZURA PRODUKTU Trackery Leica Absolute Rozwiązania pomiarowe Leica Leica Absolute Tracker AT402 z sondą B-Probe Ultra przenośny system pomiarowy klasy podstawowej Leica B-Probe to ręczne i zasilane

Bardziej szczegółowo

Przetworniki A/C. Ryszard J. Barczyński, 2010 2015 Materiały dydaktyczne do użytku wewnętrznego

Przetworniki A/C. Ryszard J. Barczyński, 2010 2015 Materiały dydaktyczne do użytku wewnętrznego Przetworniki A/C Ryszard J. Barczyński, 2010 2015 Materiały dydaktyczne do użytku wewnętrznego Parametry przetworników analogowo cyfrowych Podstawowe parametry przetworników wpływające na ich dokładność

Bardziej szczegółowo

Politechnika Wrocławska Wydział Podstawowych Problemów Techniki

Politechnika Wrocławska Wydział Podstawowych Problemów Techniki Politechnika Wrocławska Wydział Podstawowych Problemów Techniki specjalność FOTONIKA 3,5-letnie studia stacjonarne I stopnia (studia inżynierskie) FIZYKA TECHNICZNA Charakterystyka wykształcenia: - dobre

Bardziej szczegółowo

Stanowisko do pomiaru fotoprzewodnictwa

Stanowisko do pomiaru fotoprzewodnictwa Stanowisko do pomiaru fotoprzewodnictwa Kraków 2008 Układ pomiarowy. Pomiar czułości widmowej fotodetektorów polega na pomiarze fotoprądu w funkcji długości padającego na detektor promieniowania. Stanowisko

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Energetyka Rodzaj przedmiotu: kierunkowy ogólny Rodzaj zajęć: wykład, laboratorium I KARTA PRZEDMIOTU CEL PRZEDMIOTU PRZEWODNIK PO PRZEDMIOCIE C1. Uzyskanie podstawowej wiedzy

Bardziej szczegółowo

PANEL SŁONECZNY NXT. Rozpocznij

PANEL SŁONECZNY NXT. Rozpocznij Panel Słoneczny NXT Panel Słoneczny NXT Opis Zadanie polega na badaniu możliwości generowania prądu przez panel słoneczny poprzez analizę mocy wyjściowej urządzenia [W]. Eksperymentalnie sprawdzony zostanie

Bardziej szczegółowo

DOPPLEROWSKA ANEMOMETRIA LASEROWA (L D A)

DOPPLEROWSKA ANEMOMETRIA LASEROWA (L D A) DOPPLEROWSKA ANEMOMETRIA LASEROWA (L D A) Dopplerowska anemometria laserowa (LDA) jest techniką pomiarową umożliwiająca pomiar chwilowej prędkości przepływu poprzez pomiar przesunięcia częstotliwości światła

Bardziej szczegółowo

Zbigniew Figiel, Piotr Dzikowicz. Skanowanie 3D przy projektowaniu i realizacji inwestycji w Koksownictwie KOKSOPROJEKT

Zbigniew Figiel, Piotr Dzikowicz. Skanowanie 3D przy projektowaniu i realizacji inwestycji w Koksownictwie KOKSOPROJEKT 1 Zbigniew Figiel, Piotr Dzikowicz Skanowanie 3D przy projektowaniu i realizacji inwestycji w Koksownictwie 2 Plan prezentacji 1. Skanowanie laserowe 3D informacje ogólne; 2. Proces skanowania; 3. Proces

Bardziej szczegółowo

Aparaty słuchowe Hi-Fi z Multiphysics Modeling

Aparaty słuchowe Hi-Fi z Multiphysics Modeling Aparaty słuchowe Hi-Fi z Multiphysics Modeling POLITECHNIKA POZNAŃSKA Wydział Budowy Maszyn i Zarządzania Mechanika i Budowa Maszyn Technologia Przetwarzania Materiałów Prowadzący: dr hab. Tomasz Stręk

Bardziej szczegółowo

Integracja systemu CAD/CAM Catia z bazą danych uchwytów obróbkowych MS Access za pomocą interfejsu API

Integracja systemu CAD/CAM Catia z bazą danych uchwytów obróbkowych MS Access za pomocą interfejsu API Dr inż. Janusz Pobożniak, pobozniak@mech.pk.edu.pl Instytut Technologii Maszyn i Automatyzacji produkcji Politechnika Krakowska, Wydział Mechaniczny Integracja systemu CAD/CAM Catia z bazą danych uchwytów

Bardziej szczegółowo

Czym jest OnDynamic? OnDynamic dostarcza wartościowych danych w czasie rzeczywistym, 24/7 dni w tygodniu w zakresie: czasu przejazdu,

Czym jest OnDynamic? OnDynamic dostarcza wartościowych danych w czasie rzeczywistym, 24/7 dni w tygodniu w zakresie: czasu przejazdu, Czym jest OnDynamic? OnDynamic (Multimodalny System Monitoringu Ruchu Drogowego) to inteligentna architektura czujników i specjalistycznego oprogramowania, które gwarantują przetwarzanie dużej ilości różnorodnych

Bardziej szczegółowo

LASERY I ICH ZASTOSOWANIE

LASERY I ICH ZASTOSOWANIE LASERY I ICH ZASTOSOWANIE Laboratorium Instrukcja do ćwiczenia nr 13 Temat: Biostymulacja laserowa Istotą biostymulacji laserowej jest napromieniowanie punktów akupunkturowych ciągłym, monochromatycznym

Bardziej szczegółowo

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ

MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ Jarosław MAŃKOWSKI * Andrzej ŻABICKI * Piotr ŻACH * MODELOWANIE POŁĄCZEŃ TYPU SWORZEŃ OTWÓR ZA POMOCĄ MES BEZ UŻYCIA ANALIZY KONTAKTOWEJ 1. WSTĘP W analizach MES dużych konstrukcji wykonywanych na skalę

Bardziej szczegółowo

SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD

SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Dr inż. Jacek WARCHULSKI Dr inż. Marcin WARCHULSKI Mgr inż. Witold BUŻANTOWICZ Wojskowa Akademia Techniczna SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Streszczenie: W referacie przedstawiono możliwości

Bardziej szczegółowo

Propagacja światła we włóknie obserwacja pól modowych.

Propagacja światła we włóknie obserwacja pól modowych. Propagacja światła we włóknie obserwacja pól modowych. Przy pomocy optyki geometrycznej łatwo można przedstawić efekty propagacji światła tylko w ośrodku nieograniczonym. Nie ukazuje ona jednak interesujących

Bardziej szczegółowo

Problematyka budowy skanera 3D doświadczenia własne

Problematyka budowy skanera 3D doświadczenia własne Problematyka budowy skanera 3D doświadczenia własne dr inż. Ireneusz Wróbel ATH Bielsko-Biała, Evatronix S.A. iwrobel@ath.bielsko.pl mgr inż. Paweł Harężlak mgr inż. Michał Bogusz Evatronix S.A. Plan wykładu

Bardziej szczegółowo

Komputerowe systemy pomiarowe. Dr Zbigniew Kozioł - wykład Mgr Mariusz Woźny - laboratorium

Komputerowe systemy pomiarowe. Dr Zbigniew Kozioł - wykład Mgr Mariusz Woźny - laboratorium Komputerowe systemy pomiarowe Dr Zbigniew Kozioł - wykład Mgr Mariusz Woźny - laboratorium 1 - Cel zajęć - Orientacyjny plan wykładu - Zasady zaliczania przedmiotu - Literatura Klasyfikacja systemów pomiarowych

Bardziej szczegółowo

ScrappiX. Urządzenie do wizyjnej kontroli wymiarów oraz kontroli defektów powierzchni

ScrappiX. Urządzenie do wizyjnej kontroli wymiarów oraz kontroli defektów powierzchni ScrappiX Urządzenie do wizyjnej kontroli wymiarów oraz kontroli defektów powierzchni Scrappix jest innowacyjnym urządzeniem do kontroli wizyjnej, kontroli wymiarów oraz powierzchni przedmiotów okrągłych

Bardziej szczegółowo

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski

Sterowanie procesem i jego zdolność. Zbigniew Wiśniewski Sterowanie procesem i jego zdolność Zbigniew Wiśniewski Wybór cech do kart kontrolnych Zaleca się aby w pierwszej kolejności były brane pod uwagę cechy dotyczące funkcjonowania wyrobu lub świadczenia usługi

Bardziej szczegółowo

Tematy prac dyplomowych w Katedrze Awioniki i Sterowania. Studia: I stopnia (inżynierskie)

Tematy prac dyplomowych w Katedrze Awioniki i Sterowania. Studia: I stopnia (inżynierskie) Tematy prac dyplomowych w Katedrze Awioniki i Sterowania Studia I stopnia (inżynierskie) Temat: Skalowanie czujników prędkości kątowej i orientacji przestrzennej 1. Analiza właściwości czujników i układów

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Kierunek: Inżynieria Biomedyczna Rodzaj przedmiotu: obowiązkowy moduł kierunkowy ogólny Rodzaj zajęć: wykład, laboratorium TECHNIKI OBRAZOWANIA MEDYCZNEGO Medical Imaging Techniques Forma

Bardziej szczegółowo

Wymiar: Forma: Semestr: 30 h wykład VII 30 h laboratoria VII

Wymiar: Forma: Semestr: 30 h wykład VII 30 h laboratoria VII Pomiary przemysłowe Wymiar: Forma: Semestr: 30 h wykład VII 30 h laboratoria VII Efekty kształcenia: Ma uporządkowaną i pogłębioną wiedzę z zakresu metod pomiarów wielkości fizycznych w przemyśle. Zna

Bardziej szczegółowo

Architektura Systemu. Architektura systemu umożliwia kontrolowanie iteracyjnego i przyrostowego procesu tworzenia systemu.

Architektura Systemu. Architektura systemu umożliwia kontrolowanie iteracyjnego i przyrostowego procesu tworzenia systemu. Architektura Systemu Architektura systemu umożliwia kontrolowanie iteracyjnego i przyrostowego procesu tworzenia systemu. Architektura jest zbiorem decyzji dotyczących: organizacji systemu komputerowego,

Bardziej szczegółowo

Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry 1 1.1. Pojęcia podstawowe 1 1.2. Klasyfikacja sygnałów 2 1.3.

Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry 1 1.1. Pojęcia podstawowe 1 1.2. Klasyfikacja sygnałów 2 1.3. Przedmowa Wykaz oznaczeń Wykaz skrótów 1. Sygnały i ich parametry 1 1.1. Pojęcia podstawowe 1 1.2. Klasyfikacja sygnałów 2 1.3. Sygnały deterministyczne 4 1.3.1. Parametry 4 1.3.2. Przykłady 7 1.3.3. Sygnały

Bardziej szczegółowo

Planowanie, realizacja i dokumentacja wzorcowego procesu digitalizacji 3D

Planowanie, realizacja i dokumentacja wzorcowego procesu digitalizacji 3D Planowanie, realizacja i dokumentacja wzorcowego procesu digitalizacji 3D obiektów muzealnych Robert Sitnik OGX OPTOGRAPHX Instytut Mikromechaniki i Fotoniki Politechnika Warszawska Plan prezentacji 1)

Bardziej szczegółowo

KARTA INFORMACYJNA PRZEDMIOTU

KARTA INFORMACYJNA PRZEDMIOTU Uniwersytet Rzeszowski WYDZIAŁ KIERUNEK Matematyczno-Przyrodniczy Fizyka techniczna SPECJALNOŚĆ RODZAJ STUDIÓW stacjonarne, studia pierwszego stopnia KARTA INFORMACYJNA PRZEDMIOTU NAZWA PRZEDMIOTU WG PLANU

Bardziej szczegółowo

DIGITALIZACJA GEOMETRII WKŁADEK OSTRZOWYCH NA POTRZEBY SYMULACJI MES PROCESU OBRÓBKI SKRAWANIEM

DIGITALIZACJA GEOMETRII WKŁADEK OSTRZOWYCH NA POTRZEBY SYMULACJI MES PROCESU OBRÓBKI SKRAWANIEM Dr inż. Witold HABRAT, e-mail: witekhab@prz.edu.pl Politechnika Rzeszowska, Wydział Budowy Maszyn i Lotnictwa Dr hab. inż. Piotr NIESŁONY, prof. PO, e-mail: p.nieslony@po.opole.pl Politechnika Opolska,

Bardziej szczegółowo

Mobilne Aplikacje Multimedialne

Mobilne Aplikacje Multimedialne Mobilne Aplikacje Multimedialne Technologie rozszerzonej rzeczywistości Krzysztof Bruniecki Rozszerzona rzeczywistość W odróżnieniu od rzeczywistości wirtualnej użytkownik NIE jest całkowicie zanurzony

Bardziej szczegółowo

MICRON3D skaner do zastosowań specjalnych. MICRON3D scanner for special applications

MICRON3D skaner do zastosowań specjalnych. MICRON3D scanner for special applications Mgr inż. Dariusz Jasiński dj@smarttech3d.com SMARTTECH Sp. z o.o. MICRON3D skaner do zastosowań specjalnych W niniejszym artykule zaprezentowany został nowy skaner 3D firmy Smarttech, w którym do pomiaru

Bardziej szczegółowo

Egzamin / zaliczenie na ocenę*

Egzamin / zaliczenie na ocenę* Zał. nr do ZW /01 WYDZIAŁ / STUDIUM KARTA PRZEDMIOTU Nazwa w języku polskim Identyfikacja systemów Nazwa w języku angielskim System identification Kierunek studiów (jeśli dotyczy): Inżynieria Systemów

Bardziej szczegółowo

Początek biometrycznych systemów autoryzacji: Babilon i Egipt

Początek biometrycznych systemów autoryzacji: Babilon i Egipt Polski Rynek Biometryki Jakub Ożyński Historia biometryki Początek biometrycznych systemów autoryzacji: Babilon i Egipt Metody autoryzacji: Linie papilarne, Odciski stóp Odciski dłoni Zastosowanie: Potwierdzanie

Bardziej szczegółowo

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16

Spis treści. Przedmowa... XI. Rozdział 1. Pomiar: jednostki miar... 1. Rozdział 2. Pomiar: liczby i obliczenia liczbowe... 16 Spis treści Przedmowa.......................... XI Rozdział 1. Pomiar: jednostki miar................. 1 1.1. Wielkości fizyczne i pozafizyczne.................. 1 1.2. Spójne układy miar. Układ SI i jego

Bardziej szczegółowo

LEKCJA. TEMAT: Napędy optyczne.

LEKCJA. TEMAT: Napędy optyczne. TEMAT: Napędy optyczne. LEKCJA 1. Wymagania dla ucznia: Uczeń po ukończeniu lekcji powinien: umieć omówić budowę i działanie napędu CD/DVD; umieć omówić budowę płyty CD/DVD; umieć omówić specyfikację napędu

Bardziej szczegółowo

EKSTRAKCJA CECH TWARZY ZA POMOCĄ TRANSFORMATY FALKOWEJ

EKSTRAKCJA CECH TWARZY ZA POMOCĄ TRANSFORMATY FALKOWEJ Janusz Bobulski Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska ul. Dąbrowskiego 73 42-200 Częstochowa januszb@icis.pcz.pl EKSTRAKCJA CECH TWARZY ZA POMOCĄ TRANSFORMATY FALKOWEJ

Bardziej szczegółowo

Obrazowanie za pomocą soczewki

Obrazowanie za pomocą soczewki Marcin Bieda Obrazowanie za pomocą soczewki (Instrukcja obsługi) Aplikacja została zrealizowana w ramach projektu e-fizyka, współfinansowanym przez Unię Europejską w ramach Europejskiego Funduszu Społecznego

Bardziej szczegółowo

Badania w sieciach złożonych

Badania w sieciach złożonych Badania w sieciach złożonych Grant WCSS nr 177, sprawozdanie za rok 2012 Kierownik grantu dr. hab. inż. Przemysław Kazienko mgr inż. Radosław Michalski Instytut Informatyki Politechniki Wrocławskiej Obszar

Bardziej szczegółowo

I rok. semestr 1 semestr 2 15 tyg. 15 tyg. Razem ECTS. laborat. semin. ECTS. konwer. wykł. I rok. w tym. Razem ECTS. laborat. semin. ECTS. konwer.

I rok. semestr 1 semestr 2 15 tyg. 15 tyg. Razem ECTS. laborat. semin. ECTS. konwer. wykł. I rok. w tym. Razem ECTS. laborat. semin. ECTS. konwer. Wydział Informatyki i Nauki o Materiałach Kierunek Informatyka studia I stopnia inżynierskie studia stacjonarne 08- IO1S-13 od roku akademickiego 2015/2016 A Lp GRUPA TREŚCI PODSTAWOWYCH kod Nazwa modułu

Bardziej szczegółowo

Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27

Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27 Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27 listopada 2011 Agenda Demonstracja działania systemu Technologia

Bardziej szczegółowo

Ćwiczenie 53. Soczewki

Ćwiczenie 53. Soczewki Ćwiczenie 53. Soczewki Małgorzata Nowina-Konopka, Andrzej Zięba Cel ćwiczenia Pomiar ogniskowych soczewki skupiającej i układu soczewek (skupiająca i rozpraszająca), obliczenie ogniskowej soczewki rozpraszającej.

Bardziej szczegółowo

Wirtualne Laboratorium Mechaniki eksperyment na odległość, współpraca badawcza i gromadzenie wiedzy

Wirtualne Laboratorium Mechaniki eksperyment na odległość, współpraca badawcza i gromadzenie wiedzy Wirtualne Laboratorium Mechaniki eksperyment na odległość, współpraca badawcza i gromadzenie wiedzy Łukasz Maciejewski, Wojciech Myszka Instytut Materiałoznawstwa i Mechaniki Technicznej Politechniki Wrocławskiej

Bardziej szczegółowo

Wymagane parametry dla platformy do mikroskopii korelacyjnej

Wymagane parametry dla platformy do mikroskopii korelacyjnej Strona1 ROZDZIAŁ IV OPIS PRZEDMIOTU ZAMÓWIENIA Wymagane parametry dla platformy do mikroskopii korelacyjnej Mikroskopia korelacyjna łączy dane z mikroskopii świetlnej i elektronowej w celu określenia powiązań

Bardziej szczegółowo

MODELOWANIE WARSTWY POWIERZCHNIOWEJ O ZMIENNEJ TWARDOŚCI

MODELOWANIE WARSTWY POWIERZCHNIOWEJ O ZMIENNEJ TWARDOŚCI Dr inż. Danuta MIEDZIŃSKA, email: dmiedzinska@wat.edu.pl Dr inż. Robert PANOWICZ, email: Panowicz@wat.edu.pl Wojskowa Akademia Techniczna, Katedra Mechaniki i Informatyki Stosowanej MODELOWANIE WARSTWY

Bardziej szczegółowo

IR II. 12. Oznaczanie chloroformu w tetrachloroetylenie metodą spektrofotometrii w podczerwieni

IR II. 12. Oznaczanie chloroformu w tetrachloroetylenie metodą spektrofotometrii w podczerwieni IR II 12. Oznaczanie chloroformu w tetrachloroetylenie metodą spektrofotometrii w podczerwieni Promieniowanie podczerwone ma naturę elektromagnetyczną i jego absorpcja przez materię podlega tym samym prawom,

Bardziej szczegółowo

3GHz (opcja 6GHz) Cyfrowy Analizator Widma GA4063

3GHz (opcja 6GHz) Cyfrowy Analizator Widma GA4063 Cyfrowy Analizator Widma GA4063 3GHz (opcja 6GHz) Wysoka kla sa pomiarowa Duże możliwości pomiarowo -funkcjonalne Wysoka s tabi lność Łatwy w użyc iu GUI Małe wymiary, lekki, przenośny Opis produktu GA4063

Bardziej szczegółowo

Proces technologiczny. 1. Zastosowanie cech technologicznych w systemach CAPP

Proces technologiczny. 1. Zastosowanie cech technologicznych w systemach CAPP Pobożniak Janusz, Dr inż. Politechnika Krakowska, Wydział Mechaniczny e-mail: pobozniak@mech.pk.edu.pl Pozyskiwanie danych niegeometrycznych na użytek projektowania procesów technologicznych obróbki za

Bardziej szczegółowo

Zastosowanie Informatyki w Medycynie

Zastosowanie Informatyki w Medycynie Zastosowanie Informatyki w Medycynie Dokumentacja projektu wykrywanie bicia serca z sygnału EKG. (wykrywanie załamka R) Prowadzący: prof. dr hab. inż. Marek Kurzyoski Grupa: Jakub Snelewski 163802, Jacek

Bardziej szczegółowo

Sposób oceny polityki eksploatacyjnej w przedsiębiorstwach branży spożywczej

Sposób oceny polityki eksploatacyjnej w przedsiębiorstwach branży spożywczej Politechnika Śląska Wydział Organizacji i Zarządzania Instytut Inżynierii Produkcji Sposób oceny polityki eksploatacyjnej w przedsiębiorstwach branży spożywczej Dr inż. Andrzej Loska VII Konferencja Utrzymanie

Bardziej szczegółowo

NIEPEWNOŚĆ POMIARÓW POZIOMU MOCY AKUSTYCZNEJ WEDŁUG ZNOWELIZOWANEJ SERII NORM PN-EN ISO 3740

NIEPEWNOŚĆ POMIARÓW POZIOMU MOCY AKUSTYCZNEJ WEDŁUG ZNOWELIZOWANEJ SERII NORM PN-EN ISO 3740 PRACE INSTYTUTU TECHNIKI BUDOWLANEJ - KWARTALNIK BUILDING RESEARCH INSTITUTE - QUARTERLY 2 (162) 2012 ARTYKUŁY - REPORTS Anna Iżewska* NIEPEWNOŚĆ POMIARÓW POZIOMU MOCY AKUSTYCZNEJ WEDŁUG ZNOWELIZOWANEJ

Bardziej szczegółowo

Laboratorium przez Internet w modelu studiów inżynierskich

Laboratorium przez Internet w modelu studiów inżynierskich Laboratorium przez Internet w modelu studiów inżynierskich Remigiusz Rak Marcin Godziemba-Maliszewski Andrzej Majkowski Adam Jóśko POLITECHNIKA WARSZAWSKA Ośrodek Kształcenia na Odległość Laboratorium

Bardziej szczegółowo

Ćwiczenie: "Mierniki cyfrowe"

Ćwiczenie: Mierniki cyfrowe Ćwiczenie: "Mierniki cyfrowe" Opracowane w ramach projektu: "Informatyka mój sposób na poznanie i opisanie świata realizowanego przez Warszawską Wyższą Szkołę Informatyki. Zakres ćwiczenia: Próbkowanie

Bardziej szczegółowo

Część II Wyświetlanie obrazów

Część II Wyświetlanie obrazów Tło fragmentu ABA-X Display jest wyposażony w mechanizm automatycznego tworzenia tła fragmentu. Najprościej można to wykonać za pomocą skryptu tlo.sh: Składnia: tlo.sh numer oznacza numer

Bardziej szczegółowo

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10

TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10 TELEDETEKCJA Z ELEMENTAMI FOTOGRAMETRII WYKŁAD 10 Fotogrametria to technika pomiarowa oparta na obrazach fotograficznych. Wykorzystywana jest ona do opracowywani map oraz do różnego rodzaju zadań pomiarowych.

Bardziej szczegółowo

Biometryczna Weryfikacja (NIE inwigilacja)

Biometryczna Weryfikacja (NIE inwigilacja) Biometryczna Weryfikacja (NIE inwigilacja) Lucyna Szaszkiewicz Sales Director 23.06.2015 Warszawa Nip 123-456-78-19 Pesel 79110507431 Córka 10120212321 Syn 13021023175 Mąż 75071302113 REGON 123456785 TEL

Bardziej szczegółowo

Zygmunt Wróbel i Robert Koprowski. Praktyka przetwarzania obrazów w programie Matlab

Zygmunt Wróbel i Robert Koprowski. Praktyka przetwarzania obrazów w programie Matlab Zygmunt Wróbel i Robert Koprowski Praktyka przetwarzania obrazów w programie Matlab EXIT 2004 Wstęp 7 CZĘŚĆ I 9 OBRAZ ORAZ JEGO DYSKRETNA STRUKTURA 9 1. Obraz w programie Matlab 11 1.1. Reprezentacja obrazu

Bardziej szczegółowo

Egzamin / zaliczenie na ocenę*

Egzamin / zaliczenie na ocenę* WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI Zał. nr 4 do ZW 33/01 KARTA PRZEDMIOTU Nazwa w języku polskim CYFROWE PRZETWARZANIE SYGNAŁÓW Nazwa w języku angielskim DIGITAL SIGNAL PROCESSING Kierunek studiów

Bardziej szczegółowo

Funkcje systemu infokadra

Funkcje systemu infokadra System Informacji Zarządczej - infokadra jest rozwiązaniem skierowanym dla kadry zarządzającej w obszarze administracji publicznej. Jest przyjaznym i łatwym w użyciu narzędziem analityczno-raportowym,

Bardziej szczegółowo

Zintegrowany system wizualizacji parametrów nawigacyjnych w PNDS

Zintegrowany system wizualizacji parametrów nawigacyjnych w PNDS dr inż. kpt. ż.w. Andrzej Bąk Zintegrowany system wizualizacji parametrów nawigacyjnych w PNDS słowa kluczowe: PNDS, ENC, ECS, wizualizacja, sensory laserowe Artykuł opisuje sposób realizacji procesu wizualizacji

Bardziej szczegółowo

OPTOELEKTRONIKA. Katedra Metrologii i Optoelektroniki. Dołącz do najlepszych!

OPTOELEKTRONIKA. Katedra Metrologii i Optoelektroniki. Dołącz do najlepszych! OPTOELEKTRONIKA Katedra Metrologii i Optoelektroniki Dołącz do najlepszych! Oferta dydaktyczna Wykładane przedmioty Elementy i układy optoelektroniczne Optyczne techniki pomiarowe Optyczna transmisja i

Bardziej szczegółowo

Zagadnienia egzaminacyjne TELEKOMUNIKACJA studia rozpoczynające się po 01.10.2012 r.

Zagadnienia egzaminacyjne TELEKOMUNIKACJA studia rozpoczynające się po 01.10.2012 r. (TIM) Teleinformatyka i multimedia 1. Elementy systemu multimedialnego: organizacja i funkcje. 2. Jakość usług VoIP: metody oceny jakości, czynniki wpływające na jakość. 3. System biometryczny: schemat

Bardziej szczegółowo

Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka

Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka Poznań, 16.05.2012r. Raport z promocji projektu Nowa generacja energooszczędnych

Bardziej szczegółowo

Seria Jubileuszowa. Rozwiązania informatyczne. Sprężarki śrubowe Airpol PRM z przetwornicą częstotliwości. oszczędność energii. ochrona środowiska

Seria Jubileuszowa. Rozwiązania informatyczne. Sprężarki śrubowe Airpol PRM z przetwornicą częstotliwości. oszczędność energii. ochrona środowiska Sprężarki śrubowe Airpol PRM z przetwornicą częstotliwości Seria Jubileuszowa Każda sprężarka śrubowa z przetwornicą częstotliwości posiada regulację obrotów w zakresie od 50 do 100%. Jeżeli zużycie powietrza

Bardziej szczegółowo

Politechnika Poznańska Instytut Technologii Mechanicznej. Laboratorium MASZYN I URZĄDZEŃ TECHNOLOGICZNYCH. Nr 2

Politechnika Poznańska Instytut Technologii Mechanicznej. Laboratorium MASZYN I URZĄDZEŃ TECHNOLOGICZNYCH. Nr 2 Politechnika Poznańska Instytut Technologii Mechanicznej Laboratorium MASZYN I URZĄDZEŃ TECHNOLOGICZNYCH Nr 2 POMIAR I KASOWANIE LUZU W STOLE OBROTOWYM NC Poznań 2008 1. CEL ĆWICZENIA Celem ćwiczenia jest

Bardziej szczegółowo

VÉRITÉ rzeczywistość ma znaczenie Vérité jest najnowszym, zaawansowanym technologicznie aparatem słuchowym Bernafon przeznaczonym dla najbardziej wymagających Użytkowników. Nieprzypadkowa jest nazwa tego

Bardziej szczegółowo

Kąty Ustawienia Kół. WERTHER International POLSKA Sp. z o.o. dr inż. Marek Jankowski 2007-01-19

Kąty Ustawienia Kół. WERTHER International POLSKA Sp. z o.o. dr inż. Marek Jankowski 2007-01-19 WERTHER International POLSKA Sp. z o.o. dr inż. Marek Jankowski 2007-01-19 Kąty Ustawienia Kół Technologie stosowane w pomiarach zmieniają się, powstają coraz to nowe urządzenia ułatwiające zarówno regulowanie

Bardziej szczegółowo

Wstęp. osobniczo, takich jak odciski linii papilarnych, wygląd tęczówki oka, czy charakterystyczne cechy twarzy.

Wstęp. osobniczo, takich jak odciski linii papilarnych, wygląd tęczówki oka, czy charakterystyczne cechy twarzy. 1. Wstęp. Dynamiczny rozwój Internetu, urządzeń mobilnych, oraz komputerów sprawił, iż wiele dziedzin działalności człowieka z powodzeniem jest wspieranych przez dedykowane systemy informatyczne. W niektórych

Bardziej szczegółowo

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania

Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie

Bardziej szczegółowo

SI w procesach przepływu i porządkowania informacji. Paweł Buchwald Wyższa Szkoła Biznesu

SI w procesach przepływu i porządkowania informacji. Paweł Buchwald Wyższa Szkoła Biznesu SI w procesach przepływu i porządkowania informacji Paweł Buchwald Wyższa Szkoła Biznesu Początki SI John MC Carthy prekursor SI Alan Thuring pomysłodawca testu na określenie inteligencji maszyn Powolny

Bardziej szczegółowo

System monitoringu jakości energii elektrycznej

System monitoringu jakości energii elektrycznej System monitoringu jakości energii elektrycznej Pomiary oraz analiza jakości energii elektrycznej System Certan jest narzędziem pozwalającym na ciągłą ocenę parametrów jakości napięć i prądów w wybranych

Bardziej szczegółowo

Z-ZIP2-119z Inżynieria Jakości Quality Engineering

Z-ZIP2-119z Inżynieria Jakości Quality Engineering KARTA MODUŁU / KARTA PRZEDMIOTU Z-ZIP2-119z Inżynieria Jakości Quality Engineering Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013 A. USYTUOWANIE MODUŁU

Bardziej szczegółowo

Zagadnienia: równanie soczewki, ogniskowa soczewki, powiększenie, geometryczna konstrukcja obrazu, działanie prostych przyrządów optycznych.

Zagadnienia: równanie soczewki, ogniskowa soczewki, powiększenie, geometryczna konstrukcja obrazu, działanie prostych przyrządów optycznych. msg O 7 - - Temat: Badanie soczewek, wyznaczanie odległości ogniskowej. Zagadnienia: równanie soczewki, ogniskowa soczewki, powiększenie, geometryczna konstrukcja obrazu, działanie prostych przyrządów

Bardziej szczegółowo

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H

P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H W O J S K O W A A K A D E M I A T E C H N I C Z N A W Y D Z I A Ł E L E K T R O N I K I Drukować dwustronnie P R Z E T W A R Z A N I E S Y G N A Ł Ó W B I O M E T R Y C Z N Y C H Grupa... Data wykonania

Bardziej szczegółowo

Metoda elementów skończonych

Metoda elementów skończonych Metoda elementów skończonych Wraz z rozwojem elektronicznych maszyn obliczeniowych jakimi są komputery zaczęły pojawiać się różne numeryczne metody do obliczeń wytrzymałości różnych konstrukcji. Jedną

Bardziej szczegółowo

(54) Sposób pomiaru cech geometrycznych obrzeża koła pojazdu szynowego i urządzenie do

(54) Sposób pomiaru cech geometrycznych obrzeża koła pojazdu szynowego i urządzenie do RZECZPOSPOLITA POLSKA (12) OPIS PATENTOWY (19)PL (11)167818 (13) B1 Urząd Patentowy Rzeczypospolitej Polskiej (21) Numer zgłoszenia: 2 9 3 7 2 5 (22) Data zgłoszenia: 0 6.0 3.1 9 9 2 (51) Intcl6: B61K9/12

Bardziej szczegółowo

Inżynieria odwrotna w modelowaniu inżynierskim przykłady zastosowań

Inżynieria odwrotna w modelowaniu inżynierskim przykłady zastosowań Inżynieria odwrotna w modelowaniu inżynierskim przykłady zastosowań Dr inż. Marek Wyleżoł Politechnika Śląska, Katedra Podstaw Konstrukcji Maszyn O autorze 1996 mgr inż., Politechnika Śląska 2000 dr inż.,

Bardziej szczegółowo

Biometryczna Identyfikacja Tożsamości

Biometryczna Identyfikacja Tożsamości c Adam Czajka IAiIS PW 27 maja 2014 1/37 Adam Czajka Wykład na Wydziale Elektroniki i Technik Informacyjnych Politechniki Warszawskiej Semestr letni 2014 c Adam Czajka IAiIS PW 27 maja 2014 2/37 Budowa

Bardziej szczegółowo

opracował Adam Nowiński

opracował Adam Nowiński opracował Adam Nowiński Projekt Glass, czyli? projekt rozwijany przez firmę Google mający na celu stworzenie okularów rozszerzonej rzeczywistości. Okulary te mają docelowo mieć funkcje standardowego smartfona,

Bardziej szczegółowo

LABORATORIUM ELEKTROTECHNIKI POMIAR PRZESUNIĘCIA FAZOWEGO

LABORATORIUM ELEKTROTECHNIKI POMIAR PRZESUNIĘCIA FAZOWEGO POLITECHNIKA ŚLĄSKA WYDZIAŁ TRANSPORTU KATEDRA LOGISTYKI I TRANSPORTU PRZEMYSŁOWEGO NR 1 POMIAR PRZESUNIĘCIA FAZOWEGO Katowice, październik 5r. CEL ĆWICZENIA Poznanie zjawiska przesunięcia fazowego. ZESTAW

Bardziej szczegółowo

Weryfikacja geometrii wypraski oraz jej modyfikacja z zastosowaniem Technologii Synchronicznej systemu NX

Weryfikacja geometrii wypraski oraz jej modyfikacja z zastosowaniem Technologii Synchronicznej systemu NX Weryfikacja geometrii wypraski oraz jej modyfikacja z zastosowaniem Technologii Synchronicznej systemu NX Projektowanie i wytwarzanie form wtryskowych, przeznaczonych do produkcji wyprasek polimerowych,

Bardziej szczegółowo

Instrukcja obsługi programu PowRek

Instrukcja obsługi programu PowRek Instrukcja obsługi programu PowRek środa, 21 grudnia 2011 Spis treści Przeznaczenie programu... 4 Prezentacja programu... 5 Okno główne programu... 5 Opis poszczególnych elementów ekranu... 5 Nowy projekt...

Bardziej szczegółowo

INTERFEJS TDM ZOLLER VENTURION 600 ZASTOSOWANIE W PRZEMYŚLE. Streszczenie INTERFACE TDM ZOLLER VENTURION 600 USE IN THE INDUSTRY.

INTERFEJS TDM ZOLLER VENTURION 600 ZASTOSOWANIE W PRZEMYŚLE. Streszczenie INTERFACE TDM ZOLLER VENTURION 600 USE IN THE INDUSTRY. DOI: 10.17814/mechanik.2015.8-9.461 Mgr inż. Tomasz DOBROWOLSKI, dr inż. Piotr SZABLEWSKI (Pratt & Whitney Kalisz): INTERFEJS TDM ZOLLER VENTURION 600 ZASTOSOWANIE W PRZEMYŚLE Streszczenie Przedstawiono

Bardziej szczegółowo

Webowy generator wykresów wykorzystujący program gnuplot

Webowy generator wykresów wykorzystujący program gnuplot Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Marcin Nowak nr albumu: 254118 Praca inżynierska na kierunku informatyka stosowana Webowy generator wykresów wykorzystujący

Bardziej szczegółowo

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji

Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki

Bardziej szczegółowo