TECHNIKI KOMPUTEROWE

Wielkość: px
Rozpocząć pokaz od strony:

Download "TECHNIKI KOMPUTEROWE"

Transkrypt

1 INSTYTUT MASZYN MATEMATYCZNYCH TECHNIKI KOMPUTEROWE BIULETYN INFORMACYJNY BIOMETRIA 2007 WYDANIE SPECJALNE MONOGRAFICZNE Warszawa 2008

2 TECHNIKI KOMPUTEROWE BIULETYN INFORMACYJNY

3 INSTYTUT MASZYN MATEMATYCZNYCH TECHNIKI KOMPUTEROWE BIULETYN INFORMACYJNY Rok XLII, Nr 1, 2007 BIOMETRIA 2007 WYDANIE SPECJALNE MONOGRAFICZNE Warszawa 2008

4 TECHNIKI KOMPUTEROWE, Biuletyn Informacyjny Rok XLII, Nr 1, 2007 Wydawca: Instytut Maszyn Matematycznych Biometria 2007 Wydanie specjalne monograficzne Redakcja naukowa: Andrzej W. Mitas, Politechnika Œl¹ska tel mail: Recenzent: dr hab. Piotr Porwik, Uniwersytet Œl¹ski tel mail: Projekt ok³adki: Jerzy Kowalski DTP: Instytut Maszyn Matematycznych Notka wydawcy: Ca³a zawartoœæ niniejszego wydania, wraz z rysunkami i zdjêciami jest w³asnoœci¹ Instytutu Maszyn Matematycznych oraz Autorów. Kopiowanie i reprodukowania niniejszego biuletynu w ca³oœci lub czeœci jest bez zezwolenia Wydawcy zabronione. ISSN Instytut Maszyn Matematycznych Warszawa, ul. Krzywickiego 34 Druk i oprawa: Oficyna Wydawniczo-Poligraficzna ADAM

5 Spis treœci S³owo wstêpne Biometryczne gwarancje praw obywatelskich, Miros³aw Owoc (wersja polska) Review of biometric problems in , Jan Ry ko T echniki biometryczne - podstawowe parametry jakoœciowe, Marcin Bugdol, Andrzej W. Mitas Biometryczne systemy weryfikacji to samoœci z perspektywy zastosowania w warunkach pozalaboratoryjnych, Adrian Kapczyñski Przegl¹d technologii i kierunków rozwoju bezpiecznego dokumentu elektronicznego, Leon Rozbicki, Miros³awa Pluciñska Kryptografia biometryczna w aspekcie wzmacniania podpisu elektronicznego, Andrzej W. Mitas, Dariusz Mostowski, Marcin Bugdol Wybrane zagadnienia z daktyloskopii w aspekcie biometrycznego wzmacniania podpisu cyfrowego, Dariusz Mostowski, Andrzej W. Mitas Local Binarization and fingerprint area extraction in recognition systems, ukasz Wiêc³aw, Piotr Porwik Automatyczne rozpoznawanie twarzy - metody, problemy, zastosowania, Maciej Smiatacz, Witold Malina: Using dynamic features and linear regression to signature verification, Tomasz Para, Rafa³ Doroz Biometric measurement of the scent, Jowita Maciaszek Scenariusze i algorytmy biometrii multimodalnej Krzysztof Dudek, Andrzej W. Mitas x x x x

6

7 Słowo wstępne Instytut Maszyn Matematycznych prowadzi prace naukowo-badawcze, a także badawczo-wdrożeniowe z udziałem pracowników naukowych z całego kraju, także zagranicy. W przypadku autora niniejszego wstępu współpraca ta sięga ćwierćwiecza. Istotnym elementem tej współpracy jest realizowana od roku 2000 konferencja naukowa o zasięgu międzynarodowym, pod wspólnym tytułem Biometria. Interesujące, kompaktowo organizowane spotkania praktyków i naukowców z dziedziny biometrii, stanowią forum praktycznej wymiany informacji, wpisując się w profil zamierzeń badawczych Instytutu Maszyn Matematycznych. Ważnym wymiarem tych spotkań naukowych są doroczne publikacje w postaci zeszytu naukowego, stanowiącego źródło literaturowe zarówno dla badań naukowych, jak i punkt orientacyjny dla przedsiębiorców, poszukujących nowych koncepcji produktów rynkowych. Nowatorski charakter biometrii (raczej w sensie powszechnego zainteresowania, niż sensu stricte, zważywszy na wiekowy rodowód rozpoznawania odcisków palców) implikuje konieczność definiowania pojęć, z gruntu podstawowych. Już w odniesieniu do nazwy dyscypliny pojawiają się rozmaite słowa, w szczególności biometria oraz biometryka. Rozwiązaniem wydają się być technologie biometryczne, bo z pragmatyki językowej obie powyższe nazwy w opisie technologii dają ten sam rezultat leksykalny. Autor jest zwolennikiem biometrii, nie odbierając przecież prawa do innych form, ponieważ konstytuowanie się nowych słów w języku potocznym kieruje się własnymi, raczej socjologicznymi prawami. Biometria jako dyscyplina naukowa cieszy się długoletnią historią. Kamienie milowe jej rozwoju to użycie odcisków palców oraz, znacznie późniejsze w czasie, użycie maszyny matematycznej do prób automatyzacji weryfikacji danych biometrycznych. Wzrost mocy obliczeniowych sprzętu informatycznego oraz jego dostępność, stwarza dogodny klimat dla prowadzenia niezwykle interesujących prac naukowych przez coraz lepiej przygotowanych badaczy. Wspólnym mianownikiem tych prac jest szacunek do zmienności osobniczej człowieka, ponieważ najbardziej nawet przemyślane i formalizowane badania napotykają w fazie eksperymentalno-wdrożeniowej na rozliczne problemy, wynikające właśnie z niestałości cech biometrycznych, wysokiego poziomu zakłóceń, czy trudności pozyskania danych. Wprowadzeniem do niniejszego wydania jest artykuł pana profesora Mirosława Owoca, najlepiej chyba plasujący biometrię w naszej codzienności, nie tylko w aspekcie przydatności, ale wręcz konieczności jej upowszechniania. Wzrost stopnia złożoności, nadmiar obowiązków, tzw. wyzwania cywilizacyjne, zmuszające nas do chorobliwego pośpiechu - to niekorzystnie determinanty naszych zachowań, w wyniku czego nawet własnoręczny podpis ulega zbyt drastycznym uproszczeniom. Liczba transakcji, umów, dokumentów wymagających uwierzytelnienia dramatycznie rośnie, a realne sposoby tegoż

8 8 Słowo wstępne uwierzytelniania potwierdzają z reguły jedynie posiadanie identyfikatorów. W tym ujęciu trudno o lepszą motywację rozwoju biometrii. Relatywnie krótki rodowód automatyzacji zastosowań biometrii jest przyczyną niedostatków w zakresie absolutnie jednoznacznych kryteriów porównawczych. Określenie tych kryteriów jest być może w ogóle niewykonalne, z uwagi na wieloaspektowy charakter biometrii. Przejawem tego jest wprowadzanie własnych, indywidualnych współczynników do określania poziomu jakości, choć istniejąca w tym kontekście standaryzacja właściwie powinna być przeciwwskazaniem dla takich działań. Jednoznaczne kwestionowanie subiektywizmu prezentacji dociekań naukowych byłoby chyba jednak nieuzasadnione, ponieważ zawężałoby obszary poszukiwań do doskonalenia już poznanych technik, czy poszukiwania modyfikacji algorytmów. Kolejne rozdziały niniejszej publikacji prezentują najpierw stan rynku biometrycznego, czyli realną determinantę podejmowanych prac, a następnie wybrane tematy o naukowo-badawczym charakterze. Ważny aspekt poszukiwań stanowi dziś jeszcze słabo ugruntowana biometria behawioralna, czyli ta, która odwołuje się do reakcji człowieka na zadawane pobudzenia, oddziałujące na zmysły człowieka. Wobec ryzyka utraty jednorazowych w swej istocie wzorców biometrycznych pochodzenia fizjologicznego, ta właśnie dziedzina biometrii ma doskonałe perspektywy. Dziękując Autorom nadesłanych prac za ich wysiłek, wyrażam nadzieję na kontynuację dorocznych spotkań naukowych w ramach konferencji Biometria. Andrzej W. Mitas

9 TECHNIKI KOMPUTEROWE 1/2007 Mirosław Owoc Katedra Kryminalistyki Uniwersytet im. Adama Mickiewicza w Poznaniu Biometryczne gwarancje praw obywatelskich Biometric guarantees of civil rights Streszczenie Każdy człowiek ma indywidualnie ukształtowane linie papilarne, łatwo dostępne oraz łatwo identyfikowalne technikami biometrycznymi. Właśnie nadszedł stosowny czas, by poważnie zastanowić się nad wprowadzeniem rzeczywistej identyfikacji osób w miejsce obecnie stosowanej identyfikacji dowodów osobistych. Wstępnie wystarczy zaopatrzyć dowód osobisty w optyczny obraz odcisku palca, łatwo weryfikowalny na oko jak i automatycznie. Finalnie dążyć można do wprowadzenia powszechnej, cywilnej registratury daktyloskopijnej, gwarantującej niezawodną identyfikację obywatela na każde jego żądanie. Abstract Every human being has individually shaped papillary lines. Those lines can be easily taken and easily identified by means of biometric techniques. It is the right time now to consider implementation of a real identification of persons seriously, and to replace the currently used identification of ID cards. To begin with, it shall suffice to ensure that each ID card has an optical fingerprint, which can be easily verified 'at a glance' with a naked eye, as well as automatically. Eventually, a universal civil registry should be set up, which will guarantee a reliable identification of a citizen at his or her every request. 1. Wstęp Pojęcie prawa obywatelskie zawiera w sobie zobowiązanie państwa do zapewnienia prawnej oraz fizycznej możliwości korzystania z określonych uprawnień. Nadto państwo zobowiązane jest chronić swych obywateli przed działaniem przestępców oraz działaniem opieszałych lub niekompetentnych urzędników państwowych. Konieczność szybkiego określania kompetencji wielu ludzi wymusza uproszczenie i przyspieszenie procedur sprawdzających tożsamość. Jedynym roztropnym rozwiązaniem w chwili obecnej (koniec roku 2007) jest wprowadzenie procedur biometrycznej weryfikacji tożsamości. Aktualnie praktyką powszechną jest założenie, że dowolnej rangi dokumenty tożsamości przez samą swą nazwę gwarantują łatwe

10 10 Mirosław Owoc a zarazem bezbłędne stwierdzenie, czy okaziciel dokumentu jest tą osobą, dla której dokument wydano. To błędne założenie prowadzi do licznych nadużyć o przestępnym charakterze. Likwidacja owych nadużyć, połączona z przyspieszeniem i uwiarygodnieniem procedur identyfikacyjnych, jest możliwa dzięki rozwiązaniom biometrycznym. Łatwo wykazać, że najbardziej podstawowe prawa obywatelskie (czynne prawo wyborcze, prawo do sprawiedliwego sądu oraz prawo do ochrony życia i zdrowia) są naruszane przez władze administracyjne i sądownicze. Można podać przykłady najbardziej masowe, najbardziej dotkliwe i najbardziej bulwersujące. 2. Gwarancja prawa do czynnego udziału w wyborach Polskie wybory parlamentarne 21 października 2007 charakteryzowała frekwencja większa niż zazwyczaj. Odwróciło to uwagę komentatorów od przykrego faktu, iż wielu tysiącom ludzi odebrano w ogóle możliwość wzięcia udziału w wyborach albo znacznie możliwość tę ograniczono. Rzecz polegała na tym, iż: pobyt w dniu wyborczym poza stałym miejscem zamieszkania musiał być z dużym wyprzedzeniem zgłoszony; pobyt za granicą wymuszał uprzednią rejestrację w komisji obwodowej; brak dokumentu tożsamości wykluczał możliwość głosowania. Ograniczenia te miały zapobiec nadużyciom ze strony obywateli, a zwłaszcza uniemożliwić głosowanie wielokrotne tej samej osoby. Przez tę samą osobę rozumiano jednak ten sam dowód osobisty, bo było to najprostsze do wykonania. Dążenia urzędników do prostoty działań należy uznawać w przypadkach powszednich, przy czynnościach o charakterze powtarzalnym, ale niekoniecznie trzeba zaaprobować w przypadku działań niecodziennych zwłaszcza w państwie, które tak intensywnie powiewa sztandarem praw obywatelskich, że obok Rzecznika Praw Obywatelskich powołuje Głównego Inspektora Ochrony Danych Osobowych o przedziwnych kompetencjach. Jak wiadomo, krowy nie dysponują prawami porównywalnymi z prawami obywatelskimi, a jednak administracja państwowa zadbała o ich identyfikację bardziej dokładnie niż o identyfikację obywateli. Zrozumiałe, iż nieusuwalne kolczyki z numerem PESEL trudno było zaproponować ludziom, a tatuowanie numerów na przedramieniu (wzorem praktyk oświęcimskich) też nie wchodziło w rachubę. Przymuszono zatem obywateli do posiadania dowodów osobistych. Posiadania i noszenia ich

11 Biometryczne gwarancje praw obywatelskich 11 ze sobą, pod rygorem utraty możliwości korzystania z podstawowych praw w omawianym przypadku pod rygorem utraty możliwości głosowania. W młodych demokracjach azjatyckich oraz w Afryce centralnej sprawę rozwiązuje farbowanie palca po oddaniu głosu. Nie stanowi zatem problemu brak dowodu osobistego albo brak nazwiska danego wyborcy na liście wyborczej konkretnego obwodu wyborczego. 3. Gwarancja prawa do sprawiedliwego sądu Akt oskarżenia musi zawierać dane identyfikujące osobę sprawcy oraz opis zarzucanego czynu. Trudno sobie wyobrazić sprawiedliwy sąd w sytuacji, gdy identyfikację osoby sprawcy oparto jedynie na ustnej wypowiedzi rzeczywistego sprawcy czynu przestępnego. Wcale nierzadko schwytani na gorącym uczynku sprawcy drobnych przestępstw [1] podają wyuczone zawczasu personalia osób trzecich (łącznie z numerem PESEL), a prowadzone w trybie uproszczonym postępowania kończą się (wobec absencji sprawcy) skierowaniem aktu oskarżenia przeciwko osobie nie mającej żądnego związku ze sprawą. Spraw takich są setki rocznie (a może nawet tysiące) w skali kraju, a próby wyjaśniania sprawy poprzez kosztowne badania identyfikacyjne podpisów składanych na protokołach przesłuchań są z reguły skazane na niepowodzenie. Z kolei skradziony dowód osobisty, jak wiadomo, nie nadaje się do weryfikacji tożsamości w stopniu większym niż znikomy. Kwitnie zatem zorganizowana przestępczość kredytowa, polegająca na zaciąganiu pożyczek obciążających prawowitego posiadacza tego dowodu. W wielu przypadkach sądy cywilne nie mogą przyjąć tłumaczenia osoby pozwanej, że dowód osobisty jej ukradziono, gdy odpowiedniego zgłoszenia tego faktu dokonała dopiero w jakiś czas po kradzieży. Dopóki identyfikacja pożyczkobiorcy legitymującego się cudzym dowodem osobistym będzie polegała jedynie na oglądzie tego dowodu tożsamości, przestępcy będą działać spokojnie, a sądy cywilne będą nadal zasądzać odszkodowania i nakazy spłaty nie swoich długów. Podobnie nic dobrego nie można powiedzieć o bezpieczeństwie środków pieniężnych obywatela, zgromadzonych na koncie dostępnym poprzez współczesną kartę płatniczą. Zabezpieczenie PIN-em jest nieefektywne, a rozwiązania przyjęte w oddziałach terenowych (działających w systemie off-line) umożliwiają pobieranie gotówki nawet z pustego konta. 4. Gwarancja prawa dostępu do należnych usług medycznych Żywić należy nadzieję, że wprowadzenie Rejestru Usług Medycznych, wykorzystującego odcisk palca jako jeden z identyfikatorów, oswoi

12 12 Mirosław Owoc społeczeństwo z użyciem linii papilarnych do celów identyfikacji osób nieprzytomnych oraz tych, które właśnie potrzebują interwencji lekarskiej a nie mają przy sobie Karty Ubezpieczenia Zdrowotnego (KUZ). 5. Wstępne, proste i szybkie rozwiązanie problemu Rozwiązanie z odciskiem palca w dowodzie osobistym, na karcie płatniczej oraz na KUZ jest najprostsze. Prostota zaś ma to do siebie, że sprawdza się bardzo dobrze w sytuacjach codziennych, nie wymaga stosowania żadnych aparatów (choć ich użycia nie wyklucza), a w przypadku awarii nie powoduje paraliżu całego systemu. Ponadto: linie papilarne są dużo łatwiejsze do porównania w celach identyfikacyjnych niż podpis, a do weryfikacji w trybie jeden do jednego nie jest potrzebna wiedza eksperta [2], dla linii papilarnych opracowano metody sprawnego, automatycznego pobierania i porównywania, natomiast nic takiego nie jest możliwe w przypadku odręcznego podpisu, wzór linii papilarnych jest bardziej indywidualny niż struktura DNA [3]. Zarówno od wielkiego święta (np. przy okazji wyborów parlamentarnych) jak i na co dzień (np. przy okienku kasowym w banku i na poczcie, w warunkach giełdy samochodowej, przy zawieraniu umów wszelkiego rodzaju zwłaszcza kredytowych) urzędnik, kasjer, notariusz albo nawet zwykły zjadacz chleba mogą szybko i bezbłędnie sprawdzić tożsamość osoby legitymującej się dowodem osobistym zawierającym optyczny obraz odcisku palca. Mogą zresztą nie sprawdzać wystarczy na liście wyborczej, umowie, czeku, rachunku złożyć odbitkę palca, by w przyszłości (w razie sporu) tożsamość tę potwierdzić bądź wykluczyć. 6. Finalne rozwiązanie problemu Wprowadzenie powszechnej, cywilnej registratury daktyloskopijnej w formie biometrycznej wykluczy opisane przypadki ograniczania swobód obywatelskich oraz zlikwiduje przymus noszenia dowodu osobistego i związane z tym niebezpieczeństwo jego utraty. Dobrowolne poddanie się biometrycznej (daktyloskopijnej) rejestracji i kontroli nie jest naruszeniem Konstytucji RP (wbrew niedawnym insynuacjom GIODO [4]). Zatem obywatele wybierający opcję wykazywania swej tożsamości poprzez okazanie wzoru linii papilarnych (wystarczy, że tylko na jednym palcu!) mogą być zwolnieni z obowiązku stałego noszenia przy sobie dowodu osobistego, a w przyszłości być może nawet z obowiązku jego posiadania. Wolny obywatel sam wybierze taką

13 Biometryczne gwarancje praw obywatelskich 13 formę legitymowania się, która zapewni mu zarówno swobodniejsze korzystanie z praw wyborczych jak i pewniejszą ochronę przed niesłusznym oskarżeniem, płaceniem nie swoich długów oraz umożliwi korzystanie z pełni przysługujących mu usług medycznych w nagłych przypadkach. 7. Podsumowanie Każdy człowiek ma indywidualnie ukształtowane linie papilarne, łatwo dostępne oraz łatwo identyfikowalne technikami biometrycznymi. Właśnie nadszedł stosowny czas, by poważnie zastanowić się nad wprowadzeniem rzeczywistej identyfikacji osób w miejsce obecnie stosowanej identyfikacji dowodów osobistych. Wstępnie wystarczy zaopatrzyć dowód osobisty w optyczny obraz odcisku palca, łatwo weryfikowalny na oko jak i automatycznie. Finalnie dążyć można do wprowadzenia powszechnej, cywilnej registratury daktyloskopijnej, gwarantującej niezawodną identyfikację obywatela na każde jego żądanie. Przypisy [1] Najbardziej liczne są przypadki jazdy na gapę pociągiem lub tramwajem. Vide problem miasta Szczecina. [2] M. Owoc, Podpis własną krwią, (w:) Kryminalistyczna ekspertyza pismoznawcza a grafologia. Materiały X Wrocławskiego Sympozjum Badań Pisma, red. Zdzisław Kegel, Wrocław 2003, s [3] Około 3 populacji stanowią bliźnięta jednojajowe; zatem w Polsce aż ludzi nie można zidentyfikować na podstawie badań DNA. Jeśli zważyć, że co roku 2-3 % populacji wchodzi w konflikt z prawem, to 2400 do 3600 spośród tej subpopulacji nie można by zidentyfikować na podstawie DNA, gdyby taką identyfikację przyjąć za wzorzec. [4] M. Owoc, Konstytucyjne prawo do wizerunku palca, Problemy Kryminalistyki 253/2006, s. 5-8.

14

15 TECHNIKI KOMPUTEROWE 1/2007 Jan Ryżko The Institute of Mathematical Machines, Warsaw Review of biometric problems in Przegląd zagadnień biometrycznych w latach Abstract The share of different technologies in biometric market is quoted from 1999 to Details about some technologies are given. Three main groups of applications are described. Development of biometric market now and its forecast is presented. Data about revenues and profitability of some companies are shown. General opinion about present state of biometric industry is expressed. Streszczenie Przedstawiono udział poszczególnych technik w rynku biometrycznym na przestrzeni lat O niektórych technikach podano szczegóły. Omówiono trzy główne grupy zastosowań. Opisano aktualny stan rynku biometrycznego i prognozy na najbliższe lata. Przytoczono przychody i dane o rentowności niektórych firm. Wyrażono opinię o aktualnym stanie przemysłu biometrycznego. 1. Introduction were successive years of dynamic development of biometrics. According to International Biometric Group (IBG) [1] the increase of biometric industry revenues achieved was 41,4% in and was expected to be 38,4% in In this paper some statistics and examples connected with this development will be shown grouped in the subjects of technologies, applications and market. 2. The most frequently used biometric technologies In [2] is shown the share of different biometric technologies in biometric market in Over one third of the market is AFIS / Life-Scan technology. In the previous years this technology was separated from the rest of the market and the proportions of other technologies were counted in the market without AFIS. It seems that the present representation is more reasonable. Over a quarter of the market is normal fingerprint technology and face recognition is in third place. The new technologies, which appear for the first time in the statistics, are: vein recognition and multiple-biometric. The signature technology is not represented this year on the diagram. Unusually high (4%), in comparison to previous years, are

16 16 J. Ryżko other modalities. That means that emerging technologies develop very fast and soon may appear on the registered technology list. One of them may be keystroke dynamics which has been gaining ground in recent years [3]. Table 1 shows changing proportion of all these technologies with time. Data for 1999 are taken from [4] and forecast for 2015 from [5]. The proportion of AFIS was at a maximum in 2003 and proportion of fingerprint technology decreases all the time similarly like hand geometry, but in the latter the drop is much lower. Face recognition has the greatest proportional increase in recent years, whereas iris recognition, which is considered the most accurate technology, has a much slower growth in this period. In 2015 both technologies ought to obtain a similar share of the market. Voice recognition and signature had larger share in 1999 and in 2015 the share ought to increase. Retina recognition was taken into consideration only in 1999 and middleware is not treated by all authors as biometric technology. To illustrate the development of fingerprint and AFIS technologies on there are shown different siliconbased sensors designed, produced and sold by AuthenTec company. The sensors are grouped in 3 categories, dependent on applications. The first and the largest (over 17 million until the middle of November 2007) is that used in 220 models of PC and other peripheral devices. The second, with huge perspectives, covers wireless devices, mainly cell phones (over 7 million in the same period). The last one, the oldest, concerns classical access control applications. Table 1. Percentage share of different technologies in biometric market Technology\year AFIS / Live Scan Fingerprint Face Recognition Middleware Iris Recognition Retina Recognition 0.6 Hand Geometry Voice Recognition Signature Multiple-Biometric 2.9 Other Modalities 44 Starting in 1998, AuthenTec shipped one million of sensors during the five years. The following three years brought this number to 10 million and another year to 20 million. The last five million were shipped in a period of only five months. The company is leader among the

17 Review of biometric problems in manufacturers and distributors of fingerprint sensors, others being UPEK, Atmel, Fujitsu, Sequiam. From 2000, a fingerprint verification competition was organized for fingerprint software companies, where their algorithms are tested and evaluated. The winners obtain medals as in the sport competitions. In the first such competition, when only 11 algorithms were entered, the French supplier Sagem was winner [6]. In the second, FVC2002 Bioscrypt, Canadian company, and furthermore a clear improvement in performance was observed [7]. From the third, FVC2004, the competitions are performed in two categories: open and light. They differ in enroll and match time limits and limits for model size and allocated memory for light category. In 2004 Bioscrypt was again winner in the open category and Suprema from South Korea in light category. On there are the medal tables from the last such competition in 2006 [8]. Here Suprema was the best in open category, and independent developer Ji Hui in light category. The majority of winners have Asian origin including many Chinese institutions. It is in accordance with title of the stream 6 of Biometrics 2007: Asia Pacific: Lands of Opportunities and Innovation. It is interesting to note a Lithuanian company Neurotechnologija, which took part in all these competitions. There appear also anonymous participants. Another sort of fingerprint system testing is Vendor Evaluation performed by National Institute of Standards & Technology (NIST) in the USA. Results of such tests from 2003 [9] show that the best systems are developed by NEC, Sagem and Cogent companies. Similar tests are performed also for other technologies. For example Facial Recognition Vendor Test of 2002 (FRVT 2002), found Cognitec, Identix and Eyematic companies as the best then in this technology [10]. Three years later for the Immigration & Checkpoints Authority (Singapore) Unisys performed trials using three-dimensional facial recognition in border control checks [11]. The results show a great success and a future promise of the technology. At the Biometrics 2007 Conference [12] the great improvement in face recognition performance was demonstrated. Next to, Fig. 1, one of the vision scanners is shown [13]. As was mentioned already, the iris recognition technology looks to be one of the most promising solutions and although the US and international patent on the subject expired last time [14], it is still new and rather expensive technology. Frankfurt Airport s BioP II trial [15] revealed that iris recognition was estimated as the last one, after fingerprint and facial technology, this was predominantly because of the difficulties people had in using the system. Later the Home Office announced a sidelining

18 18 J. Ryżko (although not ruling it out completely) of iris recognition from UK ID card [16]. Recent news about the iris recognition describe HBOX, a new iris at a distance technology [17, 18]. Fig.1 At the end of technology chapter there are a few examples of using vein technology. Fig. 2 demonstrates how to use a Fujitsu PalmSecure system with a line of notebook computers [19]. Earlier there had been information about application of the technology in the Public Library of Naka City, Japan, as a substitute for conventional library cards [20]. Soon the technology was applied also in the USA [21]. The same PalmSecure system was used at the City of Angels Medical Centre to securely login to patients records and other medical applications. In New York, Hitachi s finger vein authentication technology was used by Shinkin Central Bank to access control systems. Fig. 2

19 Review of biometric problems in So fingerprint technology is the most mature one and its share in the biometric market for a long time will be the largest, but it decreases as other technologies develop. 3. Applications There are different divisions of biometric applications. Two years ago [22] there was quoted International Biometric Group (IBG) division on horizontal applications and vertical markets, which current version you can find in [2]. In [23] there is another division presented. According to [5] in ,6% of worldwide biometric market belong to public sector and 35,4% to commercial sector. The same source expects in 2015 respectively 47,6 and 52,4%. In [5] is shown (in general way of course) market demand for some groups of applications in the decade It is difficult to find the exact market share a particular application has in biometric market. In [22] there is a attempt to estimate this by counting how frequently every application is mentioned in biometric press. In Table 2 there is a continuation of this idea for some applications, but evidently the correlation between these results and real share is not very high. Moreover in 2007 it was possible to obtain BTT for only four months. Nevertheless it is clear that in the great government programs and projects are the main sources of biometric industry development. Biometric ID documents make important part of them. It appears that their price is several times higher than old ones and so cost of these programs increases considerably. Table 2. Percentage share of applications according to BTT publications Application Application Identity documents Access control ID cards Informatics security passports Low enforcement driving licence Telecommunication visas Time & Attendance credentials Borders protection Financial Aero ports banks Trade ATM Health service cheque cashing Terrorism protection Fig. 3 shows two biometric passports. First is British [24] and second Singaporean [25]. The last one uses Extended Access Control (EAC) technology, which utilises a complex interchange between public and private key pairs in the microprocessor and the reader, and is also planned

20 20 J. Ryżko for European Union (EU) countries in 2009 [26]. The International Civil Aviation Organization (ICAO), which already in 2003 recommended that all its member countries adopt the use of biometric epassports, estimates that more than 40 countries have taken steps to secure their travel documents [27]. Fig. 3 British and Singaporean biometric passports Also the price of biometric visas is higher. At the beginning of 2006 this increase was estimated at about 70% for travel visa to EU countries [28]. The European Parliament adopted the legislative package on the Visa Information System (VIS) in June The Swedish Migration Board VIS Project is described in detail in [29], showing the requirements and outcomes as well as the time schedule of rolling out the enrolment stations. Another paper [30] shows the implementation of BIODEV II, an EU founded Visa Pilot Project involving Austria, Belgium, France, Germany, Luxemburg, Portugal, Spain and the UK. Works and studies connected with developing of biometric national identity cards were undertaken in several countries. The most known are those in UK. Already in 2004 the UK Passport Service revealed multi-step plan of solving the problem [31]. Later that ambitious scheme met strong opposition in parliament as the report of the London School of Economics predicted significantly higher costs for ID cards than had been estimated by the government [32]. Recently the procurement phase of the scheme has been announced [33]. There is also information about such activity in other countries such as Germany [34] and even in USA [35]. The situation in whole Europe was described in [36]. In USA, where driving licence is frequently the only ID document, biometric licences solve problems of fraud in the field. This concerns with other countries [37, 38].

21 Review of biometric problems in The last sort of identity documents are different credentials. The International Labour Organization (ILO) adopted such a system for maritime workers across the world [39]. In the USA, the Transportation Security Administration leads the Transportation Worker Identification Credential (TWIC) programme [40]. Earlier such credentials were proposed for the global aviation community [41]. All these programmes have been continued in as well as others connected with immigration like US-VISIT [42, 43]. Some of theme encounter difficulties [44], while others develop well [45]. One of the most often de-scribed application is registered traveller scheme, both on in international [46, 47] and national [48] scale. Admittedly many of these programs are still at the trial stage, using volunteers only, but their range is so large that soon they will dominate other applications. Some of them are launched by government agencies [49], others are privately run [50]. Many trusted traveller initiatives connected mainly with Canada - USA border are described in [51] such as bi-national NEXUS, and Canadian CANPASS programs. There are a few only reports about financial applications of biometrics, usually in banks [52, 53]. Because earlier there was more information about that, the title of [54] is: Biometrics move from banking to borders. Industry analyst firm Celent presents adoption of biometrics in the banking sector (graph 3 of [55]). Some applications as that in healthcare are reviewed in larger way [56]. About others one must look in biometric periodical news or press releases on vendor pages [57]. 4. Market The biometric market has undergone considerable changes. It was manifested, among others, by strong consolidation of the market. Table 3 shows [21] the most important acquisitions in As a result of that the great company L1-Identity Solutions, Inc. was formed which offers the biometric systems of all main biometric technologies and consulting services within the topic. The companies which earlier acted independently were merged or taken over and are now subsidiaries of main company. The most known consolidation decision was widely described [58]. Also the acquisition of A4Vision, known provider of 3D facial imaging and recognition technology, by Bioscrypt, most known from it fingerprint-based enterprise access control technologies, was a significant event in the market [59].At the same time Bioscrypt consolidated it offices to centralize management structure [60]. Other organizational changes were announced at Swedish fingerprint and smart card technology

22 22 J. Ryżko company Precise Biometrics to improve efficiency and marketing strategy [61]. Table 3. Consolidation of biometric market in Fig 4 shows quarterly revenues of some biometric companies in L-1 Identity Solutions revenues increase partly due to further consolidation, but also thanks to increase number of signed contracts. Revenues of other companies are on the much smaller level. Fig. 4 Quarterly revenues of some biometric companies

23 Review of biometric problems in Fig. 5 Profitability of some biometric companies Profitability, defined as quotient of net income (loss) to revenue expressed in per cent, is shown on Fig 5. Only the Cogent company has had net incomes during the all period. The majority of others had net losses and some of them, like Precise Biometrics, reported losses which were multiples of their revenues. It was not possible to show here the diagram for the Saflink company, when the quotient loss to revenue was equal some dozens in 2006 and the company received the notice from Nasdaq that it would be delisted from the Nasdaq Capital Market [62]. At the end, in September 2007 (Table 3) Saflink was acquired by IdentiPHI. Fig. 6 Annual Biometric Industry Revenues according to International Biometric Group and Aculty Market Intelligence

24 24 J. Ryżko Some forecasts of the annual biometric industry revenues are shown on Fig 6. The revenues increase considerably and forecasts for the next few years are opimisic. The divergences between IBG [2] and ACI [5] curves for the years are caused probably by another definition of bio-metric revenues. On the Table 4 there are projected percentage increases (year to year) of these rev-enues from the data of Table 4. Percentage annual increase of biometric industry revenues years increase according increase according to IBG 05 to AMI At the end of the market chapter on Table 5 is shown the geographic division of the biometric market. The data are taken from [4] and [5]. In 1999 North America had 57% share of the market and this share diminishes tol 25% in 2015, at the same time the share of Asia-Pacific increases from 9,3 to 36%. It seems that the European share (together with Middle East and Africa) was the largest in 2007, 47%. Table 5. The share of particular continents in the biometric market North America Latin America Asia-Pacific Europe, Middle East, Africa Europe Conclusions Above there are some data about development of the biometric industry in recent years and speculation of its further progress. Here is a more general characteristic of the industry. After [55] is quoted SWOT Analysis: Strengths Perceived to be high security; Provides convenience;

25 Review of biometric problems in Augments existing technologies (ie it provides the perfect add-on as organisations move from two-factor to three-factor authentication); Industry is explaining itself better; Uniqueness of biometrics; Convenient technology; Cost of deployment falling. Weakness Tied to something so intrinsic, that if it were compromised it could be a serious problem; Return on Investment (ROI) not always easy to achieve; Accuracy level are not always considered high enough. Opportunities Well positioned to take advantage of the investment community s interest in the market; Virtually every consumer device could be protected by a biometric; Government sector still offers many opportunities; Commercial market offers bright future. Threats As it becomes increasingly well known, it will have to explain itself better; Companies need to deal with the fact that firms that have traditionally been partners, are rapidly also becoming competitors; Privacy and spoofing [63] concerns still need to be addressed; Lower cost of alternatives. And, as a last element of these conclusions, there are enumerated, after [5], the factors determining the biometric market development called by the author Mega Trends : Globalization & 3rd World Development Borderless Economies Workforce Decentralization & Mobility Population Mobility Mobile Devices & Trusted Access Anywhere Central Role of Digital Identity Inevitability of egovernment.

26 26 J. Ryżko References [1] Biometric statistics in focus, Biometric Technology Today (BTT), February 2006, p. 6 [2] [3] The science behind keystroke dynamics, BTT, February 2007, p. 7 [4] 1999 Market Review, BTT December 1999/January 2000, p. 8 [5] Maxine Most: Mega Trends and Meta Drivers for the Biometric Industry: , Biometrics 2007 Exhibition and Conference, stream 1 [6] Fingerprint competition scares off suppliers, BTT, October 2000, p. 3 [7] FVC2002 entrants set new high verification standards, BTT, October 2002, p. 2 [8] Davide Maltoni: Fourth Fingerprint Verification Competition, Biometrics 2007, stream 5 [9] FpVTE 2003: Results, BTT, September 2004, p.7 [10] FVRT 2002 results are in, BTT, April 2003, p.6 [11] 3D trials in Singapore the results so far, BTT, January 2006, p. 7 [12] Jonathon Phillips: FRVT 2006 and ICE 2006 Evaluation Results, Biometrics 2007, stream 5 [13] Biotech Buys Fingerprint ID Rights, Biometric Digest (BD), March 2006, p. 2 [14] Iris recognition takes steps into a brave new world, BTT, February 2006, p. 1 [15] Frankfurt Airport s BioP II trial unveils unexpected results, BTT, October 2005, p. 1 [16] UK ID card strategy sidelines iris recognition, BTT, November/December 2006, p.2 [17] HBOX: Iris at a distance prime for deployment, BTT, September 2007, p. 2 [18] Hector Hoyos, Keith Hanna: Use Cases for Iris at a distance, Biometrics 2007, stream 11 [19] Fujitsu To Do Palm Reading, BD, March 2006, p. 5 [20] Japonese public library to use palm vein, BTT, February 2006, p.4 [21] Hitachi and Fujitsu win vein orders in divers markets, BTT, March 2007, p. 4 [22] M. Plucińska, J. Ryżko: Nowe technologie i zastosowania w biometrii, Techniki Komputerowe 1/2005, p. 13 [23] Joel Fishbein, Jr: Investing In Biometrics, Biometrics 2007, stream 1 [24] New epassport Revealed, BD, December 2005, p. 2 [25] Biometric Passports Introduced in Singapore Aug 15, BD, July 2006, p.8 [26] EAC to enhance border security in EU, BTT, February 2007, p. 8 [27] The case for biometric passports in emerging markets, BTT, March 2007, p. 7 [28] Biometric visas to hike prices, BTT, March 2006, p. 1 [29] Mats Karlsson: Improving document and applicant security through uniform enrolment procedures on a global basis, Biometrics 2007, stream 2

27 Review of biometric problems in [30] Gillian Ormiston: BIODEV II How 8 countries are co-operating to test European Visa Policy, Biometrics 2007, stream 2 [31] UKPS reveals nine-step ID card plan, BTT, March 2004, p. 1 [32] UK ID card scheme limps past first Parliamentary hurdle..., BTT, July/August p. 1 [33] Biometric companies get set for UK s national ID card procurement, BTT, September 2007, p. 1 [34] Germans report on ID cards, BTT, June 2004, p. 2 [35] US public backs biometric ID, BTT, October 2005, p.3 [36] National ID Europe, BTT, October 2005, p.10 [37] UK Plans Biometric Driving Licenses, BD, March 2006, p. 4 [38] Biometric driving licence scheme underway in India, BTT, February 2007, p. 12 [39] New global security as maritime workers get biometric ID cards, BTT, May 2004, p. 1 [40] TWIC request for proposals raises cheers, BTT, July/August 2004, p. 2 [41] A global pilot credential, BTT, February 2004, p. 7 [42] Biometric industry to share in US$10 billion US-VISIT deal, BTT, July/August 2004, p. 1 [43] US-VISIT steps back from exit strategy, BTT November/December 2006, p. 3 [44] UK;s Project IRIS comes under fire, BTT, January 2007, p. 1 [45] UAE may extend iris border checks, BTT, April 2006, p. 1 [46] EU to consider widespread registered traveller scheme, BTT, September 2006, p. 1 [47] Trio of countries agree joint registered traveller trial, BTT, July/August 2006, p.1 [48] The US Registered Traveller Program, BTT, April 2006, p. 7 [49] TSA announces major roll out plan for Registered Traveller, BTT, January 2006, p. 1 [50] Private traveller programme gets the the all clear, BTT, June 2005, p. 3 [51] Molly Hay: Canadian View on Multinational Trusted Traveller Initiatives, Biometrics 2007, stream 4 [52] Major Japanese Banks Introducing Biometrics at More ATMs, BD, June 2006, p. 1 [53] Swiss bank opts for iris entry system, BTT, November/December 2006, p. 4 [54] [55] Industry squares up to multiple opportunities, BTT, January 2007, p. 8 [56] Biometrics in healthcare, BTT, September 2006, p. 9 [57] [58] Identix and Viisage shock industry with US%770 million merger, BTT, February 2006, p. 1 [59] Bioscrypt snaps up 3D face leader: Gets financing, BTT, February 2007, p. 2 [60] Bioscrypt consolidates offices, BTT, February 2007, p. 6 [61] New focus for Precise Biometrics, BTT, November/December 2006, p. 6

28 28 J. Ryżko [62] Mixed quarter for Saflink, BTT, November/December 2006, p. 6 [63] Jurgen den Hartog: The Dutch soccer trial: Hooligans give biometrics the finger?, Biometrics 2007, stream 7

29 TECHNIKI KOMPUTEROWE 1/2007 Marcin Bugdol, Andrzej W. Mitas Politechnika Śląska Techniki biometryczne podstawowe parametry jakościowe Biometric techniques basic performance parameters Streszczenie: W artykule przedstawiono wybrane parametry jakościowe wykorzystywane w ewaluacji systemów i technik biometrycznych. Z pośród ogromnej liczby współczynników skupiono się na zaprezentowaniu tych, które wydają się mieć największe znaczenie przy ocenie przydatności danego rozwiązania. Opisano różnice pomiędzy niektórymi grupami parametrów. Dodatkowo przedstawiono przykłady różnych definicji tych samych współczynników prezentowane w literaturze oraz problemy z obiektywną oceną systemów biometrycznych na przykładzie testów techniki tęczówki oka. Abstract In this paper selected performance parameters used in evaluation of the biometric systems and techniques are presented. Among a huge number of factors, those, which seem to be the most significant in estimation of usefulness of the given solution are introduced. Differences between some groups of the parameters are showed. Additionally, some examples of different definitions of the same parameters presented in literature and the problem of the objective evaluation of the biometric systems on the example of the iris technique are described. 1. Wstęp Obserwowany w dzisiejszych czasach postępujący proces globalizacji powoduje zmniejszanie się dystansu pomiędzy ludźmi i zacieranie granic między krajami. Wraz z tym procesem rośnie liczba udogodnień i ułatwień oferowanych ludziom. Niestety rośnie też liczba zagrożeń czyhających na człowieka poruszającego się w otaczającym nas świecie. Klasyczne metody zabezpieczeń i identyfikacji jednostki (oparte na numerach, hasłach lub też innych identyfikatorach), są niestety niewystarczające. Przyczyną tego faktu jest sam człowiek, będący najsłabszym ogniwem w systemie zabezpieczeń. Kody dostępu są zapominane, są łatwe do odgadnięcia lub też ujawniane pochopnie osobom postronnym. Z kolei wszelkie identyfikatory mogą zostać zgubione, podrobione, skradzione lub po prostu zniszczone.

30 30 A. Mitas, M. Bugdol W ostatnich kilkunastu latach w znaczącym stopniu rozwinęły się nowe techniki identyfikacji i weryfikacji człowieka oparte na jego cechach fizjologicznych i behawioralnych. Niestety, wykradzenie identyfikatora biometrycznego jest o wiele bardziej niebezpieczne, aniżeli utrata identyfikatora numerycznego (PIN, numer konta, hasła ). Dostęp do konta może zostać zablokowany. PIN, login czy też hasło może zostać zmienione. Natomiast cechy biometrycznej, raz danej nam przez naturę, nie jesteśmy w stanie zmienić bez fizycznej ingerencji w ciało człowieka. Dlatego też metody zabezpieczenia wzorców biometrycznych są jednym z kluczowych zagadnień biometrii. Metody biometryczne wkraczają w coraz to nowe dziedziny zastosowań, a miejscach, w których były już obecne ugruntowują swoją pozycję ([1], [7], [8], [9], [11]]). Systemy biometryczne pełnią funkcję już nie tylko inteligentnych klamek w silnie strzeżonych instalacjach wojskowych, lecz są coraz powszechniejsze w życiu codziennym (np. czytniki biometryczne w notebook`ach). Jako przykład można podać projekt wprowadzenia systemów biometrycznych do szkół w Wielkiej Brytanii, które miałyby usprawnić takie czynności jak płatności za posiłki na stołówkach, wypożyczenia książek oraz automatyczna kontrola obecności dzieci na zajęciach [14]. 2. Parametry jakościowe Chcieliśmy w tej pracy przedstawić kilka najczęściej występujących współczynników jakościowych w celu usystematyzowania wiedzy. Na rys. 1 przedstawiono umowny podział parametrów jakościowych. Poniżej zostaną zaprezentowane współczynniki należące do poszczególnych grup. Parametry jakościowe Błędy dopasowania Błędy decyzji Błędy akwizycji Inne parametry Rys. 1. Podział parametrów jakościowych Źródło: opracowanie własne

31 Techniki biometryczne podstawowe parametry jakościowe Błędy dopasowania Współczynnik fałszywego dopasowania (ang. False Match Rate - FMR) jest to oczekiwane prawdopodobieństwo, iż próbka danego użytkownika zostanie sklasyfikowana jako pasująca do losowo wybranego wzorca innego użytkownika znajdującego się w bazie. Współczynnik fałszywego niedopasowania (ang. False Non Match Rate FNMR) prawdopodobieństwo, iż próbka danego użytkownika nie zostanie dopasowana do wzorca, pobranego w czasie rejestracji, tego samego użytkownika. W przypadku systemów 1:1, parametr FNMR oznacza, że próbka nie została poprawnie zweryfikowana względem własnego wzorca. Natomiast w przypadku systemów 1:N, wskaźnik ten określa prawdopodobieństwo, że dany wzorzec nie zostanie odnaleziony w bazie. 2.2 Błędy decyzji Błędy decyzji są najpowszechniej wykorzystywanymi parametrami jakościowymi, zarówno przez producentów sprzętu, jak i badaczy zajmujących się biometrią. Zostały one tu przytoczone dla porządku oraz w celu wskazania różnicy pomiędzy tą grupą parametrów, a parametrami przedstawionymi w poprzednim akapicie. Współczynnik fałszywej akceptacji (ang. False Accept Rate FAR) parametr ten określa procent transakcji, w czasie których dochodzi do niepoprawnego zaakceptowania osoby, która nie posiada odpowiednich uprawnień. Transakcja może zawierać jedną lub więcej niepoprawnych prób w zależności od polityki decyzyjnej. Współczynnik ten jest często określany jako błąd II rodzaju [2]. Współczynnik fałszywego odrzucenia (ang. False Reject Rate FRR) parametr określa procent transakcji, w czasie których dochodzi do niepoprawnego odrzucenia osoby, która poprawnie przedstawiła swoją tożsamość. Transakcja może zawierać jedną lub więcej niepoprawnych prób w zależności od polityki decyzyjnej. Współczynnik ten jest często określany jako błąd I rodzaju [2]. W literaturze dość często można spotkać się ze stwierdzeniem, że współczynnik FAR (FRR) odpowiada współczynnikowi FMR (FNMR). Należy jednak odróżnić te współczynniki od siebie, ponieważ błędy decyzji mogą powstać zarówno na wskutek błędnego dopasowania jak również na skutek złej akwizycji cechy biometrycznej. Dodatkowo, jak wspomniano w definicjach, FNMR oraz FMR dotyczy pojedynczych dopasowań, natomiast FAR oraz FRR dotyczy transakcji, które mogą zawierać jedną lub więcej prób dopasowania. Współczynniki błędnych decyzji oraz błędnego dopasowania zależą silnie od ustawień progu czułości danego systemu. Zbyt wysoki próg

32 32 A. Mitas, M. Bugdol zgodności wzorców powoduje, iż wzrasta liczba błędnych (niedopasowań) odrzuceń. Z kolei zaś zbyt niski próg skutkuje dużą liczbą fałszywych akceptacji (dopasowań). Bardzo często charakterystyki błędów FAR oraz FRR są prezentowane na jednym wykresie właśnie w funkcji progu czułości (rys. 2). Rys. 2. Przykładowy wykres współczynników FAR ora FRR Źródło: opracowanie własne Wartości parametrów FRR oraz FAR podawane przez producentów rozwiązań biometrycznych (zarówno urządzeń jak i algorytmów) nie powinny być traktowane jako wyznaczniki poziomu dokładności tych systemów. Podanie współczynnika FAR bez podania odpowiadającej mu wartości FRR może oznaczać, iż system pomimo niskiego poziomu błędu typu FAR charakteryzuje się błędem FRR na nieakceptowanym poziomie. Również podanie obu tych parametrów nie rozwiązuje problemu, ponieważ nie ma dobrej metody na określenie czy lepszy jest system z wysokim FAR i niskim FRR, czy też system posiadający niską wartość FAR, a wysoką FRR. Dlatego też wykorzystuje się dodatkowo jeszcze jeden parametr określający dokładność systemu biometrycznego. Wartość błędu zrównoważonego (ang. Equal Error Rate EER) punkt na wykresie, w którym następuje przecięcie charakterystyk parametrów FAR oraz FRR (rys. 1). Oznacza to, iż przy tym ustawieniu progu czułości statystycznie taka sama liczba osób zostanie błędnie odrzucona i jak błędnie zaakceptowana. Parametr ten jest bardzo często wykorzystywany do określenia dokładności danego rozwiązania biometrycznego oraz do przeprowadzenia analizy porównawczej kilku urządzeń. Im niższa wartość tego współczynnika tym urządzenie lub algorytm jest uważany za dokładniejszy. Konkurs FVC 2006 [10], [13][16] weryfikacji odcisków palców przeprowadzony w 2006 roku brał pod uwagę m.in. takie parametry jakościowe jak FMR100, FMR1000, ZeroFMR i ZeroFNMR oznaczające odpowiednio: najniższą wartość współczynnika FNMR dla FMR 1%, najniższą wartość współczynnika FNMR dla FMR 0,1%, najniższa wartość FNMR dla zerowej wartości FMR oraz najniższa wartość FMR

33 Techniki biometryczne podstawowe parametry jakościowe 33 dla FNMR = 0%. Parametry te mają one na celu zaprezentowanie dokładności rozwiązań przy ustalonych warunkach. Na podstawie parametrów FMR oraz FNMR tworzona jest krzywa ROC (ang. Receiver Operating Characteristic), która przedstawia zmierzoną dokładność systemu. Krzywa ROC jest wykreślana jako charakterystyka prawdopodobieństwa weryfikacji (1-FNMR) w funkcji parametru FMR. Jej przykład został zaprezentowany poniżej (rys. 3). Rys. 3. Przykład krzywej ROC Źródło: [1] Inną charakterystyką stosowaną często w pomiarze systemów biometrycznych jest krzywa DET (ang. Detection Error Trade-off). Przedstawia ona współczynniki błędów na obu osiach, dając lepsze wyobrażenie o zachowaniu systemu (rys. 4). Często stosowana jest skala logarytmiczna, dzięki czemu poszczególne systemy są lepiej rozróżnione. Krzywa ta można zostać wykreślona zarówno dla współczynników błędnego dopasowania (FNMR w funkcji FMR) jak również dla współczynników błędnych decyzji (FRR w funkcji FAR). Rys. 4. Przykład krzywej DET Źródło: [1]

34 34 A. Mitas, M. Bugdol Obie te charakterystyki nie są zależne od ustawionego poziomu czułości i mają na celu przedstawienie działanie systemu przy różnych ustawieniach jak również porównanie kilku systemów w tych samych warunkach. 2.3 Błędy akwizycji Parametry określające dokładność systemu biometrycznego brane są pod uwagę w pierwszej kolejności przy wyborze konkretnego rozwiązania. Jednak przydatność systemu może zostać zakwestionowana w przypadku, gdy użytkownik nie jest w stanie zarejestrować się w nim lub też będą problemy w późniejszym użytkowaniu systemu na skutek niemożności pobrania próbki o odpowiedniej jakości. Poniżej przedstawiono dwa parametry opisujące jakość procesów akwizycji próbki. Niepowodzenie rejestracji (ang. Failure to Enrollment Rate - FTE) odsetek populacji, dla której system nie wstanie wygenerować powtarzalnego wzorca. Błąd ten może wynikać ze zbyt małego zróżnicowania cech biometrycznych, ich znacznego zniekształcenia, z braku odpowiedniego przeszkolenia użytkowników systemu, którzy nie eksponują odpowiednio dane cechy, jak również z niemożności wygenerowania próbki o wystarczającej jakości do procesu rejestracji. Obecne systemy potrafią sobie poradzić z różnymi utrudnieniami (okulary w przypadku rozpoznawania tęczówki oka, czy też broda lub złe oświetlenie w przypadku systemów rozpoznawania twarzy). Niepowodzenie pobrania próbki (ang. Failure to Acquire Rate - FTA) odsetek transakcji, dla których system nie był wstanie pobrać i wyekstrahować odpowiedniej informacji z biometrycznej próbki. Parametr ten może zależeć od przyjętego progu jakości pobieranych próbek. 2.4 Inne parametry Inne parametry Z łożoność czasowa Z łożoność pamięciowa Wydajność algorytmu binning Rys. 5. Podział parametrów jakościowych Źródło: opracowanie własne

35 Techniki biometryczne podstawowe parametry jakościowe 35 Na rys. 5 wyszczególniono parametry, które nie zostały sklasyfikowane do żadnej z wyżej wymienionych grup. Bardzo ważnymi parametrami oceny jakości systemów biometrycznych są: czas rejestracji oraz czas dopasowania (w przypadku urządzeń biometrycznych można mówić o czasie wykonania transakcji rozpoznawania). Długi czas rejestracji wzorca biometrycznego nie jest aż tak uciążliwy z punktu widzenia użytkownika, ponieważ operację tę wykonuje się bardzo rzadko. Jednak długi czas identyfikacji/weryfikacji użytkownika może zupełnie dyskwalifikować dany system do niektórych rozwiązań. Drugą podgrupą są parametry związane ze złożonością pamięciową. Podczas konkursu FVC 2006 [16] brano pod uwagę takie parametry jak rozmiar przechowywanej próbki oraz maksymalną ilość potrzebnej pamięci w czasie przetwarzania próbek biometrycznych. Ma to duże znaczenie w przypadku rozwiązań, o ograniczonych zasobach systemowych. Na rys. 5 zaznaczono również parametry związane z wydajnością algorytmu binning tzn. proces podziału wzorców na pojemniki ang. bins). Algorytm ten stosowany jest w niektórych systemach 1:N w celu poprawny szybkości wyszukiwania w bazie odpowiednich wzorców. Rozróżniamy dwa parametry: Współczynnik głębokości przeszukiwania jest definiowany jako oczekiwany odsetek wzorców przeszukanych, z pośród wszystkich próbek wejściowych. Przy czym przeszukiwania jest wykonywane w całej partycji bez względu na to czy znaleziono dopasowanie. Niższa wartość tego współczynnika oznacza mniej przeszukiwań, i dlatego jest pożądana. Współczynnik błędu podziału występuje gdy zarejestrowany wzorzec i późniejsza próbka tej samej cechy biometrycznej tego samego użytkownika znajdą się w różnych partycjach. Ogólnie, im więcej partycji w bazie danych tym mniejsza wartość współczynnika głębokości przeszukiwania ale i większe prawdopodobieństwo popełnienia błędu podziału. 3. Problem z oceną jakości systemów biometrycznych Ogromna liczba opracowań w dziedzinie biometrii, dotyczących zarówno sprzętu, algorytmów jak i kompletnych systemów, powoduje trudności przy ocenie jakości poszczególnych rozwiązań. Dodatkowym problemem jest brak jednolitych definicji parametrów wykorzystanych w czasie analizy technik biometrycznych. Jako przykład można przytoczyć dwie prace dotyczące testów. Pierwsza praca [3] analizowała trzy niezależne testy techniki rozpoznawania tęczówki. Autorzy tego opracowania chcąc porównać wyniki testów, musieli znaleźć parametry wspólne dla wszystkich

36 36 A. Mitas, M. Bugdol przeprowadzonych badań. Wybrali między innym takie współczynniki jak FMR oraz FNMR. W jednym z analizowanych testów podano wartości współczynników FAR oraz FRR, lecz z przyjętych definicji tych współczynników wynikało, że są to jednak błędy FNMR oraz FMR, ponieważ nie brano pod uwagę błędów akwizycji obrazu. Drugim przykładem niejednoznaczności w przyjmowanych definicjach parametrów jakościowych, jest raport z konkursu IRIS2006 [4]. Autorzy tego opracowania brali pod uwagę między innymi współczynnik GFAR (ang. Generalized False Accept Rate), który został zdefiniowany w normie ISO/IEC Jednakże dla potrzeb testu parametr ten został wyrażony w inny sposób, lepiej (według autorów) odpowiadający potrzebom testu. Innym problemem w ocenie systemów biometrycznych jest prezentacja i interpretacja wyników przeprowadzonych testów. We wspomnianej już pracy [3] oraz w raporcie z testów FRVT 2006 i ICE 2006 [5], [12] przedstawiono następujące wnioski: a) poziom dokładności rozpoznawania twarzy jest porównywalny do dokładności rozpoznawania tęczówki, b) niezależne testy techniki rozpoznawania tęczówki nie udowodnił jej wysokiej dokładności. Te twierdzenia wywołały dyskusję pomiędzy autorami wspomnianych wyżej prac a Johnem Daugman, profesorem w Cambridge i wynalazcą rozpoznawania tęczówki. Została ona przedstawiona na łamach Biometric Technology Today ([15], [16]). Daugman [6] zwrócił uwagę na takie problemy w czasie wykonywania testów jak: a) niska jakość obrazów, dzięki czemu można podnieść wartość współczynnika FNMR do dowolnie wysokiego poziomu, poprzez dołączenie do zbioru testowego odpowiedniej liczby obrazów o ej jakości, b) dobór wartości FMR (1:1000) brak uwzględnienia faktu, iż krzywe DET oraz ROC są bardzo płaskie, przez co zmiana wartości FMR na 1 do miliona powoduje tylko niewielką zmianę wartości FNMR. 4. Podsumowanie Przedstawione w poprzednim rozdziale parametry w żadnym wypadku nie wyczerpują pełnej listy współczynników branych pod uwagę w czasie oceny rozwiązań biometrycznych. Co więcej, wiele testów wprowadza nowe miary lub też definiuje w inny sposób miary powszechnie wykorzystywane. Najczęstszą przyczyną jest fakt, iż dla danego scenariusza testowego, parametry wprowadzone przez badaczy lepiej

37 Techniki biometryczne podstawowe parametry jakościowe 37 obrazują różnice pomiędzy poszczególnymi systemami. Norma ISO/IEC ma na celu ujednolicić sposób ewaluacji algorytmów oraz technik biometrycznych dzięki zdefiniowaniu miar i platform testowych. Jednak, jak przedstawiono w przykładzie w rozdziale drugim, normy międzynarodowe nie zawsze są w pełni stosowane. Drugim ważnym aspektem, na który starano się zwrócić uwagę jest ostrożne podejście do informacji o parametrach jakościowych podawanych przez producentów i dystrybutorów systemów biometrycznych. Przy wyborze konkretnego rozwiązania należy brać pod uwagę wiele współczynników, aby odpowiednio dopasować do konkretnego zastosowania. Literatura [1] A. J. Mansfield, J. L. Wayman, Best Practices in Testing and Reporting Performance of Biometric Devices Version 2.01, NPL Report, version 2.01, (August 2002). [2] Biometric Glossary [3] E.M. Newton, P.J. Philips, Meta-Analysis of Third-Party Evaluations of Iris Recognition, NIST Technical Report NISTIR 7440, [4] Authenti-Corp., Draft Final Report: Iris Recognition Study 2006 (IRIS06). version 0.40, (2007, Mar. 31) [5] P.J. Phillips et al. FRVT 2006 and ICE 2006 Large-Scale Results, NIST Technical Report NISTIR 7408, [6] J. Daugman, Flat ROC Curves, Steep Predictive Quality Metrics: Response to NISTIR-7440 and FRVT/ICE2006 Reports, 2007, [7] Survey - Government Initiatives Part 1, Biometric technology today (Btt), no 10 v. 14, 2006, s. 11. [8] Survey Government Initiatives Part 2, (Btt), no 11 v. 14, 2006, s [9] Survey Industry squares up to multiple opprunities, (Btt), no 1 v. 15 s [10] Asia excels in fingerprint tests, (Btt), no 4 v. 15, 2007, s [11] Feature The future of biometrics, j.w. s. 9. [12] Survey NIST test result unveiled, j.w. s [13] Feature Fingerprint verification competition, no 7-8 v. 15, 2007, s [14] Feature UK schools get lessons in biometric usage, no. 9 v. 15, 2007, s [15] Daugman, NIST and the saga of the brown paper bag, (Btt), no 10 v. 15, 2007, s [16] Daugman makes official response to NIST, (BTT), no v.15, 2007, s. 3. [17] Fingerprint Verification Competition (FVC 2006)

38

39 TECHNIKI KOMPUTEROWE 1/2007 Adrian Kapczyński Politechnika Śląska, Katedra Informatyki i Ekonometrii Biometryczne systemy weryfikacji tożsamości z perspektywy zastosowania w warunkach pozalaboratoryjnych Biometric verification systems from out-of-laboratory perspective Streszczenie W artykule przedstawiono rozważania dotyczące systemów biometrycznych analizowanych z perspektywy ich aplikacji w warunkach pozalaboratoryjnych (tj. produkcyjnych). W pierwszej części opracowania podjęto zagadnienie dotyczące doboru technologii biometrycznych. Opisano również istotne w praktyce gospodarczej problemy natury prawnej oraz technicznej związane z wykorzystaniem systemów biometrycznych. Abstract In the article the biometric systems analysed from their real life application perspective were presented. In the first part of the paper the problem connected with choice of biometric technology was discussed. Problems of utmost importance related to legal and technical nature of use of biometric systems were described as well. 1. Wstęp Współcześnie aplikowane systemy biometryczne oparte są o konkretną technologię (lub zestaw technologii) umożliwiającą skuteczną identyfikację lub weryfikację tożsamości użytkowników systemu komputerowego. Zastosowania biometrii nie tylko na świecie, ale również w Polsce przeżywają intensywny rozkwit. Wynika to nie tylko z faktu, iż technologie oraz systemy biometryczne są coraz doskonalsze, ale również z tego, iż wprowadzane są nowe technologie nie posiadające słabości tradycyjnie stosowanych. Nie sposób tutaj nie wspomnieć o biometrii żył, która ma szansę zrewolucjonizować aktualne (2008r.) obszary zastosowania biometrii. W niniejszym artykule zwrócono uwagę na trzy zagadnienia: doboru technologii biometrycznej, aspektów prawnych oraz aspektów

40 40 A. Kapczyński technicznych zastosowania systemów biometrycznych. Praca ta stanowi próbę podzielenia się doświadczeniami Autora nabytymi w warunkach pozalaboratoryjnych. Rozpocznijmy nasze rozważania od spojrzenia sensu largo na problem doboru technologii biometrycznej. W dalszej części opracowania skoncentrujemy się kolejno na kwestiach natury prawnej oraz pewnym studium przypadku, w którym punkt ciężkości osadzimy w sferze technicznej. 2. Dobór technologii biometrycznej W warunkach pozalaboratoryjnych, dobór technologii biometrycznej do określonego zastosowania, jest zalecany w oparciu o parametry konkretnego rozwiązania sprzętowo-programowego, natomiast eliminowana jest faza (pośrednia) oceny konkretnej technologii biometrycznej, w oderwaniu od konkretnej implementacji. Powyższa metodyka doboru, jest najczęściej prezentowana przez propagatorów tych technologii, które cechują się niskimi stopniami spełnienia wymogów powszechności, indywidualności, trwałości, mierzalności oraz akceptowalności. Alternatywna metodyka, w której proponuje się koncentrację wyłącznie na charakterystykach biometrycznych identyfikatorów, jest preferowana przez zwolenników technologii o wysokich stopniach spełnienia wskazanych powyżej wymogów. Ponadto, zalecenia wielu producentów w zakresie doboru technologii biometrycznej do określonego zastosowania, nie uwzględniają docelowego środowiska. Dana technologia biometryczna wydaje się być traktowana jako uniwersalna i jedynie słuszna. W oparciu o doświadczenia zdobyte przez autora, wydaje się, że dobór technologii biometrycznej do konkretnego zastosowania winien być przeprowadzony w sposób kompleksowy w oparciu o: analizę spełnienia wymogów stawianych charakterystykom biometrycznym w kontekście warunków docelowego środowiska pracy, analizę porównawczą wybranych rozwiązań sprzętowoprogramowych z punktu widzenia kryteriów technicznych, ekonomicznych oraz społecznych w kontekście wymagań i stanu obecnego docelowego środowiska pracy. Tak sformułowane zalecenie wymaga sprecyzowania w jakim celu i w jakich warunkach oraz w jaki sposób będą stosowane dane technologie. Pozwoli to na zawężenie listy potencjalnych technologii biometrycznych i dopiero wówczas w świetle specyfiki docelowego środowiska pracy, możliwe będzie dokonanie analizy porównawczej

41 Biometryczne systemy weryfikacji tożsamości 41 wybranych rozwiązań sprzętowo-programowych w oparciu o kryteria natury: Technicznej, do których należy zaliczyć m.in.: parametry czasowe systemu (czas rejestracji wzorca, czas weryfikacji wzorca), parametry wydajnościowe systemu (wartości wskaźników błędnych akceptacji oraz błędnych odrzuceń), parametry techniczne czytnika biometrycznego (w tym zdolność do testowania żywotności), zdolność systemu do pracy w trybie identyfikacji/weryfikacji, możliwość integracji z istniejącą infrastrukturą informatyczną i inne; Pozatechnicznej, do których należy zaliczyć m.in.: rozmiar grupy użytkowników, akceptowalność przez użytkowników, wygodę korzystania, kwestie prawne i ochrony prywatności, koszty (sprzętu, oprogramowania (licencji), instalacji, testowania, eksploatacji i pielęgnacji systemu oraz szkoleń). W dalszej części należy zwrócić uwagę na problemy natury prawnej związane z przetwarzaniem danych, które jednoznacznie identyfikują człowieka. 3. Aspekty prawne związane z wykorzystaniem systemu biometrycznego w przedsiębiorstwie Zgodnie z ustawą o ochronie danych osobowych cechy fizyczne człowieka stanowiące dane biometryczne są danymi osobowymi. Za dane osobowe uważa się bowiem wszelkie informacje dotyczące zidentyfikowanej lub możliwej do zidentyfikowania osoby fizycznej w szczególności jeśli jej tożsamość można ustalić w sposób bezpośredni lub pośredni na podstawie jednego lub kilku czynników określających jej cechy fizyczne (art. 6 ust. 1 i 2 ustawy). Ustawa zezwala na przetwarzanie danych osobowych w razie spełnienia jednego z warunków przewidzianych w art. 23 ustawy. Jeżeli w przedsiębiorstwie wdrażany jest oparty o biometrię system rejestracji czasu pracy lub system kontroli dostępu do pomieszczeń lub urządzeń, konieczne jest istnienie przewidzianej we wskazanym powyżej przepisie podstawy prawnej przetwarzania danych osobowych. Artykuł i 2 kodeksu pracy formułuje zakres danych osobowych, których podania może żądać pracodawca od kandydata do pracy oraz od pracownika. Dane biometryczne nie mieszczą się w tym zakresie. Pracodawca może nadto żądać podania innych danych osobowych, jeżeli obowiązek ich podania będzie wynikał z odrębnych przepisów. W zakresie nieobjętym regulacjami zawartymi w kodeksie pracy stosuje się przepisy ustawy o ochronie danych osobowych.

42 42 A. Kapczyński W zasadzie możemy mieć do czynienia z dwoma przesłankami, na podstawie których legalne będzie przetwarzanie danych biometrycznych pracowników. Po pierwsze podstawą taką jest zgoda pracowników (art. 23 ust. 1 pkt. 1 ustawy) uzyskana przed pobraniem danych. Zgoda taka musi być jednak w pełni dobrowolna i swobodna, nie może być uzyskana pod wpływem jakiegokolwiek nacisku. Tu pojawia się problem. W literaturze prawniczej, a także w decyzjach i publicznych wypowiedziach Generalnego Inspektora Danych Osobowych wyrażono pogląd, że zgoda pracownika wiąże się niemal zawsze z pewnym przymusem wynikającym ze stosunku podporządkowania. Aby zgoda pracownika uznana zastała za dobrowolną i skuteczną konieczne jest zapewnienie pracownikowi faktycznego wyboru. Pracownik musi mieć możliwość podjęcia decyzji czy udostępnia swoje dane i korzysta z nowoczesnego systemu, czy odmawia udostępnienia i wówczas jego czas pracy rejestrowany jest inny sposób np. podpis w dziale kadr. Brak zgody pracowników na udostępnienie swoich danych biometrycznych wynika najczęściej z nieznajomości zasad działania systemu. Pracownicy sądzą, że system przechowuje wzory linii papilarnych, tęczówki oka itp. Nie wiedzą, że przechowywane są jedynie punkty charakterystyczne wzorców biometrycznych, na podstawie których nie jest możliwe odtworzenie tych wzorców. Pracownicy obawiają się, że wzorce pobrane na potrzeby systemu rejestracji pracy posłużą pracodawcy do zidentyfikowania osób, które np. dokonały kradzieży. Po drugie przetwarzanie danych biometrycznych pracowników dopuszczalne jest w świetle art. 23 ust. 1 pkt. 5 ustawy, jeżeli jest to niezbędne dla wypełnienia prawnie usprawiedliwionych celów realizowanych przez pracodawcę. W tym wypadku zgoda pracowników nie jest konieczna, a pracodawca zgodnie z ugruntowanym w literaturze prawniczej poglądem nie powinien występować do pracowników o jej wyrażenie. Stworzyłby bowiem fałszywe pozory, a zatem wprowadził pracowników w błąd, że przetwarzanie danych zależy od ich zgody, podczas gdy zgoda taka nie jest wymagana. W tym przypadku obowiązuje zasada adekwatności. Przetwarzać można tylko te dane i tylko w takim zakresie, w jakim jest to konieczne do osiągnięcia celu. Przetwarzanie danych nie może naruszać praw i wolności pracowników. Ustawa wymaga, aby cel, dla którego wypełnienia następuje przetwarzanie danych osobowych bez zgody osoby, której dane dotyczą, był prawnie usprawiedliwiony. Wyrażenie to jest nieostre stąd przepis nie daje pewności, jakie cele będą usprawiedliwiały przetwarzanie danych bez zgody pracownika. Wydaje się, że wdrożenie systemu rejestracji czasu pracy jak i wdrożenie system kontroli dostępu działających w oparciu o biometrię, ze względu na znaczne oszczędności oraz podniesienie

43 Biometryczne systemy weryfikacji tożsamości 43 poziomu bezpieczeństwa, może być uznane za prawnie usprawiedliwiony cel. Pracodawcy wprowadzając biometryczny system rejestracji czasu pracy powoływali się na to, że dane biometryczne były im niezbędne do wykonania ustawowo nałożonego na nich obowiązku ewidencjonowania czasu pracy pracowników. Pogląd taki odrzucony został przez GIODO, który stwierdził, że ewidencję czasu pracy można prowadzić w jakiejkolwiek formie, nie koniecznie w formie systemu opartego o biometrię, a zatem pracodawca nie może żądać podania tych danych. W świetle powyższej wypowiedzi najbezpieczniejszym rozwiązaniem będzie wdrożenie systemu, który zajmuje się zarówno rejestracją czasu pracy jak i kontrolą dostępu. Przetwarzanie danych biometrycznych nastąpi na podstawie art. 23 ust. 1 pkt. 5 ustawy o ochronie danych osobowych. Nie ma bowiem wątpliwości, że podniesienie poziomu bezpieczeństwa w przedsiębiorstwie jest celem prawnie usprawiedliwionym. Co do rejestracji czasu pracy, nastąpi ona jedynie przy okazji kontroli dostępu. W celu uniknięcia niedomówień, należy poinformować pracowników w sposób pisemny o celu przetwarzania danych, o podstawie przetwarzania, a także wyjaśnić, z jakiego powodu cel winien być uznany za prawnie usprawiedliwiony. Należy im również wyjaśnić dokładnie sposób działania systemu oraz poinformować, że zgodnie z ustawą o ochronie danych osobowych ich zgoda na przetwarzanie danych nie jest konieczna. Reasumując pracodawca ma dwie możliwości zgodnego z prawem wdrożenia systemu biometrycznego wykorzystującego dane osobowe pracowników: Po pierwsze uzyskuje zgodę pracowników, zostawiając im możliwość nie korzystania z systemu, co jednak w razie kompleksowego wdrożenia systemu kontroli dostępu mija się z celem. Po drugie przetwarza dane bez zgody pracowników, uznając, iż wymóg korzystania przez pracowników z nowoczesnego systemu kontroli dostępu i rejestracji czasu pracy jest prawnie usprawiedliwiony, ze względu na konieczność podniesienia poziomu bezpieczeństwa w przedsiębiorstwie, a zarazem nie narusza praw i wolności pracowników. W dalszej części opracowania przedstawiono aspekty techniczne związane z jednym z przypadków, z którym do czynienia miał autor w swojej praktyce zawodowej. 4. Aspekty techniczne - wymagania oraz charakterystyka rozwiązania Analizowany przypadek dotyczy podmiotu z sektora administracji publicznej. Infrastruktura informatyczna obejmowała ok. 100 stacji roboczych oraz 2 serwery pracujące w środowisku Microsoft Windows.

44 44 A. Kapczyński W analizowanym przypadku wystąpiły wymogi związane z podniesieniem poziomu bezpieczeństwa, którego ocenę przeprowadzono w ramach zewnętrznego audytu. Jednym z ważnych obszarów problemowych, był punkt dotyczący praktyki stosowanych mechanizmów uwierzytelniania opartych o wiedzę. Administrator wprowadził stosowne rygory dotyczące historii haseł, złożoności haseł, jak również minimalnej długości oraz czasu ważności hasła. Użytkownicy natomiast wypracowali mechanizm tworzenia nowych haseł, który został przyjęty wśród pracowników danej komórki organizacyjnej. Mechanizm ten, pozwalał na ustalenie aktualnego hasła na podstawie imienia, nazwiska (część stała hasła) oraz daty (część zmienna hasła). Tym samym, osoba która poznała ten mechanizm miała możliwość pracowania na koncie wybranego przez siebie użytkownika, de facto wypaczając rolę mechanizmu rozliczalności przeprowadzanych operacji. W omawianym przypadku, użytkownik uwierzytelniony w ramach systemu operacyjnego, w trakcie kontroli logicznej do modułu systemu informatycznego nie był ponownie poddawany weryfikacji tożsamości. Moduł systemu informatycznego był oparty o schemat uwierzytelniania wykorzystujący wynik uwierzytelniania systemu operacyjnego. W sytuacji gdy osoba nieuprawniona uzyskałaby dostęp do systemu operacyjnego, uzyskałaby również możliwość dostępu do modułów systemu informatycznego. Nagminne okazało się pozostawianie przez użytkowników niezablokowanych stacji roboczych. W tym przypadku zaproponowano rozwiązanie wykorzystujące system biometryczny jako element uwierzytelniający użytkownika systemu operacyjnego. Użytkownik był weryfikowany biometrycznie w dwóch sytuacjach: w trakcie rozpoczynania pracy z systemem operacyjnym, w trakcie odblokowywania stacji roboczej. Hasła użytkowników były generowane automatycznie zgodnie z zasadami zabezpieczeń (dotyczącymi długości hasła, złożoności, etc.). Użytkownicy korzystali z biometrii jako jedynego czynnika uwierzytelniającego, co pozwoliło rozwiązać problem współdzielonych haseł, jak również wpłynęło na kształtowanie pozytywnego podejścia do blokowania stacji roboczej (głównie z uwagi na wygodę i czas wprowadzania czynnika uwierzytelniającego). 5. Podsumowanie Systemy biometryczne obecnie stają się skuteczną alternatywą dla systemów wykorzystujących wiedzę i/lub posiadanie materialnych identyfikatorów.

45 Biometryczne systemy weryfikacji tożsamości 45 Wyniki analiz systemów działających w warunkach produkcyjnych są istotnym źródłem wiedzy dla architektów rozwiązań z zakresu silnej kontroli dostępu. Literatura [1] Ashbourn J.: Biometrics advanced identity verification. Springer Verlag, London [2] Kapczyński A.: Metody uwierzytelniania użytkowników systemów komputerowych. Rozprawa doktorska. Politechnika Śląska, Gliwice [3] Kapczyński A.: Ocena zastosowania wybranej metody biometrycznej w procesie autentykacji użytkowników. Studia Informatica, seria Informatyka nr 1(43) v.22, Gliwice [4] Kapczyński A.: Problematyka baz danych w biometrycznych systemach uwierzytelniania. Bazy danych aplikacje i systemy 2005, WNT, Warszawa [5] Wayman J., Jain A., Maltoni D., Maio D.: Biometric Systems: Technology, Design and Performance Evaluation, Springer Verlag, [6] Zhang D.: Biometric solutions for authentication in an e-world. Kluwer Academic Publishers, Boston 2002.

46

47 TECHNIKI KOMPUTEROWE 1/2007 Leon Rozbicki, Mirosława Plucińska Instytut Maszyn Matematycznych Przegląd technologii i kierunków rozwoju bezpiecznego dokumentu elektronicznego Review of technology and evolution trends of secured electronic document Streszczenie W artykule powiedziano co to jest dokument identyfikacyjny oraz przedstawiono tradycyjne i elektroniczne technologie tworzenia takich dokumentów. Omówiono strukturę danych, oprogramowanie i budowę sprzętową dokumentu elektronicznego. Podano przykłady zastosowań takich dokumentów. Abstract This paper describes issue of identification document. There were considered traditional and electronic document manufacturing technologies. Logical data structure, software and hardware specification were presented. Article comprises selected applications of discussed document. 1. Wstęp Celem artykułu jest pokazanie obecnego stanu i kierunków rozwoju technologii elektronicznych stosowanych do zabezpieczeń dokumentów identyfikacyjnych. Pod koniec 2001 r. podjęto w USA prace nad zwiększeniem bezpieczeństwa kraju, w szczególności przed napływem niepożądanych osób. W procedurach kontrolnych napływającej ludności stosunkowo słabym punktem okazał się tradycyjny dokument identyfikacyjny podatny na fałszerstwa pomimo stosowanej szerokiej gamy zabezpieczeń. Również funkcjonariusz dokonujący weryfikacji, czyli oceny autentyczności dokumentu i tożsamości danej osoby, często jest narażony na popełnianie błędów. W celu zwiększenia bezpieczeństwa podjęto więc prace nad stworzeniem nowej generacji dokumentów identyfikacyjnych, a mianowicie tzw. dokumentów elektronicznych. W pierwszej kolejności rozpoczęto prace nad dokumentami podróżnymi (paszportami). Również w innych państwach, w tym i w Polsce rozpoczęto podobne działania, w wyniku których został opracowany i wprowadzony do użycia w sierpniu 2006 r. paszport elektroniczny. Zasadniczą różnicą w stosunku

48 48 L. Rozbicki, M. Plucińska do poprzedniej generacji paszportów jest to, że paszport elektroniczny zawiera implant tzw. inlay. Pamięć zawarta w tym układzie elektronicznym (chipie) umożliwia zapamiętanie rozszerzonego zbioru danych, w tym również danych biometrycznych właściciela dokumentu. Rozwiązania zastosowane w nowym paszporcie wyznaczyły kierunki rozwoju innych dokumentów identyfikacyjnych. 2. Dokument identyfikacyjny Dokumenty identyfikacyjne aktualnie występują w dwóch postaciach: tradycyjnej książeczkowej lub karty plastykowej bez elektroniki, np.: obecny dowód osobisty, elektronicznej tradycyjnej z wkomponowanym układem elektronicznym: karty mikroprocesorowe (np.: legitymacja studencka), książeczki z dodanym układem elektronicznym (np.: nowy paszport). Dominującą postacią dokumentu identyfikacyjnego stała się karta plastykowa o formacie ID-1 1 (ISO/IEC 7810). Należy podkreślić, że plastykowe karty elektroniczne mają ugruntowaną pozycję na rynku i szeroką gamę zastosowań, w której można wyróżnić trzy główne obszary: telefonia komórkowa (GSM), płatności (Payments), np.: PayPass, e-purse, Loyalty, Mass Transit, Easy Park, itd., identyfikacja (SmartID), np.: e-passport, National ID, Access Control, MediSmart, itd. Poszczególne zastosowania narzucają różne wymagania w zakresie: mocy obliczeniowej układu elektronicznego wbudowanego w kartę (karty pamięciowe, karty specjalizowane ASIC, karty mikroprocesorowe), sposobu komunikowania się układu elektronicznego karty ze światem zewnętrznym (karty stykowe, karty zbliżeniowe). W dokumentach elektronicznych w formacie kartowym stosuje się układy z interfejsem stykowym lub zbliżeniowym albo dualne tj. jednocześnie z oboma interfejsami, a w formacie książeczkowym układy mikroprocesorowe (mikrokontrolery) z interfejsem zbliżeniowym. Międzynarodowe wymagania dotyczące dokumentów podróżnych obowiązujące po 2004 r. rozszerzyły zakres wprowadzanych do dokumentu danych między innymi o dane biometryczne. Stało się to 1 format karty płatniczej

49 Przegląd technologii i kierunków rozwoju 49 impulsem do wprowadzania danych biometrycznych również do innych dokumentów identyfikacyjnych. Natomiast elektronizacja dokumentów identyfikacyjnych umożliwiła rozszerzenie zakresu zapisywanych w nich danych, wprowadzenie podpisu elektronicznego oraz mechanizmów kryptograficznych, co w sumie zwiększa bezpieczeństwo i wiarygodność dokumentu. Sprzętowo-programowe mechanizmy mikrokontrolera powinny zapewniać bezpieczeństwo dokumentu w zakresie integralności danych oraz odporności na wszelkiego rodzaju fałszerstwa. Poza podstawowymi danymi niezbędnymi do identyfikacji osoby, pamięć mikrokontrolera wbudowanego w dokument może zawierać również inne dane wynikające z jego przeznaczenia. Organizacja danych, stopień i metody ich ochrony przed nieuprawnionym dostępem lub modyfikowaniem, a także możliwość instalowania innych aplikacji określona jest aktami prawnymi dotyczącymi danego typu dokumentu. I tak, dane personalne w dokumencie podróżnym MRP (Machine Readable Passport), zgodnie z zaleceniami ICAO, zapisane są w trzech niezależnych strefach: podstawowej, czyli VIZ (Visual Inspection Zone) ze zdjęciem właściciela do odczytu wzrokowego, dodatkowej, czyli MRZ (Machine Readable Zone) do odczytu maszynowego z zastosowaniem czytników OCR-B (ang. Optical Character Recognition B), dodatkowej elektronicznej w pamięci mikrokontrolera. Strefa elektroniczna obejmuje: aplikację (PIN, klucze, warunki dostępu, dane) ulokowaną w EEPROM, system operacyjny ulokowany w ROM. Obecnie możemy wyróżnić między innymi następujące rodzaje dokumentów elektronicznych, z których niektóre są już wdrożone do użytku, a inne w toku opracowywania lub w planach: paszporty, wizy i inne dokumenty podróżne, dowody osobiste, prawa jazdy, legitymacje, karty pobytowe, karty socjalne, karty ubezpieczenia zdrowotnego. Istnieją również dokumenty przeznaczone do identyfikacji np. pojazdów. Są to dowody rejestracyjne zawierające dane identyfikacyjne pojazdu, stwierdzenie dopuszczenia do ruchu, dane techniczne oraz dane

50 50 L. Rozbicki, M. Plucińska personalne jego właściciela. Dowód rejestracyjny pojazdu również zawiera dwie strefy: podstawową i MRZ. 3. Technologie tradycyjne Dokumenty tradycyjne występują w postaci książeczek lub kart plastykowych. Proces wytwarzania takich dokumentów składa się z dwóch podstawowych faz: produkcji blankietów dokumentów (nie zawierających danych), personalizacji dokumentów, czyli indywidualizacji dokumentu poprzez wydrukowanie w nim danych osobowych takich jak: imię, nazwisko, numer PESEL, fotografia. Zakres tych danych zależy od rodzaju dokumentu. Karty plastykowe jako blankiety dokumentów o znormalizowanych wymiarach (85,60 x 53,98 mm zgodnie z ISO/IEC 7810 format ID-1) są produkowane z tworzyw sztucznych takich jak: PVC, PC, PET. Personalizację wykonuje się z wykorzystaniem technologii grawerowania laserowego oraz druku termotransferowego. Blankiety książeczek przeznaczonych dla dokumentów są wykonywane z zastosowaniem specjalnego rodzaju papieru zawierającego ukryte znaki. Stopień zabezpieczenia zależy od przeznaczenia dokumentu. W ostatnim okresie zarysowała się wyraźna tendencja przechodzenia w produkcji dokumentów identyfikacyjnych z formatu książeczkowego na karty plastykowe. Rys. 1. Dowód osobisty w postaci karty (źródło PWPW) W toku produkcji i personalizacji dokumentów są stosowane liczne zabezpieczenia umożliwiające weryfikację autentyczności dokumentów i ochronę ich przed fałszowaniem. Wśród elementów stosowanych do zabezpieczeń 2 występują oprócz zdjęcia, wzoru podpisu i podstawowych danych biograficznych także: 2 dane PWPW

51 Przegląd technologii i kierunków rozwoju 51 Kinegram element dający, oprócz zmiany barwy i motywu, także efekt kinetyczny, widoczny przy poruszaniu kartą, Efekt CLI z dwóch zapisów np. numeru PESEL i roku ważności dokumentu jest widziany tylko jeden z nich w zależności od kąta obserwacji, Efekt OVI godło państwowe naniesione za pomocą farby zmiennej optycznie, dającej zmianę barwy w zależności od kąta obserwacji, Napis "DO" zapisany alfabetem Braille`a, znak identyfikacyjny dokumentu dla osób niewidomych, Zabezpieczenia widoczne w świetle kierunkowym zapis widoczny w świetle kierunkowym, Zabezpieczenia widoczne w świetle UV zapis widoczny w świetle UV. Paszporty oraz dowody osobiste zawierają wydzieloną strefę MRZ (rys. 1) przeznaczoną do odczytu maszynowego z wykorzystaniem czytników OCR. Strefa MRZ składa się w dowodach osobistych z trzech linii, z których każda ma długość 30 znaków, a w paszportach z dwóch linii po 44 znaki. W MRZ nie stosuje się spacji (pustych miejsc). W to miejsce używa się znaku wypełniającego, tj. < (znaku mniejszości). MRZ pozwala na szybki i bezbłędny odczyt i wprowadzenie do systemu komputerowego podstawowych danych dotyczących dokumentu oraz kontrolowanej osoby. I tak, w pierwszym wiersz MRZ paszportu są zawarte: typ dokumentu (P paszport), typ paszportu, kod kraju, nazwisko i imiona, a w drugim wierszu: numer paszportu, narodowość, obywatelstwo, data urodzenia, płeć, data ważności dokumentu, numer osobisty (PESEL), końcowa cyfra kontrolna.

52 52 L. Rozbicki, M. Plucińska 4. Technologie elektroniczne Rys. 2. System obsługi dokumentu identyfikacyjnego W systemie obsługi dokumentu identyfikacyjnego (rys. 2), w zakresie oprogramowania można wyróżnić trzy główne warstwy: aplikację sieciową, aplikację lokalną, aplikację wbudowaną pracującą w środowisku mikrokontrolera wkomponowanego do dokumentu. Aplikacja lokalna pracuje na komputerze stacjonarnym lub mobilnym. Stanowiska warstwy lokalnej, dla zapewnienia zgodności ze specyfikacją ICAO dotyczącą dokumentów podróżnych, oprócz czytnika dokumentu, powinny posiadać: czytnik OCR, czytnik biometryczny oraz aparat fotograficzny. Na najniższym poziomie systemu znajduje się dokument z wbudowanym mikrokontrolerem i jego oprogramowaniem obejmującym: aplikację, biblioteki (warstwa pośrednia), system operacyjny mikrokontrolera.

53 Przegląd technologii i kierunków rozwoju Aplikacje wbudowane Wśród identyfikacyjnych dokumentów elektronicznych na szczególną uwagę zasługują dokumenty podróżne MRTD (Machine Readable Travel Documents). Obejmują one: paszporty (MRPs Machine Readable Passports), wizy (MRVs Machine Readable Visas), inne dokumenty podróżne (TDs Machine Readable Official Travel Documents). Dokumenty te powinny być zgodne z normami: ICAO NTWG, ISO/IEC A/B (interfejs zbliżeniowy). Wytyczne UE z dnia r. w sprawie dokumentów podróżnych odczytywanych automatycznie określają: specyfikacje dla identyfikatorów biometrycznych: obraz twarzy i odcisków palców, specyfikacje dla nośników informacji (mikrokontrolerów), strukturę danych logicznych w pamięci mikrokontrolera, specyfikacje dotyczące zabezpieczenia danych zapisanych cyfrowo w pamięci mikrokontrolera, ocenę zgodności mikrokontrolera i aplikacji, kompatybilność częstotliwości radiowych (RF) z innymi elektronicznymi dokumentami podróżnymi. W myśl tych wytycznych mikrokontroler powinien posiadać pamięć o pojemności niezbędnej dla przechowywania: strefy MRZ, danych cyfrowych dotyczących zabezpieczenia dokumentów (PKI), identyfikatorów biometrycznych (zdjęcie, linie papilarne). Struktura danych zapisywanych do pamięci mikrokontrolera powinna być zgodna z: WIK (Wspólne Instrukcje Konsularne), MRZ (danymi drukowanymi), LDS (Struktura Danych Logicznych) mikroprocesora. Zastosowane rozwiązania sprzętowo-programowe powinny gwarantować bezpieczeństwo i integralność danych cyfrowych zapisanych w pamięci mikroprocesora. Sam mikroprocesor powinien posiadać certyfikat CC (Common Criteria). Zakres i rodzaj danych zapisywanych do pamięci układu elektronicznego zależy od typu dokumentu. Organizację tych danych określają przepisy krajowe lub międzynarodowe. W przypadku

54 54 L. Rozbicki, M. Plucińska dokumentów podróżnych struktura logiczna danych (LDS Logical Data Structure) jest określona w dokumencie Doc 9303 Międzynarodowej Organizacji Lotnictwa Cywilnego ICAO (International Civil Aviation Organization). Aktualna wersja Doc 9303 zawiera trzy następujące rozdziały: Rozdział 1 Machine Readable Passports (MRPs), Rozdział 2 Machine Readable Visas (MRVs), Rozdział 3 Machine Readable Official Travel Documents (DTs). Dokumenty TD mogą występować w dwóch wariantach standardowej karty formatu ID-1 lub powiększonego formatu ID-2 o wymiarach określonych normą ISO/IEC 7810 dedykowaną dla kart. Doc 9303 opisuje zakres i organizację LDS wprowadzając podział na 16 następujących grup: DG1 te same dane, które zapisane są w strefie MRZ (Machine Readable Zone) tj.: o Typ dokumentu (2 bajty) o Organ wydający (3 bajty) o Nazwisko i Imię (39 bajtów) o Numer dokumentu (9 bajtów) o Narodowość (3 bajty) o Data urodzenia (6 bajtów) o Płeć (1 bajt) o Data ważności (6 bajtów) o Dane opcjonalne (26 bajtów) DG2 zdjęcie wraz z cechami biometrycznymi DG3 obraz linii papilarnych DG4 obraz tęczówki oka DG5 zdjęcie twarzy w takiej samej postaci jak na dokumencie DG7 podpis elektroniczny DG8 rezerwa DG9 rezerwa DG10 rezerwa DG11 zawiera dodatkowe dane osobowe DG12 zawiera dodatkowe dane dokumentu DG13 rezerwa DG14 rezerwa DG15 rezerwa DG16 zawiera dane osoby, którą należy powiadomić w przypadku wyższej konieczności. Doc 9303 określa również, które z tych danych są obligatoryjne.

55 Przegląd technologii i kierunków rozwoju 55 Dane biometryczne stawiają wysokie wymagania na pojemność pamięci. Wobec braku uregulowań normatywnych w zakresie wzorców biometrycznych przyjęto, że dane biometryczne pamiętane będą w postaci skompresowanych obrazów. Do kompresji obrazów linii papilarnych ICAO zaleca stosowanie algorytmów kompresji zgodnych ze standardem WSQ (Wavelet Scalar Quantization) opracowanym przez FBI, a do kompresji zdjęć twarzy formatu JPEG lub JP2000. Wymienione metody kompresji pozwalają na kilkudziesięciokrotne zredukowanie liczby bajtów przeznaczonych na zapis tych danych. Surowe obrazy twarzy lub linii papilarnych wymagają od 500 kb do 1 MB. Po kompresji te same obrazy zajmują 10 do 15 kb. Wśród danych przechowywanych w pamięci mikrokontrolera można wyróżnić dwie grupy różniące się poziomem dostępu: dane poufne z dostępem BAC (Basic Access Control), dane wrażliwe z dostępem EAC (Extended Access Control). Dane biometryczne należą do danych wrażliwych. Kraje członkowskie UE zostały zobowiązane do wprowadzenia kontroli dostępu EAC dla ochrony obrazów linii papilarnych w dokumentach MRTD w terminie do 28 czerwca 2009 r. Do weryfikacji autentyczności dokumentu elektronicznego przewidziano dwa poziomy kontroli dostępu do danych: pasywną, obligatoryjną weryfikację (Passive Authentication) danych w oparciu o kwalifikowany podpis cyfrowy na bazie krajowej infrastruktury PKI, aktywną, nie obligatoryjną weryfikację (Active Authentication) do ustalenia oryginalności mikrokontrolera. Rys. 3. Generacja podpisu cyfrowego i zapis do pamięci mikrokontrolera Podpis cyfrowy (elektroniczny) jest umieszczony w polu DG7 struktury LDS.

56 56 L. Rozbicki, M. Plucińska Procedura podpisu cyfrowego bazuje na dwóch algorytmach, jednym przeznaczonym do szyfrowania danych kluczem prywatnym (tajnym) i drugim do deszyfrowania danych przy pomocy klucza publicznego (jawnego). Skompresowane (funkcją hash) i zaszyfrowane dane stanowią podpis cyfrowy. Wiarygodność klucza publicznego potwierdza certyfikat wystawiony przez zaufaną organizację. Procedury związane z podpisem cyfrowym tworzą infrastrukturę klucza publicznego PKI (Public Key Infrastructure). Rys. 4. Proces weryfikacji danych cyfrowych Klucz publiczny niezbędny w procesie weryfikacji danych mikrokontrolera jest pobierany z centralnej bazy ICAO, do której poszczególne kraje UE przekazują swoje klucze publiczne. Na certyfikat składają się pola danych zawierające w szczególności: dane właściciela, dane podmiotu wystawiającego certyfikat, okres ważności, klucz publiczny, ścieżkę certyfikacji: certyfikaty głównego i pośrednich urzędów certyfikacji. Kwalifikowany podpis elektroniczny, czyli taki podpis zaawansowany, który został złożony przy pomocy certyfikatu kwalifikowanego oraz przy

57 Przegląd technologii i kierunków rozwoju 57 użyciu bezpiecznego urządzenia (SSCD Secure Signature Creation Device) do składania podpisu upewnia odbiorcę o: autentyczności danych, integralności danych oraz gwarantuje nadawcy ochronę przed sfałszowaniem danych przez odbiorcę Oprogramowanie systemowe mikrokontrolera kartowe systemy operacyjne (COS) Aplikacja realizująca funkcjonalność elektronicznego dokumentu identyfikacyjnego w zakresie zapisu, odczytu oraz ochrony przed nieuprawnionym dostępem do danych i ich ewentualną modyfikacją jest osadzona w środowisku systemu operacyjnego mikrokontrolera wbudowanego w dokument. Specjalizowane systemy operacyjne (COS) przeznaczone dla kart lub inlays mogą być jednoaplikacyjne lub wieloaplikacyjne. Systemy wieloaplikacyjne pozwalają na współbieżną pracę wielu aplikacji. COS mogą być natywne lub otwarte z punktu widzenia aplikacji, tj. nie wiążące aplikację z danym środowiskiem sprzętowym (w odróżnieniu od natywnych). Przykłady natywnych COS: STARCOS, SECCOS, MTCOS, AXSELA, HERCULES. Przykłady otwartych COS: MULTOS, JavaCard, BasicCard, JTOP, Windows for SmartCard. Standardowy zestaw operacji oferowanych przez COS obejmuje operacje na systemie plików oraz procedury autoryzacyjne. W wielu systemach tak ograniczony zestaw operacji powoduje, że większość działań wykonywana jest poza kartą. Jej rola sprowadza się wtedy tylko do bezpiecznego przechowywania danych. Nową funkcjonalność środowiska mikroprocesorowego karty lub inlays można uzyskać na dwa sposoby:

58 58 L. Rozbicki, M. Plucińska przez rozszerzenie lub całkowite zastąpienie istniejącego systemu operacyjnego, tak aby obsługiwał dodatkowe polecenia wymagane przez aplikację; przez wprowadzenie do pamięci mikrokontrolera, oprócz systemu operacyjnego, aplikacji, którą można wykonywać w środowisku mikrokontrolera. Aplikacja w trakcie wykonania może wywoływać polecenia systemu operacyjnego. W tym wariancie oprócz danych również aplikacja wprowadzana jest do pamięci EEPROM. System operacyjny musi wtedy definiować sposób ładowania i uruchamiania aplikacji, jak również zestaw operacji (wywołań systemowych), z których będą mogły korzystać aplikacje wykonujące się w mikrokontrolerze. Rozdzielenie aplikacji od systemu operacyjnego ma jeszcze jedną zaletę daje możliwość jednoczesnego umieszczenia w pamięci nie jednej, lecz wielu aplikacji. Istnieją dwa podstawowe warianty uniezależnienia aplikacji od platformy sprzętowej. Pierwszy polega na zestandaryzowniu systemu operacyjnego. Przykładem takiego standardu jest MULTOS (Multi-application Operating System). System został stworzony przez firmę Mondex. Obecnie jest własnością konsorcjum zrzeszającego wielu producentów kart oraz organizacji wykorzystujących karty w swoich systemach. W skład konsorcjum wchodzą między innymi firmy: Gemplus, Hitachi, Motorola, Siemens-Nixdorf oraz organizacje finansowe American Express, EuroPay oraz MasterCard. MULTOS jest standardem otwartym. Definiuje sposób bezpiecznego ładowania aplikacji do pamięci karty, opartego na wystawianych certyfikatach. Możliwe jest współistnienie wielu aplikacji, jak i ich usuwanie z karty. Aplikacje w systemie MULTOS pisze się w języku MEL (MULTOS Execution Language), który jest językiem niskiego poziomu. Istnieją kompilatory języka C do kodu MEL. Wzorcowa implementacja systemu operacyjnego MULTOS mieści się w 32 kilobajtach pamięci ROM. Aplikacja umieszczana jest w pamięci nieulotnej EEPROM. Drugi sposób polega na wprowadzeniu zestandaryzowanej warstwy pośredniczącej pomiędzy aplikacją a systemem operacyjnym. W pamięci ROM, oprócz systemu operacyjnego, producent umieszcza interpreter pewnego języka. Aplikacje ładowane do pamięci nieulotnej EEPROM są wykonywane przez ten właśnie interpreter. Aplikację napisaną w danym języku można uruchomić na każdej platformie wyposażonej w jego interpreter. Przykładem takiego rozwiązania jest język Java z warstwą pośrednią nazywaną maszyną wirtualną, umieszczoną przez producenta w pamięci

59 Przegląd technologii i kierunków rozwoju 59 ROM razem z systemem operacyjnym. Oprócz maszyny wirtualnej producent umieszcza w pamięci mikrokontrolera program ładujący oraz zestaw klas (class library), z których mogą korzystać aplikacje użytkownika. Program ładujący dostarcza między innymi mechanizmu weryfikacji ładowanych programów (używającego podpisów cyfrowych). Uniemożliwia to uruchomienie oprogramowania nieautoryzowanego przez właściciela karty lub inlays. Innym przykładem jest interpreter (maszyna wirtualna) kodu pośredniego języka Basic stworzony przez niemiecką firmę ZeitControl. Ogólny schemat postępowania jest taki sam, jak w przypadku Javy. Program jest pisany w języku ZC-Basic, będącym podzbiorem języka Basic, a następnie jest kompilowany do kodu pośredniego P-Code, który jest odpowiednikiem kodu bajtowego dla Javy. Zestawy instrukcji kodów pośrednich są jednak inne. Aplikacja w postaci kodu pośredniego jest umieszczana w pamięci nieulotnej mikrokontrolera przy użyciu dostarczonego przez producenta oprogramowania (działającego jedynie w systemie MS Windows). Aplikacja jest wykonywana przez maszynę wirtualną będącą częścią systemu operacyjnego. Z punktu widzenia oprogramowania mikrokontrolery możemy podzielić na: mikrokontrolery z własnym systemem operacyjnym (specjalizowanym) zapisanym w pamięci nieulotnej typu ROM, realizującym zadaną logikę pracy. Można wyróżnić dwa typy takich rozwiązań proste, z pamięcią zorganizowaną w statyczną strukturę plikową oraz bardziej złożone, w których pamięć zorganizowana jest w dynamiczną strukturę plikową. Strukturę systemu plików w karcie definiuje ISO i takie karty są nazywane kartami z systemem plikowym. Plikowy system operacyjny karty wgrywany jest do mikrokontrolera na etapie produkcji i w związku z tym funkcjonalność jego nie może być później zmieniana. Karty plikowe nazywane są również kartami natywnymi, tj. takimi, których funkcjonalność jest określona przez system operacyjny i nie podlega zmianom. mikrokontrolery z otwartą platformą, których system operacyjny pozwala na ładowanie do pamięci nieulotnej typu EEPROM programów i wykonywanie ich w mikrokontrolerze. Jako przykłady otwartych platform można wymienić: Java Card, MULTOS, Basic Card. Polecenia sytemu operacyjnego COS zostały ujęte w normie ISO/IEC 7816 i są podzielone na funkcje: podstawowe (ISO/IEC ),

60 60 L. Rozbicki, M. Plucińska bazodanowe (ISO/IEC ), kryptograficzne (ISO/IEC ), zarządzania systemem plików (ISO/IEC ). Komputer komunikuje się z mikrokontrolerem ulokowanym w dokumencie za pośrednictwem czytnika używając protokółu oraz struktury danych APDU (Application Protocol Data Units) zdefiniowanych w normie ISO/IEC i ISO/IEC Działania międzyoperacyjne są realizowane na dwóch poziomach: poziomie poleceń serwisowych szyfrowanie / deszyfrowanie, uwierzytelnianie, podpis cyfrowy, poziomie poleceń aplikacji realizacja żądań APDU. Działania międzyoperacyjne nie obejmują następujących obszarów: inicjalizacji, zarządzania kluczami kryptograficznymi, komunikacji pomiędzy mikrokontrolerem i czytnikiem, komunikacji pomiędzy czytnikiem i komputerem. Systemy operacyjne otwartych platform nie udostępniają bezpośrednio funkcji zapisu i odczytu pamięci. Umożliwiają natomiast instalowanie nakładek na system operacyjny tworzących pośrednią warstwę (middleware) pomiędzy systemem operacyjnym a aplikacjami. Pakiety tej warstwy są oferowane odpłatnie przez trzecie firmy. Przykładem może być pakiet realizujący dostęp do pamięci, zgodny ze standardem MODS (MasterCard Open Data Storage), który umożliwia zorganizowanie w pamięci karty np. książki adresowej lub przechowywanie w niej danych medycznych. Aplet jmods dla Java Card opracowany przez ORGA realizuje pełną funkcjonalność standardu MODS. Procedury warstwy pośredniej można pisać we własnym zakresie, lecz jest to pracochłonne i kosztowne Układy scalone do zastosowań w dokumencie elektronicznym Rozwój technologii elektronicznych w zakresie gęstości upakowania, możliwości funkcjonalnych oraz miniaturyzacji stworzyły realną możliwość wkomponowania scalonego układu elektronicznego do dokumentu. Możliwości funkcjonalne takiego układu scalonego są określone typem dokumentu, a konstrukcja uwzględnia sposób jego montażu (wklejania). Komunikacja Komunikacja z układem scalonym zamontowanym w dokumencie odbywa się na jeden z dwóch sposobów: kontaktowy, poprzez specjalne pole stykowe, bezkontaktowy, drogą radiową.

61 Przegląd technologii i kierunków rozwoju 61 W dokumentach w formacie książeczkowym stosuje się interfejs bezprzewodowy, a w dokumentach w formacie plastykowej karty interfejs stykowy i/lub radiowy. W przypadku kart plastykowych możliwe jest wklejenie dwóch niezależnych układów scalonych, jednego do komunikacji stykowej i drugiego do komunikacji radiowej (karta dualna) lub jednego układu scalonego z podwójnym interfejsem: stykowym i radiowym. Stosowanie dualnych rozwiązań wynika z potrzeb w zakresie funkcjonalnym oraz wymaganej mocy obliczeniowej. Wewnętrzna struktura układu scalonego (chipa) dedykowanego do zastosowań w dokumentach, bazuje na strukturze mikrokontrolera będącego de facto samodzielnym mikrokomputerem z jednostką CPU, niezbędnymi pamięciami, układami wspomagającymi, układami interfejsowymi oraz z wbudowanym systemem operacyjnym. W jednej strukturze krzemowej razem z mikrokontrolerem mogą występować dodatkowo koprocesory do realizacji funkcji kryptograficznych. Rys. 5. Podstawowe bloki funkcjonalne mikrokontrolera Jednym z silnych wymagań stawianych układom scalonym dedykowanym do zastosowań w dokumentach jest minimalizacja pobieranej energii. Stoi to w sprzeczności z wymaganiami w zakresie zapewnienia odpowiedniej mocy obliczeniowej. Obecnie układy bezkontaktowe, ze względu na stosunkowo małą energię zasilania dostarczaną drogą radiową, posiadają mniejsze możliwości funkcjonalne w zakresie mocy obliczeniowej i pojemności dostępnej pamięci. Układy z interfejsem stykowym zasilane są z zewnętrznego źródła zasilania

62 62 L. Rozbicki, M. Plucińska poprzez pole stykowe. Ta grupa układów na dzień dzisiejszy charakteryzuje się lepszymi parametrami. Rys. 6. Pole stykowe, położenie i opis kontaktów Pole stykowe (rys. 6) zawiera osiem znormalizowanych styków (norma ISO/IEC7816-2), z których dwa przeznaczone są do zasilania układu scalonego, dwa do komunikacji w trybie szeregowym, jeden do resetu, a pozostałe trzy stanowią rezerwę. Połączenie radiowe wymaga dołączenia do układu scalonego anteny. Ten typ interfejsu wykorzystuje następujące pasma częstotliwości: 125 khz, 13,56 MHz, 868 MHz (w Europie) oraz 2,4 GHz. Antena nanoszona jest na elastyczne podłoże metodą druku elektronicznego. Następnie do niej jest dołączany chip i ewentualnie kondensator. Konstrukcja anteny i sposób zasilania układu elektronicznego decydują o zasięgu komunikacji. W ostatnim okresie amerykańska firma Fractal Antenna Systems, Inc. opracowała nowy typ anten o lepszych parametrach od dotychczasowych rozwiązań dzięki zastosowaniu geometrii fraktalnej. Rys. 7. Budowa karty z podwójnym interfejsem (rysunek firmy NXP) antena w postaci kilku zwojów naniesionych na podłoże z dwoma wyprowadzeniami do wlutowania układu scalonego oraz płytka do komunikacji stykowej

63 Przegląd technologii i kierunków rozwoju 63 W dokumentach identyfikacyjnego do realizacji komunikacji bezstykowej stosuje się inlays. Rys. 8. Przykład wkładu inlay do zastosowania w dokumencie identyfikacyjnym, w lewym górnym rogu widać chip jako czarny kwadracik Inlay (rys. 8) jest wkładem elektronicznym przeznaczonym do wklejania, wykonanym na podłożu elastycznym, na które jest naniesiona antena i montowany chip. Jest to układ pasywny (bez własnego źródła zasilania). Energię niezbędną do pracy pobiera z sygnału radiowego wysyłanego przez czytnik. Ponadto inlay nie posiada własnego nadajnika, a tylko moduluje odbierany sygnał i zwrotnie rozsiewa go. W związku z tym dostarczana do mikrokontrolera niewielka energia narzuca ograniczenia w zakresie funkcjonalnym oraz dostępnej mocy obliczeniowej. Obecnie produkcją układów do zastosowań identyfikacyjnych zajmują się: Atmel, Dallas, Semiconductor, Hitachi, Infineon, Inside Technologies, Microchip, NEC, NXP Philips, Samsung, STMicroelectronics, Texas Instruments, Toshiba, Xicor. Karty zbliżeniowe (z układami bezkontaktowymi) mają podstawową wadę nie można zagwarantować utrzymania karty w zasięgu czytnika przez dłuższy czas podczas wykonywania zapisu. Karty te nie posiadają wewnętrznych zabezpieczeń przed błędami w wyniku utraty zasilania w trakcie zapisu. Dlatego też, na potrzeby dokumentów identyfikacyjnych można i praktycznie wykorzystuje się tzw. smart karty plastykowe karty procesorowe z interfejsem stykowym powszechnie stosowane w innych aplikacjach, np. w sektorze bankowym. Na rynku są one oferowane jako białe karty standardowych rozmiarów z wbudowanym systemem operacyjnym oraz z możliwością wykonania nadruku.

64 64 L. Rozbicki, M. Plucińska Budowa wewnętrzna układu mikrokontrolera Chipy, czyli jednokostkowe układy scalone przeznaczone do stosowania w dokumentach identyfikacyjnych dostarczane są na rynek w następujących postaciach: płytki krzemowej (plastra) z naniesionymi strukturami mikroprocesorowymi, pojedynczej struktury w postaci modułu z wyprowadzeniami do anteny i/lub pola stykowego, pojedynczej struktury w obudowie do druku powierzchniowego. Można je podzielić na dwie grupy: chipy pamięciowe, chipy procesorowe. Chipy pamięciowe są to specjalizowane układy scalone z wbudowaną pamięcią o pojemności (obecnie) od jednego do kilkuset kb i więcej oraz z możliwością wielokrotnego zapisu i odczytu danych. Mogą również posiadać dodatkowe specjalizowane układy realizujące funkcje kryptograficzne. Przykładami chipa pamięciowego mogą być układy scalone firmy Philips MF1 IC S50 o pojemności pamięci 1 kb oraz DESFire z pamięcią 8 kb, MF3 IC D81 (z wbudowanym koprocesorem kryptograficznym) i pamięcią o pojemności 8 kb. Podstawowe parametry takiego układu to: pojemność pamięci 1 kb EEPROM z podziałem na 16 sektorów każdy po 4 bloki 16 bajtowe, ochrona dostępu do pamięci z wykorzystaniem 2 kluczy każdy po 6 bajtów, wybór trybu pracy bloku: pamięć, licznik dekrementowany, licznik inkrementowany. Głównymi obszarami zastosowań układów MF1 IC S50 są znormalizowane karty plastykowe, które znalazły zastosowania głównie w środkach komunikacji oraz systemach kontroli dostępu i rejestracji czasu pracy jako identyfikatory. W systemach kontroli dostępu i rejestracji czasu pracy oprócz unikalnego kodu zawartego w chipie wykorzystywanego do identyfikacji użytkownika dodatkowo można wykorzystać pamięć układu do przechowywania wzorca biometrycznego w celu autoryzacji karty. Przykładem takiego rozwiązania jest system kontroli dostępu i rejestracji czasu pracy XChronos opracowany w Instytucie Maszyn Matematycznych, w którym czytniki IMMPro realizują autoryzację kart.

65 Przegląd technologii i kierunków rozwoju 65 Rys. 9. Wewnętrzna struktura chipu procesorowego (układ P8RF5016 firmy NXP) Chipy procesorowe są to w omawianych zastosowaniach specjalizowane mikrokontrolery z zasobami sprzętowymi i programowymi niezbędnymi do lokalnego przetwarzania danych. Architektura tych układów wywodzi się z dwóch linii: CISC (Complex Instruction Set Computers procesory z uniwersalną listą rozkazów) i RISC (Reduced Instruction Set Computer procesory z ograniczoną listą rozkazów). Przedstawicielami linii CISC są chipy serii SmardMX (rys. 9) firmy NXP Philips, w których zastosowano jądro mikrokontrolerów rodziny 80C51. W kartach innych producentów są stosowane mikrokontrolery rodziny Motorola Aktualnie na rynku oferowane są mikrokontrolery jednochipowe z szyną 8, 16 i 32 bitową. Można zaobserwować wyraźną tendencję do przechodzenia na układy z szerszą szyną oraz z większymi częstotliwościami taktowania. Związane jest to z rosnącymi wymaganiami w zakresie mocy obliczeniowej. W klasie 32 bitowych chipów dominują rozwiązania bazujące na rdzeniach ARM (Advanced RISC Machine) i IPS (Microprocessor without Interlocked Pipeline Stages). Poniżej przedstawiono podstawowe parametry dwóch układów serii Mifare ProX i SmartMX firmy NXP Philips, z których drugi dedykowany jest do zastosowań między innymi w dokumentach elektronicznych. Podstawowe parametry układu P8RF5016 serii Mifare ProX: CPU 80C51, ROM 64 kb, EEPROM 16 kb, RAM 2,3 kb, koprocesor PKI, koprocesor 3DES, interfejsy stykowy ISO7816, zbliżeniowy ISO14443A.

66 66 L. Rozbicki, M. Plucińska Podstawowe parametry układu P5CD072 serii SmartMX: CPU 80C51, taktowanie do 30 MHz, szyna 8 bitowa, architektura CISC, ROM 160 kb (pamięć kodu z zapisem na etapie produkcyjnym), EEPROM 72 kb (pamięć danych i kodu, wielokrotnego zapisu), RAM 4608 Bajtów (pamięć zmiennych), koprocesor PKI (infrastruktura klucza publicznego), koprocesor 3DES (algorytm trzykrotnego szyfrowania wiadomości), interfejs zbliżeniowy zgodny z normą ISO/IEC Istotnymi wymaganymi parametrami dotyczącymi pamięci EEPROM w tego typu układach są: czas przechowywania danych: > 10 lat, liczba cykli kasowania / zapisów do pamięci: > Przykłady zastosowań chipów w paszportach System Producent Operacyjny Chip PWPW Hercules OTI Giesecke & Devrient GmbH STARCOS Philips P5CT072V0N T-Systems International GmbH TCOS Infineon SLE66CLX641p Philips P5CT072V0N Sharp Corporation ep-ape SM4128(V3) MaskTech GmbH MTCOS Philips P5CD072V0Q Samsung Electronics Co., Ltd. MULTOS S3CC9GC S3CC9GW Trusted Logic, Infineon jtop SLE66CLX641p Gemalto Meudon AXSEAL Philips P5CD036V0Q Philips P5CD072V0Q 5. Stanowisko obsługi dokumentu elektronicznego Na infrastrukturę obsługi dokumentów elektronicznych będą składały się: stanowiska zbierania danych, personalizacji dokumentu (czytnik OCR, czytnik ISO14443 lub ISO 7816, czytnik biometryczny, aparat fotograficzny, komputer), stacjonarne stanowiska kontroli (weryfikacji) dokumentów, mobilne stanowiska kontroli dokumentów, system obsługi danych z dokumentów.

67 Przegląd technologii i kierunków rozwoju 67 W warstwie sprzętowej stanowiska obsługi dokumentu elektronicznego można wyróżnić trzy składowe: komputer, czytnik dokumentu, dokument z chipem i tym samym dwa interfejsy: komputer-czytnik, czytnik-chip (dokument). Warstwa fizyczna transmisji danych pomiędzy czytnikiem i chipem zdefiniowana została w normach: ISO/IEC dla kart stykowych, ISO/IEC dla kart zbliżeniowych. Komunikację pomiędzy komputerem i czytnikiem opisują następujące specyfikacje: Personal Computer Smart Card (PC/SC), OpenCard Framework (OCF), Virtual Card Edge Interface (VCEI) definiuje polecenia poziomu APDU dla wirtualnych i plikowych systemów. Rys. 10. Stanowisko kontroli paszportu firmy OTI 6. Wnioski W rozwoju oprogramowania mikrokontrolerów przeznaczonych dla zastosowań w kartach można zauważyć następujące kierunki:

68 68 L. Rozbicki, M. Plucińska przechodzenie na otwarte platformy, wieloaplikacyjność, przenośność aplikacji, zwiększenie bezpieczeństwa danych i aplikacji, zwiększenie funkcjonalności aplikacji i lokalne przetwarzanie, zwiększenie liczby danych. W zakresie sprzętu dominują następujące trendy: wzrost mocy obliczeniowej, wzrost pojemności pamięci, nacisk na energooszczędność, nowe technologie biometryczne, lokalne przetwarzanie. Jednym z najważniejszych zagadnień dotyczących dokumentów elektronicznych jest bezpieczeństwo danych, a w szczególności kluczy szyfrujących. W niektórych rozwiązaniach prywatne klucze do podpisu cyfrowego przechowuje się w pamięci mikrokontrolera. Dostęp do nich uzyskuje się za pośrednictwem kodu osobistego (PINu). Kod z kolei należy zapamiętać. Niestety jest to słaby punkt w ochronie tak przechowywanego klucza. Rozwiązaniem alternatywnym i skutecznym mogą być klucze daktyloskopijne generowane na podstawie linii papilarnych. Takich kluczy nie trzeba pamiętać oraz nie można nieświadomie udostępnić innej osobie. Normy, standardy i zalecenia Międzynarodowa Organizacja Lotnictwa Cywilnego (ICAO), Machine Readable Travel Documents [Dokumenty podróży odczytywane automatycznie], dok. 9303, część 1, część 2, Paszporty odczytywane automatycznie, wydanie szóste, 2006 r., ICAO NTWG, RF Protocol and Application Test Standard for E- Passport [Protokół przesyłania danych drogą radiową i norma dla testu praktycznego odnoszącego się do paszportów elektronicznych]; części 2 i 3, ICAO NTWG, Use of Contactless Integrated Circuits In Machine Readable Travel Documents, Technical Report [Zastosowanie bezkontaktowych obwodów scalonych w dokumentach podróży odczytywanych automatycznie, raport techniczny], wersja 3.1, 16 kwiecień 2003 r., ICAO NTWG, PKI for Machine Readable Travel Documents Offering ICC Read-Only Access, Technical Report [PKI dla dokumentów podróży odczytywanych automatycznie z dostępem

69 Przegląd technologii i kierunków rozwoju 69 wyłącznie do odczytu ICC, raport techniczny], wersja 1.1, 1 październik 2004 r., ICAO NTWG, Development of a Logical Data Structure LDS for optional capacity expansion technologies, Technical Report [Opracowanie struktury danych logicznych (LDS) LDS dla technologii opcjonalnego rozszerzenia pojemności, raport techniczny], wydanie poprawione 1.7, 18 maj 2004 r., ICAO NTWG, Biometrics Deployment of Machine Readable Travel Documents, Technical Report [Zastosowanie biometryki w dokumentach podróży odczytywanych automatycznie, raport techniczny], wersja 2.0, 5 maj 2004 r. [ICAO Bio], TAG MRTD/NTWG, BIOMETRICS DEPLOYMENT OF MACHINE READABLE TRAVEL DOCUMENTS, TECHNICAL REPORT Development and Specification of Globally Interoperable Biometric Standards for Machine Assisted Identity Confirmation using Machine Readable Travel Documents, Version 1.9, ICAO TAG MRTD/NTWG, 19 May 2003, ISO/IEC :2005, Biometric Data Interchange Formats [Formaty wymiany danych biometrycznych] część 4: Dane dotyczące obrazu odcisku palca, ISO/IEC :2005, Biometric Data Interchange Formats [Formaty wymiany danych biometrycznych] część 5: Dane obrazu twarzy, ISO/IEC :2005, Identifications cards Integrated circuit cards [Karty identyfikacyjne karty obwodów scalonych] część 4: Organizacja, zabezpieczenia i polecenia wymiany, ISO/IEC :2004, Identifications cards Integrated circuit cards [Karty identyfikacyjne karty obwodów scalonych] część 8: Polecenia operacji zabezpieczających, ISO/IEC Identification cards Contactless integrated circuit(s) cards Proximity cards [Karty identyfikacyjne bezkontaktowe karty obwodów scalonych karty zbliżeniowe], ANSI/NIST-ITL Norma Data Format for the Interchange of Fingerprint, Facial, Scarmark & Tattoo (SMT) Information [ Format danych dla wymiany informacji o odciskach palców, twarzy, bliznach i tatuażach (SMT) ]; FBI: Wavelet Scalar Quantization (WSQ) Specyfikacje dla paszportu UE Strona 12 z 12, Advanced Security Mechanisms for Machine Readable Travel Documents [Zaawansowane mechanizmy zabezpieczeń dokumentów podróży odczytywanych automatycznie], wersja 1.0, 2005 r., Common Criteria Protection Profile for Machine Readable Travel Document with ICAO Application, Basic Access Control [Wspólne kryteria odnoszące się do profilu zabezpieczeń dokumentów podróży

70 70 L. Rozbicki, M. Plucińska odczytywanych automatycznie zawierających aplikację ICAO, Podstawowa kontrola dostępu], wersja 1.0, ISO 7810 Fizyczne właściwości karty, X.509 standard sposobu użycia asymetrycznych algorytmów kryptograficznych w celu składania podpisu elektronicznego oraz jego weryfikacji. Skróty ADPU Application Protocol Data Units CC Common Criteria EEPROM Electrically Erasable Programmable ROM GSC-IS Government Smart Card Interoperability Specification ICAO International Civil Aviation Organization ID-1 format karty płatniczej NIST National Institute of Standards and Technology MRP Machine Readable Passports MRTD Machine Readable Travel Documents MRZ Machine Readable Zone OCR Optical Character Recognition PKI Public Key Infrastructure RFID Radio-frequency identification ROM Read Only Memory SSCD Secure Signature Creation Device WSQ Wavelet Scalar Quantization VIZ Visual Inspection Zone

71 TECHNIKI KOMPUTEROWE 1/2007 Andrzej W. Mitas, Politechnika Śląska Dariusz Mostowski Instytut Elektroniki, Telekomunikacji i Informatyki, Politechnika Szczecińska Marcin Bugdol Politechnika Śląska Kryptografia biometryczna w aspekcie wzmacniania podpisu elektronicznego Biometric cryptography in the aspect of biometric hardening of the digital signature Streszczenie W artykule przedstawiono zasady oraz problematykę tworzenia i stosowania klasycznego podpisu elektronicznego w kontekście funkcjonujących przepisów prawa oraz specyfiki współczesnego rynku teleinformatycznego. Zaprezentowano rozwijane koncepcje systemów biometrycznego uwierzytelniania procesu szyfrowania danych cyfrowych, ujęte we wspólnym nurcie tzw. kryptografii biometrycznej. Przedstawiono autorskie podejście do procesu biometrycznego wzmacniania e-podpisu w implementacji algorytmu RSA, zakładające tworzenie unikalnych osobniczo ID-markerów stanowiących determinant procesu generacji publicznego i prywatnego bioklucza. Abstract In the article the rules and problems of creation and usage of the standard electronic signature are described, in the context of actual law regulations and the specific shape of today s data communications market. The concepts of systems for biometrically enhanced digital data encryption process, developed in the common domain so-called biometric cryptography are presented. The novel approach to the process of biometric hardening of the e-signature in the implementation of the RSA algorithm is presented. It assumes the extraction of the individually unique ID-markers, as the determinants of the private and public biokeys generation process. 1. Wprowadzenie Biometria stanowi jeden z podstawowych obszarów zainteresowań współczesnych badaczy z pogranicza biocybernetyki i elektroniki

72 72 A. Mitas, D. Mostowski, M. Bugdol biomedycznej. Taki stan rzeczy ma wiele powodów, choć kluczowym wydaje się być potrzeba wzrostu stopnia bezpieczeństwa w kontekście niezwykle dynamicznego wzrostu tempa życia, wymagającego od człowieka szybkich i rozlicznych transakcji, realizowanych z wykorzystaniem rozległej sieci teleinformatycznej, przekazu dokumentów i działań w swojej naturze eliminujących kontakt personalny. Podpis elektroniczny w jego ustawowym wymiarze wydaje się być jednie pierwszym przybliżeniem uproszczonej, w sensie technicznym, autentyfikacji. Już bowiem na wstępie ujawniają się jego potencjalne niedostatki, mimo całej złożoności proceduralnej, wymagającej i sprzętu wysokiej jakości i oprogramowania, nie budzącego przecież zastrzeżeń od strony kryptograficznej. Można przyjąć tezę, że utrata kluczy o fizykalnym charakterze nie jest wykluczona, a prostą konsekwencją jest możliwość sfałszowania podpisu cyfrowego, pomijając już problematykę autofałszerstwa. Jedynym na dziś rozwiązaniem wydaje się korelacja osiągnięć techniki (efektywnie aplikowanych w podpisie cyfrowym) z obyczajami dotychczasowymi, które zakładają odręczne, a zatem w swej istocie biometryczne uwierzytelnianie dokumentów i transakcji. Podpis odręczny staje się nie tylko mało wygodny, lecz z powodu digitalizacji naszej codzienności ulega trywializacji, co istotnie ogranicza jego realną przydatność w aspekcie autentyfikacji. Jednym z rozwiązań jest skojarzenie nieinwazyjnie mierzalnych atrybutów biometrycznych z podpisem elektronicznym. Koniunkcja wyodrębnionych znaczników biometrycznych z kodowaniem strumienia pseudolosowo generowanych danych implikuje konieczność personalizacji, polegającej na fizykalnej obecności osoby składającej podpis elektroniczny. 2. Podstawy formalno-prawne podpisu elektronicznego Ustawa z dnia 18 września 2001 r o podpisie elektronicznym wprowadza pojęcie podpisu elektronicznego oraz bezpiecznego podpisu elektronicznego. Zgodnie z Art. 3. ust 1 podpis elektroniczny to dane w postaci elektronicznej, które wraz z innymi danymi, do których zostały dołączone lub, z którymi są logicznie powiązane, służą do identyfikacji osoby składającej podpis elektroniczny. Kolejny ustęp definiuje pojęcie bezpiecznego podpisu elektronicznego jako: podpis elektroniczny, który: a) jest przyporządkowany wyłącznie do osoby składającej ten podpis, b) jest sporządzany za pomocą, podlegających wyłącznej kontroli osoby składającej podpis elektroniczny, bezpiecznych urządzeń, służących do składania podpisu elektronicznego i danych służących do składania podpisu elektronicznego,

73 Kryptografia biometryczna w aspekcie 73 c) jest powiązany z danymi, do których został dołączony, w taki sposób, że jakakolwiek późniejsza zmiana tych danych jest rozpoznawalna. Pierwsza część definicji jest na tyle ogólna, że może oznaczać każde dane, niekoniecznie w postaci cyfrowej, mogące uwierzytelnić osobę, która je wytworzyła. Definicja ta nie stawia niestety żadnych wymagań odnośnie bezpieczeństwa tworzenia takiego podpisu. W drugiej część definicji podpisu uzupełniono te braki poprzez dodatkowe warunki. Rozszerzona definicja bezpiecznego podpisu elektronicznego daje dostateczną gwarancję, że dane tworzące podpis ustalają tożsamość osoby, która ma wyłączną kontrolę nad urządzeniem służącym do składania podpisu, spełniającym jednocześnie szereg wymagań bezpieczeństwa. Podpis elektroniczny gwarantuje też integralność danych, do których został dołączony. Jest to cecha w zasadniczy sposób odróżniająca podpis elektroniczny od tradycyjnego: podpis elektroniczny jest tworzony na podstawie zawartości dokumentu, który jest podpisywany, a więc za każdym razem jest inny. Jakakolwiek zmiana danych, które zostały podpisane, pociąga za sobą zmianę danych tworzących podpis elektroniczny. Dzięki temu tak zabezpieczony dokument jest chroniony przed przechwyceniem i zmianą jego zawartości przez nieuprawnioną osobę. 3. Algorytmy generowania podpisu elektronicznego Obecnie w celu utworzenia bezpiecznego podpisu elektronicznego stosuje się asymetryczne algorytmy kodowania. W technice tej komunikujący się użytkownicy generują po parze kluczy: publiczny i prywatny, udostępniając jedynie klucz publiczny. Podpis elektroniczny może być generowany tylko przez osobę posiadającą klucz prywatny, ale każdy, kto posiada odpowiedni klucz publiczny, może weryfikować autentyczność takiego podpisu. Oparty na standardzie DSS (ang. Digital Signature Standard) podpis elektroniczny realizowany jest przez szereg algorytmów, z których najpopularniejsze to algorytm DSA (ang. Digital Signature Algorithm) oraz RSA (ang. Rivest-Shamir-Adleman). Proces elektronicznego podpisu wiadomości, oprócz generacji pary kluczy, wykorzystuje algorytm jednokierunkowej funkcji dla generacji tzw. skrótu wiadomości. Funkcja generująca skrót wiadomości koduje treść wiadomości na ciąg znaków o pewnej stałej określonej długości. Na długość skrótu nie ma wpływu długość samej wiadomości. Powszechnie wykorzystywane są dwie funkcje służące do generowania skrótów wiadomości dla DSA i RSA: funkcja MD5 i funkcja SHA-1. W procesie generacji podpisu elektronicznego (e-podpisu), pokazanego na rysunku rys. 1, wartość obliczonej funkcji skrótu zostaje

74 74 A. Mitas, D. Mostowski, M. Bugdol następnie zaszyfrowana z wykorzystaniem klucza prywatnego osoby podpisującej wiadomość, co daje w rezultacie wygenerowanie podpisu elektronicznego dla danej wiadomości. Następnie podpis dołączany jest do oryginalnej wiadomości i w takiej postaci wraz z kluczem publicznym nadawcy jest wysyłany do odbiorcy. NADAWCA WIADOMOŚĆ FUNKCJA SKRÓTU KLUCZ PRYWATNY NADAWCY KLUCZ PUBLICZNY NADAWCY SKRÓT WIADOMOŚCI SZYFROWANIE E -PODPIS + WIADOMOŚĆ + E-PODPIS Rys.1. Diagram procesu tworzenia elektronicznego podpisu. Źródło: opracowanie własne Weryfikacja autentyczności e-podpisu następuje po stronie odbiorcy, poprzez wyznaczenie w pierwszej kolejności wartości skrótu dla otrzymanej wiadomości, a następnie deszyfracji e-podpisu z wykorzystaniem klucza publicznego nadawcy (rys. 2). FUNKCJA SKRÓTU SKRÓT WIADOMOŚCI WIADOMOŚĆ WIADOMOŚĆ AUTENTYCZNA TAK ZGODNE? NIE NIEAUTORYZOWANA MODYFIKACJA WIADOMOŚCI WIADOMOŚĆ + E-PODPIS SKRÓT WIADOMOŚCI KLUCZ PUBLICZNY NADAWCY E -PO DPIS DES ZYFROWA N IE Rys. 2. Diagram procesu weryfikacji elektronicznego podpisu. Źródło: opracowanie własne 4. Bezpieczeństwo i autentyczność kluczy Ustawa o podpisie elektronicznym zakłada, że wydawaniem kluczy prywatnych i kluczy publicznych zajmują się odpowiednie instytucje certyfikujące (ang. Certification Authority) działające w ramach PKI (ang.

75 Kryptografia biometryczna w aspekcie 75 Public Key Infrastructure). Autentyczność wydanych przez siebie kluczy potwierdzają one certyfikatem podpisanym własnym kluczem prywatnym. Dostawcy PKI generalnie przyjmują, iż transakcja, dokonana przez certyfikowanego właściciela klucza, jest niezaprzeczalna. Jednak zasada ta często budzi wątpliwość. O ile powiązanie podpisu z podpisywaną wiadomością jest zapewnione przez algorytm generacji kluczy, o tyle powiązanie podpisu z daną osobą nie jest już takie pewne. Większość użytkowników przechowuje swoje certyfikowane klucze w klasyczny sposób: w komputerze lub na kartach chipowych, przez co są one bardzo podatne na utratę. W przypadku utraty klucza prywatnego może dojść od fałszerstwa podpisu, czyli autoryzacji danych czyimś podpisem przez osobę do tego nieuprawnioną. Z drugiej strony dana osoba może wypierać się złożonego przez siebie podpisu i podważać wiarygodność i źródło złożonego podpisu. 5. Zastosowania technik biometrycznych w procedurze podpisu elektronicznego Klasyczne metody zabezpieczeń i identyfikacji jednostki (oparte na numerach, hasłach lub też innych identyfikatorach), są niestety niewystarczające. Przyczyną tego faktu jest sam człowiek, który w znakomitej większości przypadków jest najsłabszym ogniwem w systemie zabezpieczeń. Kody dostępu są łatwe do odgadnięcia lub też pochopnie ujawniane osobom postronnym. Z kolei wszelkie identyfikatory mogą zostać zgubione, podrobione, skradzione lub po prostu zniszczone. W ostatnich kilkunastu latach w znaczącym stopniu rozwinęły się nowe techniki identyfikacji i weryfikacji człowieka oparte na jego cechach fizjologicznych i behawioralnych. Biometria wydaje się być idealnym rozwiązaniem w przypadku potwierdzania tożsamości danej osoby. Pewne cechy człowieka, jak np. odcisk palca czy wzór tęczówki oka, są unikalne, a więc w idealnych warunkach nie ma możliwości pomyłki. Niestety, utrata identyfikatora biometrycznego niesie za sobą o wiele poważniejsze konsekwencje, aniżeli strata identyfikatora numerycznego (PIN, numer konta, hasła ). Dostęp do konta może zostać zablokowany. PIN, login czy też hasło może zostać zmienione. Natomiast cechy biometrycznej, raz danej nam przez naturę, nie jesteśmy w stanie zmienić bez fizycznej ingerencji w ciało człowieka. Dlatego też ochrona wzorców biometrycznych jest jednym z kluczowych zagadnień biometrii. Metody biometryczne wkraczają w coraz to nowe dziedziny zastosowań, a miejscach, w których były już obecne, ugruntowują swoją pozycję. Ważną dziedziną, w której biometria znajduje coraz większe zastosowanie jest kryptografia, a dokładniej kryptografia biometryczna.

76 76 A. Mitas, D. Mostowski, M. Bugdol 6. Kryptografia biometryczna Sposób wykorzystania kryptografii biometrycznej do poprawy bezpieczeństwa kodowania danych można podzielić ze względu na relację ciąg szyfrujący-próbka biometryczna oraz na etapowość procesu generowania kluczy (rys. 3). KRYPTOGRAFIA BIOMETRYCZNA Biometryczne uwalnianie kluczy Biometryczna ekstrakcja kluczy Biometryczne wzmacnianie kluczy Rozmyte schematy rekonstrukcji kluczy Biometryczne generowanie kluczy Rys. 3. Nurty w kryptografii biometrycznej. Źródło: opracowanie własne Poniżej zostaną opisane krótko poszczególne sposoby wykorzystania kryptografii biometrycznej. 6.1 Biometryczne uwalnianie kluczy W tym rozwiązaniu dostęp do klucza kodującego jest możliwy dopiero po pozytywnym teście biometrycznym [8]. Potwierdzenie tożsamości osoby uprawnionej powoduje wygenerowanie nowego klucza lub pobranie stałego klucza z bazy systemu (rys.4). Karta chipowa Szablon biometryczny Odrzucenie NIE Dopasowanie TAK Generator kluczy kodowych Klucz szyfrujący Próbka biometryczna Wektor cech Rys. 4. Biometryczne uwalnianie kluczy szyfrujących. Źródło: opracowanie własne Ten pomysł nie zakłada powiązania postaci klucza z cechą biometryczną użytkownika, jednak jest możliwa niezaprzeczalna

77 Kryptografia biometryczna w aspekcie 77 autoryzacja jego tożsamości, gdyż tylko uprawniona osoba może uwolnić klucz szyfrujący. Dodatkową zaletą tego rozwiązania jest możliwość generacji nieograniczonej liczby kluczy dla każdego użytkownika, co jest bardzo ważne w przypadku utraty klucza. 6.2 Biometryczna ekstrakcja kluczy To podejście [1] zakłada wykorzystanie jako klucza do szyfrowania danych fragmentu lub całego szablonu biometrycznego użytkownika przechowywanego w centralnym repozytorium wzorców biometrycznych (rys 5.). Repozytorium wzorców biometrycznych i-ty szablon biometryczny Odrzucenie NIE Dopasowanie TAK i-ty szablon biometryczny Klucz szyfrujący Próbka biometryczna Wektor cech Rys. 5. Schemat biometrycznej ekstrakcji kluczy kodowych. Źródło: opracowanie własne Im większy fragment wzorca biometrycznego wykorzystanego do tworzenia klucza, tym większa unikalność klucza. Jednak utrata klucza, w przypadku dużych fragmentów wzorca powoduje, iż nie można go zamienić, a dalsze korzystanie z tego wzorca jest niebezpieczne. Rozwiązanie to nie pozwala również na okresową zmianę kluczy. 6.3 Biometryczne wzmacnianie kluczy Innym sposobem wykorzystania biometrii w kryptografii jest powiązanie szablonu biometrycznego z unikalną dla każdego użytkownika pseudolosową informacją. Wśród wielu koncepcji można wyróżnić w tej grupie dwa główne podejścia do zagadnienia: ukrywanie klucza kryptograficznego w szablonie biometrycznym, wbudowywanie szablonu biometrycznego w klucz kryptograficzny. W pierwszym przypadku [4] zakłada się wykorzystanie w konstrukcji klucza kryptograficznego określonych bitów szablonu biometrycznego pobranego w procesie rejestracji użytkownika w systemie (rys. 6).

78 78 A. Mitas, D. Mostowski, M. Bugdol Próbka biometryczna Wektor cech W yodrębnienie części bitów Generator kluczy kodowych Klucz szyfrujący Rys. 6. Koncepcja biometrycznego wzmacniania kluczy kodowych poprzez ukrycie klucza w szablonie biometrycznym. Źródło: opracowanie własne Drugie podejście [5] polega na generowaniu klucza kryptograficznego na podstawie próbki biometrycznej i ciągu pseudolosowego. Próbka biometryczna jest wpierw przetwarzana, aby uzyskać powtarzalną reprezentację bitową wzorca, a następnie generowany jest ciąg pseudolosowy, który jest dołączany do wzorca. Całość tworzy ziarno dla generatora kluczy (rys. 7). Próbka biometryczna Ekstrakcja cech charakterystycznych Przekształcenie pobranych cech Generator kluczy kodowych Klucz szyfrujący Generacja ciągu pseudolosowego Ciąg pseudolosowy Rys. 7. Koncepcja biometrycznego wzmacniania kluczy kodowych poprzez wbudowanie szablonu biometrycznego w klucz. Źródło: opracowanie własne 6.4 Biometryczne generowanie kluczy Ta grupa metod opiera się na bezpośrednim generowaniu klucza kodującego na podstawie próbki biometrycznej. Ponieważ proces akwizycji cechy biometrycznej narażony jest na różne błędy, to z pobranej cechy wyodrębnia się pewne stałe cechy charakterystyczne, które poddaje się korekcie, aby stworzyć jej binarną reprezentację odporną na błędy [2] (rys. 8). Próbka biometryczna Ekstrakcja cech charakterystycznych Selekcja cech Zamiana na postać bitową Klucz szyfrujący Generator kluczy kodowych Reprezentacja próbki po korekcie Rys.8. Schemat biometrycznego generowania kluczy kodowych. Źródło: opracowanie własne K orekcja błędów

79 Kryptografia biometryczna w aspekcie Rozmyte schematy rekonstrukcji kluczy W poprzednich grupach metod cechy biometryczne wykorzystywane do tworzenia klucza kodującego były przetwarzane tak, by za każdym razem otrzymać tę samą bitową reprezentację. Niestety w wyniku takich przekształceń zmniejsza się liczba cech charakterystycznych wykorzystywanych w procesie generacji klucza, przez co unikalność klucza jest dużo niższa. Rozwiązanie to można zastąpić lub powiązać ze schematami rozmytymi, umożliwiając rekonstrukcję kluczy kryptograficznych w oparciu o zakłócone zestawy danych biometrycznych. W tym przypadku do konstrukcji klucza oraz jego deszyfracji, próbka biometryczna nie musi dokładnie odpowiadać szablonowi przechowywanemu w repozytorium. Wystarczy, aby była do niego podobna w pewnym stopniu [3]. 7. Biometryczne wzmacnianie podpisu elektronicznego W każdej z metod opisanych w poprzednim rozdziale ciąg kodowy był w mniejszym lub większym stopniu zależny od próbki biometrycznej. Niezaprzeczalną zaletą kryptografii biometrycznej jest ścisłe powiązanie tożsamości użytkownika z kodowaną informacją. Z punktu widzenia ustawowej definicji bezpiecznego podpisu elektronicznego wykorzystanie biometrii w e-podpisie daje szereg potencjalnych korzyści [6]. Jedna z koncepcji biometrycznej parametryzacji kluczy kryptograficznych polega na wykorzystaniu próbki biometrycznej w implementacji algorytmu RSA lub DSA, aby poprawić bezpieczeństwo (wzmocnić) generowanych kluczy prywatnych i publicznych [7]. Została ona przedstawiona schematycznie na rys. 9. Próbka biometryczna Odporny algorytm kodowania wzoru ID-marker Pozycja (x,y) Bioklucz prywatny (d,n) (e,n) RSA algorytm n=pq e=d`modφ(n) d Tajne liczby prywatne p, q Bioklucz publiczny Tablica zawierająca na losow ych pozycjach liczby pierwsze Rys. 9. Koncepcja biometrycznej parametryzacji procesu generowania kluczy prywatnego i publicznego w algorytmie RSA. Źródło: opracowanie własne

80 80 A. Mitas, D. Mostowski, M. Bugdol Jak widać na ilustracji, przekształcona próbka biometryczna tzw. IDmarker wskazuje pozycję dwóch liczb p, q w dodatkowej tablicy (zawierające na losowych pozycjach liczby pierwsze), które są danymi wejściowymi dla algorytmu RSA. Trzecia liczba prywatna d jest ekstrahowana bezpośrednio z ID-markera. Wygenerowane w ten sposób klucze prywatny i publiczny mogą zostać następnie wykorzystane w procesie kodowania i dekodowania skrótów wiadomości w klasycznym algorytmie DSA w sposób przedstawiony na rys. 10. Bioklucz prywatny RSA U żytkownik DANE MD5 SHA-1 Skrót Kodowanie DANE + e-podpis podpis DANE autentyczne TAK Równe? NIE Skrót MD5 SHA-1 DANE zmodyfikowane DANE DANE + e-podpis weryfikacja podpisu Dekodowanie Podpis Bioklucz publiczny RSA Rys. 10. Tworzenie i weryfikacja biometrycznie parametryzowanego podpisu elektronicznego Źródło: opracowanie własne Wykorzystywana w procesie tworzenia klucza szyfrującego informacja biometryczna, poprzez swój jednoznaczny związek z osobą użytkownika od którego pochodzi, jest najsilniejszym i najlepiej identyfikowalnym wyróżnikiem jego tożsamości. Stąd też niezwykle istotnym jest zapewnienie bezpieczeństwa informacji biometrycznej. Wspomniany wyżej ID-marker jest tworzony w oparciu o próbkę biometryczną, a dokładniej o pewne punkty charakterystycznej danej cechy (np. obszary osobliwe w przypadku odcisków palca). Tym samym na żadnym etapie generacji ID-markera (jak również w późniejszym procesie generowania kluczy) nie jest zapamiętywana informacja o szablonie biometrycznym jako całości. Dzięki temu w przypadku utraty ID-markera osoba niepowołana nie ma możliwości odtworzenia szablonu

81 Kryptografia biometryczna w aspekcie 81 biometrycznego użytkownika, co więcej jest możliwe stworzenie nowego ID-markera dla tej samej osoby poprzez zmianę algorytmu generacji IDmarkera. 8. Podsumowanie Opisane w artykule, a rozwijane współcześnie koncepcje biometrycznej parametryzacji kluczy szyfrujących, czy szerzej biometrycznego wzmacniania architektury bezpiecznego podpisu elektronicznego, mają niepodważalny wymiar utylitarny, szczególnie w kontekście rosnącego współcześnie pola zastosowań e-podpisu oraz ograniczeń, jakie niesie jego klasyczna implementacja. Prowadzone prace badawcze nad zaproponowaną koncepcją biometrycznego rozszerzenia procedur tworzenia prywatnego oraz publicznego bioklucza w implementacji algorytmu RSA, zwieńczone zostały opracowaniem metody generacji wysoce powtarzalnych, określanych mianem IDmarkerów, identyfikatorów osobniczych, w oparciu o opracowany algorytm alfanumerycznego kodowania ustalonego fragmentu struktury wzoru daktyloskopijnego, w rozpiętym na linii Galtona obszarze kodowania. Zdaniem autorów celowe jest dalsze rozwijanie opracowanych metod i algorytmów pod kątem zwiększania ich odporności na mankamenty procesu akwizycji próbek biometrycznych, przy zachowaniu wysokiego stopnia dystynktywności wyjściowych wektorów cech. Literatura [1] Bodo A. Method for producing a digital signature with aid of a biometric feature. German patent No. DE A1, [2] Davida G. I., Frankel Y., Matt B. J., Peralta R. On the relation of error correction and cryptography to an off line biometric based identification scheme. November 29, [3] Dodis Y., Reyzin L., Smith A. Fuzzy extractors How to generate strong keys from biometrics and other noisy data. Proc. of the Eurocrypt, [4] Imai H., Kobara K., Watanabe Y. About human-crypto. IEICE Trans. Vol. 100, No. 77, ISEC , s , May [5] Itakura Y., Tsujii S. Proposal on personal authentication system in which biological information is embedded in cryptosystem key. NTT. [6] Mitas A.W. Podpis elektroniczny. Biometryczna parametryzacja podpisu elektronicznego. Techniki Komputerowe, nr 1/2003, s , IMM, Warszawa [7] Mostowski D., Mitas A.W. Odporny algorytm kodowania wzoru odcisku palca w aplikacji systemu kryptografii biometrycznej. Techniki Komputerowe, nr 1/2005, s.53-65, IMM, Warszawa [8] Soutar C., Roberge D., Stoianov A., Gilroy R., B.V.K. Vijaya K. Method for secure key management using biometrics. Mytec Technologies, Inc., US Patent No , 17 April 2001.

82

83 TECHNIKI KOMPUTEROWE 1/2007 Dariusz Mostowski Instytut Elektroniki, Telekomunikacji i Informatyki, Politechnika Szczecińska Andrzej W. Mitas Politechnika Śląska Wybrane zagadnienia daktyloskopii w aspekcie biometrycznego wzmacniania podpisu cyfrowego Specific problems of dactyloscopy in the aspect of biometric hardening of the digital signature Streszczenie W artykule przedstawiono problematykę odpornej lokalizacji obszarów osobliwych wzoru daktyloskopijnego w kontekście jego wykorzystania dla biometrycznego wzmacniania e-podpisu. Obok zmodyfikowanej metody wskaźnika Poincaré a zaproponowano dwie metody dla powtarzalnej lokalizacji osobliwości wzoru: 1) metodę analizy kwadratu składowej sinusowej pola orientacji grzbietów z użyciem masek orientacji oraz 2) metodę poprawy lokalizacji wstępnie wykrytych osobliwości wzoru, z użyciem zastosowanej lokalnie Transformacji Pola Sił 2-D. Opisano strukturę testowych baz danych oraz zaprezentowano rezultaty analiz. Abstract In the article, the problem of robust localization of fingerprint singularities, in context of its use for the biometric hardening of the e-signature is described. Next to the modified Poincaré Index method, two other novel methods for repeatable localization of the singular points core and delta are proposed: 1) method of analysis of squared sinus component of the orientation field with use of the orientation masks and 2) the method for the location improvement of the initially detected singularities, with the locally applied 2-D Force Field Transformation. The fingerprint databases prepared for tests are described, and the results of the analysis are presented. 1. Wstęp W obliczu rosnącego znaczenia elektronicznej sygnatury dla dokumentu elektronicznego zwiększa się problem związanych z nią nadużyć. Koncepcja e-podpisu ujęta w ramy regulacji legislacyjnych oraz uwarunkowań i wymogów rynku elektronicznych transakcji czy

84 84 D. Mostowski, A. Mitas uwierzytelniania informacji cyfrowej, stawia przed projektantami algorytmów generacji cyfrowego podpisu szereg wyzwań na drodze do realizacji zasadniczych jego celów: uwierzytelnienia tożsamości osoby podpisującej oraz oznaczenia daty i czasu złożenia podpisu. Wiążą się z tym dwa istotne problemy: 1) niezaprzeczalność podpisu oraz 2) powiązania e-podpisu z osobą generująca klucz. O ile powiązanie e-podpisu z podpisywaną wiadomością jest zapewnione przez algorytm generowania klucza, o tyle jego powiązanie z osobą dla której para kluczy została wygenerowana, realizowane przez Centra Certyfikacji, zarządzające wydawaniem certyfikatów potwierdzających tożsamość właściciela danej pary kluczy, nie jest tak permanentne. Ta relatywnie słaba relacja e-podpis użytkownik jest niezwykle istotna z punktu widzenia dwóch kluczowych problemów pojawiających się w kontekście nadużyć w korzystaniu z e-podpisu:! fałszerstwa podpisu polegającego na nieautoryzowanym sygnowaniu danych czyimś podpisem elektronicznym,! autofałszerstwa podpisu polegającego na zaprzeczeniu faktu sygnowania danych własnym podpisem elektronicznym, podważając wiarygodność i źródło złożonego podpisu. Mankamenty klasycznego e-podpisu w obecności wysoce niezawodnych nowoczesnych metod autoryzacji opartych o analizę cech biometrycznych legły u podstaw koncepcji połączenia mocnych stron obu dziedzin [7][14]. Wykorzystanie informacji biometrycznej w procesie tworzenia pary prywatnego i publicznego bioklucza jest kluczowe w kontekście właściwości niezaprzeczalności e-podpisu, dając gwarancję, iż oznaczone wzmocnionym podpisem dane w istocie zostały sygnowane przez osobę uprawnioną. 2. E-podpis wzmocniony biometrycznie Na drodze do realizacji koncepcji biometrycznie wzmocnionego e-podpisu stoi zasadniczy problem związany z dominującym udziałem czynnika ludzkiego w procesie rejestracji biometrycznych wektorów cech. Wyzwaniem jest realizacja systemu wykorzystującego jako determinant postaci e-podpisu przetworzoną postać próbki nie zaś szablonu biometrycznego. Zadanie to sprowadza się do przerwania zależności: repozytorium wzorców biometrycznych algorytm ekstrakcji klucza. Realizacja opisanych założeń na poziomie biometrycznego pomiaru oraz parametryzacji cechy biofizycznej wymaga spełnienia dwóch warunków: 1. tolerancja na zniekształcenia różne reprezentacje tej samej cechy biometrycznej danego użytkownika muszą wygenerować ten sam klucz,

85 Wybrane zagadnienia z daktyloskopii w aspekcie nieodwracalność kluczy uniemożliwiająca odtworzenie postaci cechy biometrycznej dla której zostały stworzone. Koncepcja taka niesie za sobą konieczność optymalnego wyboru cechy biometrycznej oraz sposobu jej parametryzacji, w najwyższym stopniu odpornego na zmienne warunki rejestracji próbek biometrycznych. Ostateczny wybór wzoru linii papilarnych podyktowany był znaczną liczbą średnio 50-u powtarzalnych cech lokalnych wzoru, możliwych do wyekstrahowania z pojedynczej próbki odcisku palca, przy ich niskiej korelacji wzajemnej pozwala, nawet przy znacznie zawężonym zbiorze ekstrahowanych cech charakterystycznych oraz zredukowanej liczbie parametrów je opisujących, na tworzenie wektorów cech o wysokiej unikalności. U podstaw koncepcji odpornego algorytmu kodowania wzoru daktyloskopijnego legło założenie, iż przy zapewnieniu kontrolowanych warunków akwizycji próbki biometrycznej, możliwa jest parametryzacja wzoru daktyloskopijnego, prowadząca do wydzielenia elementarnego, wysoce powtarzalnego i dystynktywnego, wektora cech charakterytycznych w obecności dynamicznych zniekształceń wzoru [9] Odporne kodowanie wzoru daktyloskopijnego Punktem wyjścia do uzyskania niezmienniczości tworzonych wektorów cech była koncepcja parametryzacji ograniczonego zestawu cech lokalnych wzoru daktyloskopijnego w relacji do cech globalnych, w ustalonym, kołowym obszarze kodowania, z wykorzystaniem alfanumerycznego kodowania wzoru 1 w dziedzinie jego struktury przestrzennej. Uzyskany w ten sposób małowymiarowy wektor cech o wysokiej powtarzalności stanowi podstawę dla generacji unikalnego identyfikatora użytkownika ID-markera. Proponowane rozwiązanie przenosi zatem zadania, realizowane w dotychczasowych rozwiązaniach przez algorytmy korekcji błędów, na odporny algorytm parametryzacji próbki biometrycznej. Skupia się zatem nie na skutkach zmienności warunków akwizycji próbki biometrycznej, przejawiających się w zmienności wartości parametrów ją opisujących, lecz na przyczynach tej zmienności. Proponowana koncepcja zakłada kodowanie struktury wzoru w rozpiętym na linii Galtona 2, kołowym obszarze kodowania, ROI. (rys.1). Taki wybór obszaru kodowania podyktowany został rezultatami badań [5][13], które wykazały, iż najbardziej powtarzalnej deformacji ulega centrum wzoru, w otoczeniu obszaru osobliwego core. Szerzej przedstawiona koncepcja została opisana w pracy [9]. 1 Opisana metoda jest modyfikacją rozwiązania proponowanego przez A. Koziczak [4], na potrzeby kryminalistycznej registratury monodaktyloskopijnej. 2 Umyślona linia łącząca osobliwości delta i core wzoru daktyloskopijnego [5].

86 86 D. Mostowski, A. Mitas a) b) Rys.1. Zlokalizowany kołowy obszar odpornego kodowania wzoru: a) na obrazie wejściowym, b) obrazie szkieletowym z wykrytymi minucjami. Źródło: opracowanie własne Efektywność opisanej metody odpornego kodowania wzoru uzależniona jest od precyzji wyznaczania kołowego obszaru kodowania, zależnej od powtarzalności lokalizacji osobliwości delta i core wzoru Metody lokalizacji osobliwości wzoru Zmienne warunki akwizycji odcisków palców a w szczególności dynamiczne odwzorowanie struktury wzoru powodują zmiany względnego i bezwzględnego położenia cech lokalnych i globalnych wzoru, rzutując na wartości współrzędnych je opisujących jak i liczbę zarejestrowanych w obrazie cech (rys.2). a) b) c) Rys.2. Efekt różnic w nacisku i ułożeniu palca na powierzchni czytnika: a) nacisk i pozycja prawidłowa, b) nacisk zbyt słaby, rotacja, translacja, brak zarejestrowanego obszaru delta, c) nacisk zbyt duży, translacja i rotacja wzoru. Źródło: opracowanie własne Dla automatycznej lokalizacji obszarów osobliwych w obrazach daktyloskopijnych opracowano szereg metod, które z uwagi na specyficzny charakter struktury listewek papilarnych w tych obszarach, oparto na analizie quasi-wektorowego pola orientacji grzbietów [1]. Obok prostej w implementacji, lecz nie pozbawionej wad analizy wskaźnika Poincaré a opracowano szereg bardziej zaawansowanych obliczeniowo metod. Capelli et al. [2] wykorzystali operator nieregularności pola orientacji, wykrywający maksimum lokalnej dewiacji orientacji wokół każdego punktu pola. Park i Ho [12] zaproponowali probabilistyczną metodę lokalizacji obszarów osobliwych GPM (ang. Gradient Probabilistic

87 Wybrane zagadnienia z daktyloskopii w aspekcie 87 Method), bazującą na analizie gradientu lokalnych orientacji w obrazie. Metoda nie wymaga stosowania operacji wstępnego przetwarzania obrazu, jednak jej skuteczność, podobnie jak poprzednich, uzależniona od dokładności estymacji pola orientacji. Perona [11] opracował kosztowny obliczeniowo, iteracyjny algorytm dyfuzji pola orientacji, uwzględniający niepewność oszacowania orientacji. Metoda pozwala na wiarygodną lokalizację obszarów osobliwych w oparciu o obraz energii pola po 50-u dokonanych iteracjach i nie wykazuje tendencji do wykrywania nieistniejących osobliwości wzoru, przy skłonności do gubienia osobliwości w istocie występujących, przy zbyt dużej liczbie iteracji. 3. Powtarzalna lokalizacja obszarów osobliwych Precyzja i powtarzalność lokalizacji punktów referencyjnych w obszarach osobliwych wzoru daktyloskopijnego jest kluczowym zadaniem dla poprawnego funkcjonowania zaproponowanej metody odpornego kodowania wzoru linii papilarnych. W tym celu obok modyfikacji klasycznej metody wskaźnika Poincaré a (P C2 ) zaproponowano metodę masek orientacji dla analizy kwadratu składowej sinusowej pola orientacji (sin 2 ). Dla poprawy lokalizacji wstępnie wykrytych wymienionymi metodami osobliwości wzoru zaproponowano lokalne wykorzystanie Transformacji Pola Sił 2-D (TPS) w podobszarach wzoru Metoda analizy kwadratu składowej sinusowej pola orientacji Opracowana metoda bazuje na lokalnej analizie kwadratu składowych sinusowych ς(i, j) elementów Θ(i, j) zregularyzowanego pola orientacji grzbietów: 2 ς (, i j) = sin ( Θ (, i j) ) (1) Analiza realizowana jest przy zastosowaniu zdefiniowanych masek orientacji M I i M II (rys.3) odpowiednio dla obszaru core i delta. a) b) Rys.3. Maski orientacji M I i M II dla lokalizacji odpowiednio obszaru a) core i b) delta. Źródło: opracowanie własne W celu lokalizacji obszarów osobliwych core i delta, poszukiwane jest globalne maksimum wartości wskaźników typu osobliwości, C I i D I,

88 88 D. Mostowski, A. Mitas zdefniniowanych w dyskretnej dziedzinie obrazu odpowiednio dla maski M I i M II jako CI ( i, j) = max 2 ς( i, j) ς( i, j) + ς( i, j) i, j S2 S1 S3 DI (, i j) = max ς(, i j) ς(, i j) ς(, i j) ς(, i j) i, j + S5 S4 S5 S6 oraz (2) Poniższy rysunek ilustruje wyznaczone pole orientacji grzbietów dla przykładowej próbki odcisku palca oraz wyznaczoną mapę ς(i, j), z zaznaczonymi obszarami wskazującymi na wystąpienie osobliwości wzoru. (3) a) b) c) d) Rys.4. a) pole orientacji grzbietów, b) mapa ς(i, j) składowej sinusowej pola orientacji zlokalizowane obszary osobliwe, c) i d) maski orientacji naniesione na mapę ς(i, j) w obszarach osobliwych core i delta. Źródło: opracowanie własne Opisana metoda zapewnia istotnie wyższą powtarzalność lokalizacji obszarów osobliwych w porównaniu z klasyczną metodą wskaźnika Poincaré a (P C1 ) (Rys.5) oraz zmodyfikowaną metodą Poincaré a (P C2 ). a) b) c) Rys.5. Rezultaty lokalizacji obszarów osobliwych core i delta wzoru metodą P C1 ( ) oraz metodą sin 2 ( ) dla trzech orientacji wzoru: a) θ 0, b) θ 0 +10º, c) θ 0-15º. Źródło: opracowanie własne 3.2. Metoda Transformacji Pola Sił 2-D Siła opisanych metod w powtarzalnej lokalizacji obszarów osobliwych wzoru, w szczególności klasycznej i zmodyfikowanej metody Poincaré a istotnie maleje w przypadku znacznego stopnia degradacji wejściowych

89 Wybrane zagadnienia z daktyloskopii w aspekcie 89 próbek odcisków palców, w szczególności w przypadku znacznego poziomu szumu w obrazie. Zaproponowano metodę poprawy lokalizacji punktów referencyjnych we wstępnie wyznaczonych obszarach osobliwych wzoru, stosując liniową Transformację Pola Sił 2-D. Koncepcję tą szerzej opisano w [9]. Przekształcenie to traktuje każdy piksel w obrazie cyfrowym jak cząstkę naładowaną elektrycznie. Dla tak zinterpretowanego obrazu można wyznaczyć, podobnie jak dla układu ładunków elektrostatycznych, pole sił zgodnie z równaniem (4), gdzie F(r j ) siła wypadkowa działająca na j-ty piksel od i pikseli sąsiednich, m, n odpowiednio wysokość i szerokość obrazu wejściowego, F i i-ta składowa wektora siły F(r j ) oddziaływania piksela r i na piksel r j od przyjętego punktu odniesienia, I(r i ) wartość intensywności i-tego piksela w obrazie wejściowym, w odległości r i od punktu odniesienia. ri r j i = 1,.., m Fr ( j) = Fr i( j) = Ir ( i) 3 i, j i, j r j 1,..., n i j i j i r = j, (4) Dla obrazu po transformacji w kolejnym kroku zostaje wyznaczona mapa energii, zgodnie z zależnością: I 1,.., TPS ( r) i = m i EI ( TPS ) = Ei ( rj ) =, (5) i, j i, j r j 1,..., n i r = j gdzie E(I TPS ) pole energii potencjalnej wyznaczone dla obrazu po transformacji I TPS, E i (r j ) składowa pola energii E(I) od piksela na pozycji r j, I TPS (r i ) wartość intensywności i- tego piksela w obrazie I TPS. Analizy wykazały, iż ekstrakcja globalnego maksimum mapy pola energii potencjalnej zgodnie z zależnością (5), odpowiednio dla obszarów delta i core, pozwala na powtarzalną lokalizację punktu referencyjnego w tych obszarach: i = 1,.., m RefI(, i j) = max E ( ITPS(, i j) ), (6) i, j j = 1,..., n gdzie Ref I (i,j) wskaźnik punktu referencyjnego obszaru osobliwego, E(I TPS ) pole energii potencjalnej wyznaczone dla obrazu po transformacji I TPS, E i (r j ) składowa pola energii E(I) od piksela na pozycji r j, I TPS (r i ) wartość intensywności i- tego piksela w obrazie po transformacji. Rezultaty testów wskazały na skuteczność opracowanej metody zarówno dla próbek wejściowych w nominalnej rozdzielczości 500 dpi, jak również dla obrazów podpróbkowanych do rozdzielczości niższej niż założona rozdzielczość nominalna (Rys.6).

90 90 D. Mostowski, A. Mitas a) b) c) d) Rys.6. Zlokalizowane metodą TPS obszary core (góra) i delta (dół) wstępnie wykryte z małym błędem dla rozdzielczości 500dpi a) i 250 dpi b) oraz z dużym błędem c) i d). Źródło: opracowanie własne 4. Testowe bazy danych Dla przeprowadzenia badań oraz uniwersalizacji ich rezultatów opracowano i stworzono trzy testowe bazy danych:! baza odcisków palców IMMskan_db (25 użytk, 750 próbek),! baza odcisków palców sfinge_db (80 użytk próbek),! baza odcisków palców fvc024_db (60 użytk próbek). Baza IMMskan_db stworzona została z użyciem biometrycznego skanera odcisków palców 3 (rys.7a,b) firmy Authentec z modułem AFS8600. a) b) Rys.7. Skaner biometryczny użyty do badań a) oraz b) sposób ułożenia palca na czytniku w wyprofilowanym łożysku pozycjonującym. Źródło: opracowanie własne Rejestracja próbek dla grupy 25 osób przebiegała w trzech osobnych sesjach akwizycji w odstępach 7 dni, co pozwoliło na uniknięcie efektu 3 Skaner użyczony do badań przez Instytut Maszyn Matematycznych, Warszawa, ul. L.Krzywickiego 34, Warszawa.

91 Wybrane zagadnienia z daktyloskopii w aspekcie 91 habituacji użytkownika. Każda sesja dla pojedynczego użytkownika składała się z 10 niezależnych procesów akwizycji, w których pobrano po jednym obrazie wzoru każdego palca (po normalizacji piks., 500dpi). (rys.8). Sesja I Sesja II Sesja III Rys.8. Próbki 13_7a-c.tiff z bazy IMMskan_db uzyskane w kolejnych sesjach akwizycji. Źródło: opracowanie własne Bazę danych sfinge_db stworzono wykorzystując programowy generator wzorów daktyloskopijnych SFinGE 4 w wersji 2.5. Stworzona baza zawiera 80 próbek odcisków palców (500 dpi, piks.) po 20 obrazów dla każdego z czterech typów wzoru: łuk namiotowy, pętlica lewoskrętna, pętlica prawoskrętna, oraz wir spiralny. Próbki źródłowo zrealizowane na neutralnym tle białym rzutowano na tło skanera optycznego oraz pojemnościowego. a) b) c) d) e) Rys.9. Próbka 21.tiff z sfinge_db a) źródłowa, b) z rotacją +15, c) z 15%-owym szumem gaussowskim, d) rzutowana na tło skanera pojemnościowego oraz e) optycznego. Źródło: opracowanie własne Baza odcisków palców fvc024_db stworzona została w oparciu o bazy danych wykorzystywane w latach w projekcie Fingerprint Verification Competition 5. Dla potrzeb testów, pierwotny zestaw podzielono na dwie podbazy db_1 i db_2, stworzone z użyciem odpowiednio skanera optycznego Identix Touch View II (500 dpi, piks.) oraz FX2000 firmy Biometrika (569 dpi, piks.). a) b) c) 4 University of Bologna. 5 FVC Fingerprint Database,

92 92 D. Mostowski, A. Mitas fvc024_db1 Identix Touch View II fvc024_db2 FX2000 (Biometrika) Rys.10. Próbki 17.tiff z bazy fvc024 db1 i db2: a) próbki wejściowe, b) próbki z rotacją -15 oraz c) próbki z dodanym 15%-owym szumem gaussowskim. Źródło: opracowanie własne Źródłowe próbki we wszystkich bazach testowych zostały znormalizowane względem przyjętych w założeniach metody za docelowe parametry zgodne ze standardami FBI 6 odnośnie jakości akwizycji obrazów daktyloskopijnych: 500 dpi, 8-bitowa skala szarości, skala odwzorowania 1:1. Dodatkowo próbki źródłowe w bazach sfinge_db oraz fvc024_db zostały poddane translacji, rotacji 7 o kąt ±15, ±10 i ±5 względem pierwotnej orientacji wzoru oraz zaszumieniu addytywnym szumem gaussowskim o wartości średniej µ n =0 i zmiennej wariancji σ n : 2%, 5%, 10% i 15% tworząc w ten sposób w sumie 37 wyjściowych zestawów testowych. 5. Badania i analizy Dla miarodajnej oceny wydajności opracowanych algorytmów oraz wszystkich aspektów wielowątkowej natury procesu odpornego kodowania wzoru zdefiniowano szereg miar, i tak: współczynnik (k) zbieżności lokalizacji punktu referencyjnego w obszarze core σ C (analogicznie dla delty σ (k) D ): σ N ( ) 2 d d i = 1 ( k ) C C C N i= 1, (7) gdzie d Ci jest odległością euklidesową pomiędzy estymatą współrzędnych punktu referencyjnego w obszarze core (delta) w i-tej próbce k-tego zestawu testowego oraz współrzędnych punktu odniesienia, wyznaczonego dla próbki wzorcowej w k-tym zestawie testowym, /d C jest średnią odległością euklidesową pomiędzy punktem referencyjnym a jego estymatą wyznaczoną dla całego zestawu testowego, N liczba próbek w i-tym zestawie testowym. Dla oceny stopnia powtarzalności lokalizacji obszaru kodowania, ROI, rozpiętego pomiędzy obszarami osobliwymi, zdefiniowano całkowitą 6 (załącznik G) 7 Zakres kątów został dobrany w oparciu o dane literaturowe typowych kątów rotacji wzoru w rzeczywistych warunkach funkcjonowania systemów biometrycznych [13].

93 Wybrane zagadnienia z daktyloskopii w aspekcie 93 dewiację lokalizacji obszaru kodowania, dla k-tego zestawu testowego, decydującą o wyjściowej powtarzalności ektrahowanych ID-markerów, jako: ( σ ) ( σ ) ( k) ( k) 2 ( k) 2 ROI C D = +. (8) Dla procentowej oceny stopnia powtarzalności lokalizacji obszaru kodowania zaproponowano, wyznaczany w oparciu o estymaty zrealizowane z użyciem powyższych miar, procentowy współczynnik powtarzalności ekstrakcji ID-markera, WPE (%) : WPE ( k ) (%) ( ) NC N f N + m 100 N =, (9) gdzie N C i N f są liczbą próbek w k-tym zestawie testowym, dla których odpowiednio poprawnie i błędnie zlokalizowano obszar kodowania, N m jest liczbą próbek, w których algorytm nie był w stanie zlokalizować obszaru kodowania na skutek braku lub niewystarczającej liczby (<2) zlokalizowanych przez dany algorytm obszarów osobliwych wzoru, przy czym sytuacja ta nie wynika z niezarejestrowania przez skaner obszaru osobliwego w istocie występującego (z pominięciem wzorów typu zwykły łuk), N jest całkowitą liczbą próbek w zestawie testowym Metodyka i rezultaty badań Opracowane algorytmy przetestowano na wszystkich bazach danych w 6 konfiguracjach testowych: osobno metody PC1, PC2, sin2 oraz metody wzmocnione przez TPS: PC1+TPS, PC2+TPS i sin2+tps. (rys.8). Rys.8. Schemat przebiegu i konfiguracji badań z użyciem opracowanych metod i miar. Źródło: opracowanie własne Najlepsze rezultaty uzyskano w testach dla metody sin 2 oraz sin 2 +TPS. Obie konfiguracje uzyskały średnio dla wszystkich zestawów testowych wartości współczynnika WPE (%), dla rotacji wzoru odpowiednio 91%

94 94 D. Mostowski, A. Mitas i 93,5%, translacji - 85,3% i 91,4%, szumu addytywnego 93,5% i 98,7%. Z uwagi na specyfikę próbek bazy IMMskan_db, uzyskana dla niej najlepsza wartość współczynnika CAR (%) równa 89,3% dla metody sin 2 +TPS (zestaw testowy nr 37) (rys. 9), wydaje się być możliwą do osiągnięcia w praktycznej implementacji systemu. 90,00 75,00 CAR (% 60,00 45,00 30,00 Zestaw testow y nr 36 Zestaw testow y nr 37 15,00 0,00 PC1 PC1+TPS PC2 PC2+TPS sin2 sin2+tps Zestaw testowy nr 36 53,60 57,20 57,60 60,00 63,60 66,80 Zestaw testowy nr 37 71,66 76,47 77,01 80,21 85,03 89,30 Metoda lokalizacji obszarów osobliwych Rys.9. Wartości współczynnika CAR (%) dla bazy IMMskan_db dla wszystkich konfiguracji testowych opracowanych metod. Źródło: opracowanie własne Otrzymane rezultaty są zadowalające w kontekście tych uzyskiwanych przez dotychczas funkcjonujące rozwiązania systemów kryptografii biometrycznej osiągające stopę CAR (%) na poziomie 88% - Martini i Beinlich [6], 94% - Monrose et al. [10], oraz 79% - Uludag et al. [15]. 6. Podsumowanie Uzyskana powtarzalność lokalizacji obszarów osobliwych oraz obszaru kodowania wzoru, przy użyciu proponowanych metod pozwala stwierdzić ich przydatność dla szerokiego kręgu zastosowań w aplikacjach kryptografii biometrycznej, w przyszłości umożliwiając, przez integrację z powszechnie akceptowalną architekturą e-podpisu oraz standardami kryptograficznymi na rezygnację z tradycyjnych kluczy szyfrujących, na rzecz generowanych on-line kluczy kodowych, powiązanych z tożsamością użytkownika. Dalsze prace powinny zmierzać w kierunku doskonalenia algorytmu ekstrakcji ID-markera z próbki odcisku palca. Celowa jest także adaptacja opracowanych algorytmów lokalizacji obszarów osobliwych do pracy z odciskami palców o niższej jakości. Literatura [1] Bazen A.M., Gerez S.H. Systematic methods for the computation of the directional fields and singular points of fingerprints. IEEE Transactions PAMI, Vol. 24, No. 7, s , 2002.

95 Wybrane zagadnienia z daktyloskopii w aspekcie 95 [2] Capelli R., Lumini A., Maio D., Maltoni D. Fingerprint classification by directional image partitioning. IEEE Trans. On Pattern Analysis and Machine Intelligence 21(5), s , [3] Ellison C., Hall C., Milbert R., Schneier B. Protecting secret keys with personal entropy. Future Gen. Comp. Systems Vol. 16, s , [4] Koziczak A. Zasady alfanumerycznego opisu wzoru linii papilarnych. Techniki Komputerowe, nr 1/2002, s , IMM, Warszawa [5] Maltoni D., Maio D., Jain A.K., Prabhakar S. Handbook of fingerprint recognition. Springer-Verlag, New York [6] Martini U., Beinlich S. Virtual PIN: Biometric encryption using coding theory. IST Program No. IST , 2003 [7] Mitas A.W. Podpis elektroniczny. Biometryczna parametryzacja podpisu elektronicznego. Techniki Komputerowe, nr 1/2003, s , IMM, Warszawa [8] Mostowski D. Use of biometric samples in cryptography and for electronic signature hardening. IEEE Proc. of the 6th UEES 04 International Conference, Vol. 3, pp , Alushta, Ukraine, Sept [9] Mostowski D., Mitas A.W. Odporny algorytm kodowania wzoru odcisku palca w aplikacji systemu kryptografii biometrycznej. Techniki Komputerowe, nr 1/2005, s.53-65, IMM, Warszawa [10] Monrose F., Reiter M.K., Wetzel S., Li Q. Cryptographic key generation from voice. Proc. of the 2001 IEEE Symp. on Secur. and Priv., May [11] Perona P. Orientation diffusions. [12] Park J., Ko H. Robust reference point detection using gradient of fingerprint direction and feature extraction method. ICCS 2003, LNSC 2003, s Springer-Verlag Berlin Heidelberg, [13] Ross A., Dass S., Jain A.K. Estimating fingerprint deformation. Proc. of ICBA, LNCS Vol. 3072, pp , Hong-Kong, July [14] Soutar C., Roberge D., Stoianov A., Gilroy R., B.V.K. Vijaya K. Biometric encryption. ICSA Guide to Cryptography, Chapter 22, R.K. Nichols, McGraw-Hill, [15] Uludag U., Pankanti S., Jain A.K. Fuzzy Vault for Fingerprints. Proc. of the 7th International Conference on AVBPA 2005

96

97 TECHNIKI KOMPUTEROWE 1/2007 Łukasz Więcław 1, Piotr Porwik 2 University of Silesia, Institute of Computer Science ul.będzińska 39, Sosnowiec, Poland 1 2 Local binarization and fingerprint area extraction in recognition systems Lokalna binaryzacja i wyznaczanie obszaru linii papilarnych w systemach rozpoznawania Abstract Fingerprint image quality is an important problem in automated fingerprint identification systems (AFIS). In this paper a new method of fingerprint pattern extraction and image enhancement has been presented. The new approach of image enhancement was based on estimated orientation field and local image binarization. Appropriate fingerprint area extraction is required to separate a region of interest (ROI) of fingerprint (ridges/valleys pattern) from noisy background. Our approach of pattern extraction was also based on Gaussian filtering and the convex hull algorithm. Experimental results have shown that proposed method enhances the ridges quality and reduces the noise in fingerprint images, which have been taken from different sources. Streszczenie Jakość obrazu jest ważnym zagadnieniem w systemach automatycznej identyfikacji odcisków palca (AFIS). W pracy została przedstawiona nowa metoda wyznaczania obszaru analizy linii papilarnych oraz poprawy jakości obrazu odcisku palca. Poprawa ta została uzyskana w oparciu o wyznaczone pole kierunków i lokalną binaryzację. Wyznaczanie wzorca linii papilarnych pozwala wydzielić obszar linii papilarnych (ROI) na obrazie odcisku palca z zaszumionego tła. Wyznaczanie obszaru analizy linii papilarnych zostało dokonane w oparciu o filtr Gaussa i algorytm wyznaczania otoczki wypukłej. Wyniki badań wskazują, że zastosowane w pracy metody poprawiają jakość obrazu linii papilarnych i redukują szumy tła w obrazach pochodzących z różnych źródeł akwizycji. 1. Introduction Fingerprints are today the most frequently used biometric techniques for personal identification. Most automatic fingerprint identification systems (AFIS) are based on a comparison of minutiae [1]. Minutiae are local characteristics points in the fingerprint pattern, which represent ridges, endings and bifurcations. The efficiency of minutiae extraction algorithms

98 98 Ł. Więcław, P. Porwik depend on quality of input fingerprint images. Poor quality fingerprint images can generate false minutiae and true minutiae can be undetected. Additionally, some false finger characteristics points can be also generated. Therefore, to ensure that fingerprint recognition system will be more robust to image quality, fingerprint enhancement stage prior to minutiae extraction has become a necessary step. Fingerprint image quality depends on: (a) source of acquisition (various devices produce different background noise, contrast, resolution and image size) (Fig. 1) and (b) human factor (finger pressure variation, skin damage or acquisition process uniqueness). Generally, fingerprint images can be divided into three types: welldefined region, recoverable corrupted region and unrecoverable region [2]. In the first region ridges and valleys are clearly differentiated, in the second region ridges and valleys are corrupted by a small amount of creases or smudges but are still visible. In the third area ridges and valleys are strongly corrupted - such image should be rejected. Fig. 1. Low quality fingerprints images acquisitioned by different fingerprint scanners. A number of techniques to enhance fingerprint images have been proposed by many investigators [3, 4, 5, 6, 7]. Most techniques take advantage of ridge local characteristic such as directionality and are capable of adaptively improving the quality of input fingerprint images. In this paper we introduce a fingerprint enhancement algorithm, which is robust to different types of acquisition devices. 2. Local binarization Fingerprint images with high differential ridge contrast, binarized by conventional global binarization (Fig. 2b) give damaged ridges. Therefore, the local binarization was proposed to effectively preserve ridges structure (Fig. 2c).

99 Ł.Więcław, P. Porwik 99 Fig. 2. a) Input fingerprint image, b) global binarization, c) local binarization In the first stage, the analyzed M N image (fingerprint) is divided into n blocks (Fig. 3a). In the next stage, the block of the size a a is established. The dimension a can be estimated as follows: R 0,75 a where R M N, and n M N = = = R 0, ,62 a a (1) The constant values in the equation (1) were fixed experimentally on the basis of benchmarks database. The database includes a collection of 1137 fingerprint images, divided into i=15 groups of different resolution. The database images were gathered from NIST [8] and FVC contest [9] databases. Fig. 3. a) Input image divided into n blocks, b) The distance Z between four ridges of a given fingerprint. For every group of the images, from the fingerprint image area the R = M N, i = 1,2,...,15 coefficient was calculated. i i i

100 100 Ł. Więcław, P. Porwik From each analysed fingerprint image, the distance Z was computed (Fig. 3b). Finally, the average distance Z for all images in all groups was calculated: Z k Z j j= 1 i = i = k 1,...,1 where: k the number of images in given group. On the basis of R i and the average distance Z i, the auxiliary coefficient was also computed: Ri Di = i = 1,... (3) Z i (2) Fig. 4. Linear regression For such data, the trend line has been estimated: D= 0,012 R+ 5,62 (4) Additionally, experiments indicated that if the block of size a a will be reduced by 25% of its original size, then these blocks produce fewer artefacts between neighbouring blocks. Taking into account above considerations, from (4) equation (1) can be estimated. In the next stage, for each block i = 1, 2,..., n, the arithmetic mean P i of pixel values was calculated: 1 Pi = 2 p( x, y) (5) a xy,

101 Ł.Więcław, P. Porwik 101 where: pxy (, ) is the pixel value of the point (x, y) in the block i of fingerprint image. To estimate the binarization threshold the average difference (Fig. 5b) V i between arithmetic mean P i and pxy (, ) value, has been computed: 1 Vi = p( x, y) P 2 i (6) a xy, Finally, the local binarization threshold S i for each i = 1, 2,..., n block is defined as follow: Vi Si = Pi (7) 2 Fig. 5. a) Input image, b) average differences between arithmetic mean P and pxy (, ) the value. i 3. Estimation of local ridges orientation An orientation field represents local orientations of fingerprint ridges, which occur on fingerprint surface. This field represents an intrinsic property of a genuine fingerprint obtained from finger imprint image. Let pxy (, ) be a pixel in a fingerprint image. The local ridge orientation at pxy (, ) is the angle β xy, that the fingerprint ridges crossing through small neighbourhood centered at pxy, (, ) form with the horizontal axis [8]. The orientation field of the fingerprint image pixels has been divided into directions z = (0,1,...,7) in a 9 9 window, where the pixel pxy (, ) is located in the center of the window [9]. Idea of the pixel orientation computing by means of mask is presented in Fig. 6. Each element of the mask from Fig. 6 is corresponding to the pixel pxy (, ) located over fingerprint image. The orientations are

102 102 Ł. Więcław, P. Porwik restricted to eight numbered directions: d = z 22,5, z = {0,1,...,7}. Hence, z d. z In the first step, by means of the mask from Fig. 6 the gray-level fingerprint image values in the eight directions (at positions marked by numbers 0,1,..., 7 ) are determined. For example, for pixel pxy (, ) from Fig. 6 appropriate values have been computed: s = p( x 2, y) + p( x 4, y) + p( x+ 2, y) + p( x+ 4, y) 0 s= px ( 2, y+ 1) + px ( 4, y+ 2) + px ( + 2, y 1) + px ( + 4, y 2) 1 7 z. (8).. s = px ( + 2, y+ 1) + px ( + 4, y+ 2) + px ( 2, y 1) + px ( 4, y 2) Fig mask to compute fingerprint ridges orientation. Finally, the values S i are added according to index i. The sums S i are equivalent to convolving the image with 9 9 masks, where each mask has value of 1 at positions where 9 9 window block has values i and 0 elsewhere. In the next stage, the min/max value of each i is estimated: bin sd = arg {max( Si)} for p( x, y) = 1 i= {0,1,...,7} i = bin sl = arg {max( Si)} for p( x, y) = 0 i= {0,1,...,7} where: pxy (, ) bin is a pixel value at point pxy (, ) in binarized fingerprint image. (9)

103 Ł.Więcław, P. Porwik 103 The orientation at pixel is defined by means of s d value if the central pixel is located on a ridge (black area), and by the s l value if the central pixel is located in a valley. Unfortunately, obtained values, treated as pixels orientation, are usually noisy, therefore they should be smoothed and averaged in a local neighborhood. The table of the orientation field fl O can be presented as image (although it is not necessary), where each value is performed as appropriate colour. For example, if element fl fl p ( x, y ) = 0 - then black pixel is performed, for element p ( x, y ) = 7 - white pixel is drew, and so on for remained directions. Mentioned above operations are presented by Fig. 7b, where fingerprint image and orientation field were shown. 4. Fingerprint pattern extraction and orientation field enhancement In the proposed method the well known, so called Fast Gaussian Blur fl Filter [10] will be used. Orientation field O has been divided into eight i = 0,1,...,7, O images as follows: fl i fl fl fl Oi = {, xy: p (, xy) = i pi (, xy) = 0, fl fl xy p xy i, p: ( xy,)( =,)25 fl It is easily to see, that after operation (10) each sub-image O i has fl binary form. Each O i binary image has been filtered by Fast Gaussian fl Blur Filter. Hence, Gauss( O i ) images (256 grayscale) were produced. fl Finally, all Gauss( O i ) images has been gathered to one new quality orientation field (Fig 7c) as follows: fl fl Denoise( p ( x, y)) = arg(min( p ( x, y)) (11) i i= 0,...,7 i (10) Fig. 7. a) Input image, b) orientation field, c) enhancement orientation field.

104 104 Ł. Więcław, P. Porwik In many cases the fingerprint background is noised. For this reason fl these inconvenience should be removed. Any Gauss( O i ), i = 0,1,...,7 images has been binarized using appropriate threshold value: 1 fl p ( x, y) 40 (12) N xy, The constant 40 was fixed experimentally. In the next stage, all binarized images has been gathered into one fingerprint pattern area (Fig. 8b). Unfortunately, produced image still includes some artefacts. The smallest areas were removed and remained large areas were used to determine border points. It has been done by means of mesh, which was placed on the image (Fig. 8c). From (1) the distance a between mesh nodes of border points is fixed. Form Fig. 8c follows, that each mesh line can indicate two or one border points. Finally, with the aid of well known convex hull algorithm [11], the pattern area (region of interest) has been determined (Fig. 8d). For prevention of false border minutiae detection, the five pixel reduction of pattern area has been applied. Fig. 8. a) Input image, b) the pattern areas, c) border points on the mesh, d) limitation of the fingerprint area

105 Ł.Więcław, P. Porwik Conclusions In this paper, a new method of local binarization and fingerprint pattern extraction have been presented. Experimental results show that our local binarization algorithm produce more detailed outcome binary images than global binarization, even in cases when given fingerprint image background was noised. Fig. 9. Low quality fingerprint images before and after local binarization and pattern area extraction. Proposed in this paper fingerprint area extraction consist of fingerprint image processing, where noised fingerprint background is removed by means of specialised algorithm. This approach is the new conception and was not applied anywhere until now. It should be stressed that this algorithm is very convenient for fingerprint images, where ridges and furrows have also poor quality obtained fingerprint images are significantly improved. It was presented by images for fig. 9. This algorithm can not be used only if fingerprint image quality is very low the imprint structures are damaged or are unrecoverable. The local binarization and fingerprint pattern improved algorithms can be used step by step. Mentioned algorithms are still modified and improved so in the future fingerprint image enhancement procedure will have better time and memory consuming characteristics.

106 106 Ł. Więcław, P. Porwik References [1] Hollingum J., Automated Fingerprint Analysis Offers Fast Verification. Sensor Review, 12(3), 1992, [2] Jain A.K., Prabhakar S., Hong L., Filterbank-Based Fingerprint Matching. IEEE Trans. On Image Processing. 9(5), 2005, [3] Danielson P.E., Ye Q.Z., Rotation-Invariant Operators Applied to Enchancement of Fingerprints. Proc. 8th ICPR, 1988, [4] Douglas Hung D.C., Enhancement and Feature Purification of Fingerprint Images. Pattern Recognition, 26(11), 1993, [5] O Gorman L., Nickerson J.V., An Approach to Fingerprint Filter Design. Pattern Recognition, 22(1), 1989, [6] Coetzee L. Botha E.C., Fingerprint Recognition in Low Quality Images, Pattern Recognition, 26(10), 1993, [7] Sherlock D.B.G., Monro D.M., Millard K., Fingerprint Enhancement by Directional Fourier Filtering. IEE Proc. Vis. Image Signal Processsing, 1441(2), 1994, [8] Maltoni D., Maio D., Jain A.K., Prabhakar S., Handbook of Fingerprint Recognition. Springer-Verlag, [9] Porwik P., Więcław Ł., A New approach to reference point location in fingerprint recognition. IEICE Int. J. Electronics Express, 1(18), 2004, [10] Porwik P., Więcław Ł., Fingerprint Reference Point Detection Using Neighborhood Influence Method. Advances in Soft Computing 45, Computer Recognition Systems, Springer, 2007, [11] Lambert T.

107 TECHNIKI KOMPUTEROWE 1/2007 Maciej Smiatacz, Witold Malina Wydział Elektroniki, Telekomunikacji i Informatyki, Politechnika Gdańska Automatyczne rozpoznawanie twarzy metody, problemy, zastosowania Automatic face recognition methods, problems and applications Streszczenie Praca zawiera krytyczną analizę obecnego stanu technologii automatycznego rozpoznawania twarzy. Przedstawiono przegląd aktualnie rozwijanych metod, opisując bardziej szczegółowo algorytmy reprezentujące najważniejsze podejścia. Omówiono potencjalne zastosowania systemów rozpoznawania twarzy oraz problemy związane z ich praktycznym wykorzystaniem. Abstract The paper contains the critical analysis of the current state of the face recognition technology. The survey of the methods being developed is presented and the algorithms representing the most important approaches are described in more detail. The potential applications of the face recognition systems as well as the problems related to their practical use are also discussed. 1. Wstęp Automatyczna identyfikacja osób na podstawie obrazu twarzy od dawna budzi duże zainteresowanie, gdyż jest to najbardziej naturalna i najczęściej stosowana przez ludzi forma weryfikacji tożsamości. Począwszy od wczesnych lat 90-tych zagadnienia automatycznego rozpoznawania twarzy wyraźnie zyskują na popularności, ponieważ obecnie po ponad 30 latach od pojawienia się pierwszych prac z tej dziedziny odpowiednio wydajny sprzęt komputerowy stał się powszechnie dostępny, a jednocześnie pojawiło się duże zapotrzebowanie na stosowanie tej technologii w praktyce. Konieczność ochrony przed zamachami terrorystycznymi, do których w ostatnim czasie przywiązuje się szczególną wagę, z pewnością przyczyniła się do wzrostu zainteresowania urządzeniami, zdolnymi do wykrywania twarzy osób podejrzanych, pojawiających się w miejscach publicznych, takich jak lotniska, dworce, stadiony czy stacje metra. Z drugiej strony, atrakcyjność automatycznego rozpoznawania twarzy

108 108 M. Smiatacz, W. Malina wynika również z tego, że wprowadzenie dodatkowego biometrycznego zabezpieczenia nie jest w tym przypadku okupione obniżeniem komfortu użytkowania systemu. Chociaż inne metody identyfikacji, takie jak analiza odcisków palców czy skanowanie źrenicy, są bardziej niezawodne, to wymagają pewnej współpracy ze strony użytkownika, natomiast systemy identyfikujące ludzi na podstawie obrazów twarzy często są w stanie działać sprawnie bez udziału, a nawet bez wiedzy osoby rozpoznawanej. Dzięki temu wyposażony w moduł rozpoznawania twarzy telewizor mógłby automatycznie blokować określone kanały widząc, że przed ekranem znajduje się dziecko. Z kolei system identyfikacji osób dokonujących zakupów przez Internet byłby bezpieczniejszy, gdyby oprócz skontrolowania, czy wprowadzono odpowiednie numery karty kredytowej mógł sprawdzić, czy przy komputerze siedzi rzeczywiście osoba będąca właścicielem karty. W takich dziedzinach jak wirtualna rzeczywistość czy gry komputerowe rozpoznawanie twarzy może umożliwić na przykład zmiany zachowania wirtualnych postaci w zależności od tego, kto pojawi się przed monitorem komputera. Typowe obszary zastosowań rozpoznawania twarzy podano w tabeli 1 [1]. Tabela 1. Typowe zastosowania rozpoznawania twarzy Obszary zastosowań Przykłady aplikacji karty z danymi biometrycznymi - prawa jazdy, upoważnienia, karty wstępu - dokumenty imigracyjne, dowody osobiste, paszporty, rejestracja wyborców - ochrona przed nadużyciami w pomocy społecznej i służbie zdrowia zabezpieczenie informacji wymiar sprawiedliwości, ochrona budynków rozrywka - kontrola rodzicielska dostępu do kanałów TV, logowanie do urządzeń osobistych i kont w systemach operacyjnych - ochrona dostępu do programów, baz danych, plików - bezpieczeństwo połączeń internetowych, kontrola dostępu do Internetu, ochrona danych medycznych - bezpieczne zakupy w sieci - zaawansowane systemy ochrony, telewizja przemysłowa - kontrola dostępu, analiza danych do celów śledztwa - eliminowanie kradzieży w sklepach, śledzenie podejrzanych, prowadzenie dochodzeń - gry komputerowe, rzeczywistość wirtualna, programy szkoleniowe - współpraca człowieka z robotami i komputerami

109 Automatyczne rozpoznawanie twarzy Architektura systemów rozpoznawania twarzy Zautomatyzowanie procesu rozpoznawania twarzy wymaga (rys. 1): - przeprowadzenia odpowiedniej segmentacji obrazu (detekcji twarzy w scenie uchwyconej na zdjęciu), - wydobycia cech z fragmentu obrazu reprezentującego twarz, - dokonania klasyfikacji pozyskanych danych, czyli identyfikacji osoby. Czasami powyższe etapy nie są rozłączne na przykład cechy twarzy używane do identyfikacji często są wykorzystywanie już w procesie detekcji. Tak więc lokalizowanie twarzy na obrazie może być połączone z ekstrakcją jej cech. Rys.1. Ogólny schemat systemu rozpoznawania twarzy W przypadku rozpoznawania twarzy problem ekstrakcji cech ma fundamentalne znaczenie. Należy przy tym zaznaczyć, że jest to zagadnienie szczególnie trudne i złożone, bowiem obraz twarzy tej samej osoby może się znacząco zmieniać w zależności od kąta obserwacji, rodzaju i kierunku oświetlenia czy też nastroju twarz człowieka uśmiechniętego wygląda inaczej niż twarz kogoś zdziwionego bądź znudzonego (rys. 2). W praktyce istotne okazują się również takie czynniki jak fryzura, makijaż, zarost, noszenie okularów czy nakrycie głowy. Nie bez znaczenia są też zmiany, nierzadko bardzo poważne, powodowane przez upływ czasu.

110 110 M. Smiatacz, W. Malina Rys.2. Przykład zmienności danych opisujących twarz tej samej osoby Sama detekcja twarzy jest również bardzo istotnym i trudnym problemem, ponieważ nie zawsze możemy uzyskać zdjęcia wykonane na jednolitym tle, takim samym dla wszystkich rozpoznawanych osób. W rzeczywistych zastosowaniach wyszukanie i precyzyjne zaznaczenie twarzy w obrazie przedstawiającym skomplikowaną scenę stanowi często jedno z bardziej złożonych zadań. W celu jego rozwiązania stosuje się różnorodne podejścia [2], począwszy od najprostszych, polegających na wyszukiwaniu i ekstrahowaniu fragmentów twarzy o charakterystycznym kolorze [3] (rys. 3a), poprzez rozwiązania wykorzystujące sieci neuronowe [4] czy elastyczne wzorce [5], po algorytmy AdaBoost [6] czy modelowanie statystyczne [7]. Wyniki działania tej ostatniej metody można zaobserwować na rys. 3b. Jak widać, algorytm daje bardzo dobre wyniki, choć jego podstawę stanowi stosunkowo prosty, dwuklasowy klasyfikator statystyczny. Wykorzystuje się w nim regułę Bayesa i utworzone na podstawie cech teksturowych dwie klasy obrazów: twarze i nietwarze. Jak podają autorzy, metoda daje dobre wyniki w przypadku twarzy o różnych rozmiarach, nawet jeśli na zdjęciu występują one jednocześnie; algorytm jest skuteczny również wówczas, gdy zdjęcia są niskiej jakości, a twarze obrócone, przesłonięte lub widoczne pod pewnym kątem. a) b) Rys.3. a) Lokalizacja twarzy poprzez wyszukiwanie eliptycznych kształtów o określonym kolorze jest możliwa, często jednak wiąże się z licznymi trudnościami; b) przykłady automatycznej lokalizacji twarzy uzyskanej za pomocą modelowania statystycznego [7] Pierwsze próby zautomatyzowania procesu rozpoznawania twarzy, podejmowane w latach 70. XX wieku, bazowały na analizie profilu. Był to

111 Automatyczne rozpoznawanie twarzy 111 stosunkowo prosty problem, sprowadzał się bowiem najczęściej do rozpoznawania kształtu linii. Przykładowe cechy, wykorzystywane do opisu profilu, pokazano na rys. 4. a) b) Rys.4. a) Punkty charakterystyczne wykorzystywane w rozpoznawaniu profili, b) katalog siedmiu wzorcowych profili nosa [8] Prace związane z rozpoznawaniem profili straciły jednak na znaczeniu, ponieważ wzrost mocy obliczeniowej komputerów, szczególnie wyraźny od początku lat 90. XX w., spowodował gwałtowny rozwój bardziej naturalnych i praktycznych algorytmów służących do rozpoznawania obrazów frontalnych. Jak już wspomnieliśmy, problem ekstrakcji cech w automatycznym rozpoznawaniu twarzy odgrywa szczególnie ważną rolę, trzeba bowiem przy całej ogromnej zmienności danych wychwycić informację inwariantną, zawierającą cechy istotne z punktu widzenia identyfikacji. Można tu wyróżnić pięć najważniejszych typów rozwiązań: Podejście oparte o specjalistyczny sprzęt, umożliwiający wydobywanie cech innych niż uzyskiwane z typowych fotografii i wykorzystujący np. techniki termograficzne (rys. 5a). Potrzebne są jednak do tego odpowiednie urządzenia, poza tym tego rodzaju rozwiązania są nieprzydatne do celów sortowania czy wyszukiwania zdjęć. Odrębną grupę stanowią metody operujące na obrazie trójwymiarowym (rys. 5b), uzyskiwanym za pomocą stereowizji lub specjalizowanych skanerów. Na ogół jednak rozpoznawanie twarzy wymaga przeprowadzania analizy obiektu trójwymiarowego na podstawie dwuwymiarowego obrazu. Już sama natura problemu jest zatem źródłem licznych trudności i ograniczeń. Podejście geometryczne (rys. 5c) twarz opisywana jest przez zbiór wartości kątów, odległości czy pól, wyznaczonych w oparciu o charakterystyczne punkty, takie jak środki oczu, koniec nosa itd. Problemem jest w tym przypadku precyzyjne zlokalizowanie odpowiednich fragmentów twarzy. Staje się to szczególnie trudne lub wręcz niemożliwe, gdy zdjęcie nie jest wykonane dokładnie od przodu,

112 112 M. Smiatacz, W. Malina gdyż wówczas niektóre istotne części twarzy mogą być nawet całkowicie niewidoczne. Sporządzanie opisu matematycznego poprzez wyznaczanie geometrycznych parametrów było jednym z pierwszych, najbardziej intuicyjnych pomysłów na ekstrakcję cech w rozpoznawaniu twarzy; obecnie jednak podejście to praktycznie nie jest już rozwijane. Podejście bazujące na wzorcach z twarzy wydzielane są najistotniejsze fragmenty, takie jak oczy, nos czy usta (rys. 5d), następnie badana jest zgodność (korelacja) wzorca przechowywanego w bazie z rozpoznawanym obrazem i właśnie wartość korelacji stanowi tu cechę będącą podstawą rozpoznawania. W tym przypadku również niezbędny jest algorytm pozwalający na wydzielenie z fotografii odpowiednich fragmentów. Pewna modyfikacja tego podejścia wykorzystuje techniki przekształcania obrazów sprawdzamy, jak bardzo trzeba zmienić obraz wzorcowy, by uzyskać obraz rozpoznawany: im większa modyfikacja, tym mniejsze jest podobieństwo obrazów. Wykorzystanie wzorców do rozpoznawania twarzy omawiano już w najwcześniejszych pracach dotyczących tej dziedziny np. w artykule [9] z 1993 roku wykazano, że takie rozwiązanie ma przewagę nad podejściem geometrycznym, pomimo znacznie większej złożoności obliczeniowej. a) b) c) d) Rys.5. Przykłady różnych sposobów ekstrakcji cech twarzy: a) obraz termograficzny, b) dane ze skanera 3D, c) cechy geometryczne [9], d) fragmenty wydzielone z obrazu [9] Podejście, w którym wykorzystuje się bezpośrednio informacje o jasności poszczególnych punktów, składających się na obraz twarzy (lub jej charakterystycznego elementu). W tym przypadku zdjęcie traktowane jest jak macierz, do której można stosować różne przekształcenia matematyczne, mające na celu wydobycie informacji. Cechami pierwotnymi są tu po prostu wartości intensywności kolejnych pikseli, które następnie mogą podlegać różnorodnym transformacjom. Szczególnie dużą popularnością cieszy się metoda tzw. twarzy własnych (ang. eigenfaces) [10], wykorzystująca analizę głównych składowych (PCA, ang. Principal Component Analysis). Poza tym wykorzystywane są też techniki dyskryminacyjne, autokorelacje, falki i wiele innych metod. Ten właśnie sposób wydobywania cech twarzy zyskał w ostatnich latach

113 Automatyczne rozpoznawanie twarzy 113 ogromną popularność i dominuje wśród metod opisywanych w aktualnej literaturze. Podejście oparte o deformowalne modele, które zawierają pewną informację ogólną, potrafią jednak samodzielnie się modyfikować, tak aby uzyskać najlepsze dopasowanie do danego obiektu w tym przypadku twarzy. Informacje niskiego poziomu, związane z jasnością poszczególnych pikseli, są tu wykorzystywane tylko pośrednio, zasadniczą rolę odgrywa pewna wiedza zawarta w strukturze modelu. Cechy twarzy mogą być określone np. poprzez parametry modelu dopasowanego do rzeczywistego obrazu. Rozwiązania wykorzystujące modele są wciąż w stadium badań i eksperymentów; wiąże się z nimi nadzieje na przełamanie ograniczeń, jakie wykazują inne podejścia, w praktyce jednak ich stosowanie nastręcza wielu trudności [11]. Wspomnieć należy również o dużej grupie rozwiązań wykorzystujących sieci neuronowe. Tego typu metody występują jednak na ogół w połączeniu z jednym z podejść opisanych powyżej. Z rozpoznawaniem twarzy wiążą się też specyficzne problemy dotyczące selekcji cech i klasyfikacji. Przede wszystkim, liczba wykorzystywanych cech jest na ogół bardzo duża. Nawet wówczas, gdy są to wartości pomiarów geometrycznych, bierze się pod uwagę kilkadziesiąt parametrów. Natomiast w przypadku, gdy jasność każdego z pikseli stanowi odrębną cechę, dla zdjęcia o wymiarach np uzyskujemy wektor, który ma składowych. Jednocześnie, liczba obrazów uczących (będących do dyspozycji) jest najczęściej niewielka, ponieważ każdą osobę reprezentuje na ogół tylko kilka zdjęć. Prowadzi to do wystąpienia tzw. problemu małego zbioru danych, tzn. liczby cech niewspółmiernie wielkiej w stosunku do liczby zdjęć dostępnych na etapie uczenia. Zagadnieniom tym poświeconych jest wiele publikacji związanych z tematem rozpoznawania twarzy [12, 13]. 3. Systemy rozpoznawania twarzy Poniżej postaramy się przedstawić krótkie omówienie najbardziej charakterystycznych rozwiązań, stosowanych w ostatnich latach przy konstruowaniu systemów automatycznego rozpoznawania twarzy. Nie będzie to jednak zadanie łatwe, bowiem literatura dotycząca tego tematu jest bardzo obszerna i zróżnicowana. W pracach sięga się do zagadnień związanych z najrozmaitszymi dziedzinami, począwszy od psychologii, poprzez różne działy matematyki i informatyki, na wytrzymałości materiałów kończąc. W poprzednim punkcie wspomnieliśmy o najważniejszych podejściach do wydobywania cech twarzy, część z nich ma już jednak znaczenie historyczne. Oprócz tego często stosuje się naraz kilka technik, co dodatkowo utrudnia podział rozwiązań na jasno

114 114 M. Smiatacz, W. Malina zdefiniowane grupy. W ostatnim czasie zaproponowano więc wprowadzenie klasyfikacji nawiązującej do mechanizmu rozpoznawania twarzy występującego u ludzi. Jak wykazały badania, mechanizm ten wykorzystuje zarówno całość obrazu twarzy, jak i cechy lokalne. W związku z tym definiuje się następujące grupy metod [1]. 1. Metody bazujące na cechach (strukturalne). W pierwszej kolejności podlegają ekstrakcji lokalne cechy twarzy (oczy, usta, nos), następnie ich współrzędne bądź parametry statystyczne (opisujące zależności geometryczne lub rozkład jasności punktów obrazu) są podawane na wejście klasyfikatora. 2. Metody całościowe. Używają one całego regionu twarzy jako źródła danych dla systemu rozpoznającego. Jedną z najbardziej znanych reprezentacji regionu twarzy są tzw. obrazy własne [10], wyznaczane za pomocą metody PCA. 3. Metody hybrydowe. Podobnie jak ludzki system percepcji używa zarówno cech lokalnych, jak i całego obrazu twarzy w celu przeprowadzenia identyfikacji, także system komputerowy powinien wykorzystywać oba rodzaje danych. Można się spodziewać, że rozwiązania tego typu pozwolą osiągnąć najkorzystniejsze rezultaty. Oczywiście, w ramach powyższych grup możliwe są dalsze podziały jedną z propozycji zawiera tabela 2 [1]. Niestety, dla czytelnika nieobeznanego z pojęciami z dziedziny rozpoznawania obrazów przedstawiony w tabeli podział nie będzie interesujący. Dlatego też w kolejnych punktach dokładniej omówimy najbardziej charakterystyczne metody, reprezentujące każde z trzech głównych podejść. Metody bazujące na lokalnych cechach siatka dynamicznych połączeń. Wszystkie twarze ludzkie mają zbliżoną strukturę topologiczną. Dlatego też można je reprezentować za pomocą grafów, których węzły umiejscowione są w charakterystycznych punktach (oczy, koniec nosa, niektóre punkty konturu itd.) [14]. Krawędzie grafu są etykietowane dwuwymiarowymi wektorami odległości (rys. 6). Każdy węzeł zawiera 40 zespolonych współczynników, wyznaczanych dla odpowiedniego fragmentu obrazu za pomocą falek Gabora. Tworzą one tzw. dyszę (ang. jet). Falka Gabora opisana jest następującym wzorem: ψ θ, ν k 2 2 θ, ν 2 2 σ k θ, ν z 2 = 2, ( ) σ ikθ ν x z e e e 2 2, (1) σ

115 Automatyczne rozpoznawanie twarzy 115 Tabela 2. Podział technik rozpoznawania twarzy Podejście Reprezentatywne rozwiązania Bazujące na lokalnych cechach: metody czysto geometryczne siatka dynamicznych połączeń niejawne modele Markowa (HMM) pomiary odległości, kątów i pól w oparciu o punkty charakterystyczne twarzy [15] twarz reprezentowana w postaci grafu, którego węzły odpowiadają charakterystycznym punktom [16] wykorzystanie ciągów pikseli z okolic czoła, oczu, nosa, ust i brody [17] Całościowe: analiza głównych składowych (PCA) o twarze własne (eigenfaces) o probabilistyczne twarze własne o twarze dyskryminacyjne (fisherfaces) o algorytmy ewolucyjne o analiza niezależnych składowych (ICA) inne reprezentacje o przestrzeń dyskryminacyjna (FLD) o probabilistyczna modułowa sieć neuronowa (PDBNN) Hybrydowe: modularne twarze własne lokalna analiza cech (LFA) metody bazujące na modelach kształtu metody komponentowe o bezpośrednie zastosowanie PCA do obrazu twarzy [10] o modelowanie dwóch klas różnic między obrazami: różnice międzyosobowe i wewnątrzosobowe [18] o zastosowanie analizy dyskryminacyjnej w przestrzeni wektorów własnych [19] o algorytm genetyczny zastosowany do transformacji układu współrzędnych otrzymanego za pomocą PCA [20] o uogólnienie metody PCA [21] o zastosowanie analizy dyskryminacyjnej bezpośrednio do pikseli obrazu [22] o wykorzystanie dwóch reprezentacji obrazu twarzy: mapy intensywności i mapy krawędzi; oddzielna podsieć dla każdej klasy [23] analiza głównych składowych wykonywana zarówno dla obrazu całej twarzy, jak i charakterystycznych fragmentów [24] z twarzy własnych wyodrębnione zostają elastyczne bloki odpowiadające cechom [25] aktywne modele wyglądu (AAM) statystyczne modelowanie kształtu twarzy i wyglądu poszczególnych elementów [5] trójwymiarowy deformowalny model twarzy łączący charakterystyczne elementy (oczy, usta itd.) [26] gdzie z = (x, y) jest punktem obrazu o współrzędnych (x, y), parametry θ i υ wektora falki k θ,υ definiują orientację i częstotliwość falki, oznacza

116 116 M. Smiatacz, W. Malina normę wektora, a σ określa względną szerokość okna (przyjmuje się σ = 2π). Zmieniając wartości częstotliwości υ i orientacji θ można konstruować różne filtry. W omawianym rozwiązaniu stosuje się falki o 5 wartościach częstotliwości i 8 orientacjach. Rys. 6. Przykłady twarzy opisanych za pomocą grafów W tym przypadku podstawą algorytmu rozpoznawania jest zatem graf, a więc zbiór węzłów, połączonych krawędziami; węzły są etykietowane za pomocą dysz, a krawędzie poprzez odległości między węzłami. O ile pojedyncze twarze mogą być reprezentowane przez proste grafy, zbiór twarzy wymaga reprezentacji bardziej złożonej, pozwalającej uchwycić wszelkie rodzaje różnic występujących między obiektami. Dlatego wprowadza się tzw. grafy wiązkowe (ang. Bunch Graph), których konstrukcja przypomina stos, zawierający grafy pojedynczych twarzy. Ważne jest, aby poszczególne grafy miały tę samą strukturę, tak aby odpowiadające sobie węzły reprezentowały te same cechy. Wszystkie dysze odpowiadające określonej cesze, takiej jak np. lewe oko, są grupowane w wiązki, z których można wybierać odpowiedni dla konkretnego obrazu opis. A zatem wiązka odpowiedzialna za lewe oko może zawierać parametry oka męskiego, żeńskiego, otwartego, zamkniętego itd. Aby porównywanie grafów stało się możliwe, należy zdefiniować odpowiednie miary podobieństwa. W najprostszym przypadku podobieństwo grafów będzie sumą podobieństwa odpowiadających sobie dysz. Jak już wspomnieliśmy, każda dysza J zawiera n = 40 wyników filtracji obrazu uzyskanej za pomocą odpowiednio sparametryzowanej falki Gabora. Jeśli te składowe dyszy, J n, przedstawimy jako: J n a iφ ne = n (2) gdzie a n oznacza amplitudę, a φ n fazę, to miara podobieństwa dwóch dysz J i J będzie miała następującą postać [14]:

117 Automatyczne rozpoznawanie twarzy 117 S( J, J ') = n a a' cos( φ n n n a n 2 n φ' n a' n 2 n dk gdzie wektor d opisuje odległość pomiędzy punktami obrazu, którym odpowiadają porównywane dysze. Miarę podobieństwa grafów można też zdefiniować w bardziej skomplikowany sposób, w obliczeniach uwzględniając oprócz dysz również etykiety krawędzi. Proces rozpoznawania rozpoczyna się od wstępnego ustawienia grafu na badanym obrazie. Następnie wyliczane są parametry dysz, po czym następuje wyznaczenie podobieństwa nowo utworzonego grafu do grafów modelowych, przechowywanych w bazie danych. W trakcie tej operacji położenie węzłów grafu zmienia się: w fazie pierwszej przesuwany jest po obrazie cały graf, natomiast w fazie drugiej dopuszcza się indywidualne przemieszczenia poszczególnych węzłów. n ) (3) Metody całościowe analiza głównych składowych i analiza dyskryminacyjna. Jednym ze sposobów na wydobycie informacji zawartej w obrazach twarzy, tworzących pewien zbiór uczący, może być uchwycenie najbardziej charakterystycznych różnic występujących wśród tych obrazów. Z matematycznego punktu widzenia optymalną metodą wydobycia i zakodowania informacji o wariancji w zbiorze obrazów jest zastosowanie analizy głównych składowych, określanej również mianem rozwinięcia Karhunena-Loèvego (K-L). Przyjmijmy, że twarze są reprezentowane przez dwuwymiarowe tablice o rozmiarach N N, zawierające liczby 8-bitowe, które opisują jasność każdego z punktów obrazu twarzy. Obraz ten może być więc traktowany jako wektor o rozmiarze N 2, powstały w drodze konkatenacji wierszy macierzy (bitmapy). W takim przypadku typowy obraz o rozmiarach 256 na 256 punktów staje się wektorem o elementach, a więc punktem w przestrzeni o wymiarach. Oznaczmy zbiór uczący obrazów twarzy przez y 1, y 2,..., y m (y i jest wektorem, m liczba obrazów w zbiorze uczącym). Obraz średni jest 1 m wówczas określony wzorem y = i = yi. Każda z twarzy różni się od m 1 średniej o wektor Φ i = y i y. Możemy zatem skonstruować następującą macierz kowariancji: m 1 T T C = ΦiΦi = AA, (4) m i= 1

118 118 M. Smiatacz, W. Malina Φ1 Φ2... Φm], oraz wyznaczyć wektory własne uk gdzie macierz A = [Φ i wartości własne λk tej macierzy. Otrzymane wektory własne możemy również traktować jak obrazy, nazywane twarzami własnymi [10]. Odcień punktów tworzących twarz własną różni się od średniej szarości w tych miejscach, gdzie natężenie jakiejś z cech twarzy zmienia się w zbiorze obrazów. Twarze własne są więc w pewnym sensie mapami wariancji zbioru twarzy (rys. 7). Rys. 7. Dziewięć pierwszych twarzy własnych uzyskanych z przykładowego zbioru uczącego Należy jednak pamiętać, że macierz C ma wymiary N2 N2 i dlatego bezpośrednie wyznaczanie jej wektorów własnych może być zadaniem praktycznie niemożliwym do wykonania, ze względu na złożoność obliczeniową problemu. Istnieje jednak możliwość wyznaczenia N2wymiarowych wektorów własnych za pośrednictwem wektorów własnych macierzy o rozmiarach m m [10]. Może to oznaczać, że będziemy operować np. na macierzy o rozmiarach 16 16, zamiast Pojawiający się na wejściu systemu nowy obraz twarzy x zostaje przeniesiony do przestrzeni twarzy własnych na drodze prostej operacji: ωk = u k T (x y ) k = 1,..., m. (5) Otrzymane w ten sposób wagi ωk tworzą wektor Ω = [ω1, ω2,..., ωm], opisujący udział każdej z twarzy własnych uk w reprezentowaniu obrazu wejściowego. Wektor wag Ω może być wykorzystany w standardowym algorytmie klasyfikacji w celu sprawdzenia, która z twarzy znanych systemowi jest najbardziej podobna do twarzy rozpoznawanej. Najprostszą metodą może być poszukiwanie takiej klasy l, dla której odległość Euklidesowa T Dl = Ω Ω l 2, (6) gdzie Ωl jest wektorem reprezentującym l-tą klasę twarzy, będzie najmniejsza. Metody bazujące na rozwinięciu K-L stanowią obecnie dominującą grupę wśród algorytmów rozpoznawania twarzy, umożliwiają bowiem uzyskanie przestrzeni cech optymalnej pod względem reprezentacji obiektu. Taka przestrzeń nie musi być jednak najlepszą przestrzenią do przeprowadzania klasyfikacji, ponieważ na skutek zastosowania

119 Automatyczne rozpoznawanie twarzy 119 przekształcenia K-L część informacji dyskryminacyjnej może zostać utracona. Natomiast kryterium Fishera umożliwia uzyskanie przestrzeni optymalnej właśnie z punktu widzenia własności dyskryminacyjnych, dlatego też zyskuje ono coraz więcej bezpośrednich zastosowań, związanych również z rozpoznawaniem twarzy. Klasyczne kryterium Fishera, stanowiące podstawę analizy dyskryminacyjnej, dotyczy problemu dwuklasowego [27]. Powstało ono w wyniku poszukiwania metody, która w N-wymiarowej przestrzeni byłaby w stanie wyznaczyć taki kierunek d, aby obrazy (punkty przestrzeni N-wymiarowej) należące do dwóch klas można było, po ich zrzutowaniu na wektor d, rozdzielić z minimalnym błędem. Oznacza to, że rzutowanie na wektor d powinno maksymalizować stosunek odległości wektorów średnich klas do wewnętrznego rozproszenia klas. Zatem poszukujemy takiego wektora d, że kryterium d Bd F ( d) = (7) T d Σd osiąga maksimum, gdzie B macierz rozproszenia międzyklasowego, B = T, = µ 1 µ 2, µ l wektor średni klasy c l, Σ średnia macierz rozproszenia wewnątrzklasowego, Σ = P(c 1 ) Σ (1) + P(c 2 )Σ (2), Σ ( l) m l 1 = ( y m i µ ( l) )( y i T µ ( l) l i= 1 P(c 1 ) prawdopodobieństwo a priori klasy c l, m liczba obrazów w klasie c l, y i-ty (N-wymiarowy) obraz klasy c l. ) T, l = 1 2 W celu znalezienia maksimum F(d) poszukujemy miejsca zerowego pochodnej F (d), w wyniku czego otrzymujemy wektor dyskryminacyjny [27] d1 = Σ (8) Analizując funkcje gęstości prawdopodobieństwa p(y c l ) zrzutowane na wektor d 1 możemy wyznaczyć prostą prostopadłą do d 1, optymalnie rozdzielającą dwie klasy. Podejście to daje się w prosty sposób uogólnić również na przypadek wieloklasowy, na przykład poprzez rozdzielanie klas parami. Można także wykorzystać specjalne kryterium wieloklasowe [28]. 1

120 120 M. Smiatacz, W. Malina Jak już wspomnieliśmy, w przypadku automatycznego rozpoznawania twarzy coraz częściej pomija się wstępny etap ekstrakcji cech, a zatem klasyfikacja przeprowadzana jest bezpośrednio na podstawie macierzy jasności punktów, tworzących obraz. Jasność każdego z punktów stanowi tu odrębną cechę, przestrzeń cech odznacza się więc bardzo dużą liczbą wymiarów. Wykorzystanie kryterium Fishera jest w tym przypadku teoretycznie możliwe, w praktyce jednak wyznaczenie wektora d 1 wiąże się z trudnościami, wynikającymi z faktu, że macierz Σ jest zwykle osobliwa, ponieważ nie jest spełniony warunek, że m N. Oznacza to, że zbiór uczący jest praktycznie zawsze zbyt mały, trudno bowiem zgromadzić tyle obrazów uczących, by było ich więcej niż wynosi liczba elementów wektora cech, która określa także rozmiar macierzy Σ. W pracy [19] zaproponowano, by powyższe trudności wyeliminować stosując wstępnie rozwinięcie Karhunena-Loèvego, a dopiero później analizę dyskryminacyjną. Dzięki temu liczba cech jest w optymalny sposób redukowana, a zbędne, nie niosące żadnych informacji wymiary odrzucane. Macierz W, opisująca transformację pozwalającą uzyskać takie optymalne przekształcenie, składa się z wektorów własnych macierzy kowariancji C, utworzonej na podstawie wszystkich obrazów ze zbioru uczącego. W nowej przestrzeni macierz kowariancji nie jest osobliwa, dlatego możliwe jest wyznaczenie wektora d 1. Zmodyfikowane kryterium Fishera przyjmuje więc postać: T d W BWd F ( d) =. (9) T T d W ΣWd Konstruując macierz W należy pominąć wektory własne, którym odpowiadają najniższe wartości własne. Eksperymenty wykazały jednak [19], że korzystne jest również odrzucenie pierwszych trzech wektorów własnych, ponieważ zawierają one niemal wyłącznie informacje o sposobie oświetlenia rozpoznawanego obiektu. Eliminując je można znacznie poprawić jakość klasyfikacji. Opisana powyżej metoda znana jest w literaturze pod nazwą algorytmu twarzy dyskryminacyjnych (ang. fisherfaces) i stanowi obok twarzy własnych, wykorzystujących rozwinięcie K-L jedną z podstawowych technik stosowanych obecnie w rozpoznawaniu twarzy. Twarze dyskryminacyjne również można wizualizować; stosowny przykład pokazany jest na rys. 8. Ostatnio intensywnie rozwijają się metody, w których obliczenia macierzy B i Σ realizowane są bezpośrednio na obrazach macierzach. T

121 Automatyczne rozpoznawanie twarzy 121 Rys. 8. Pięć wektorów bazowych przestrzeni dyskryminacyjnej, przedstawionych jako obrazy Metody hybrydowe aktywne modele wyglądu. Aktywne modele wyglądu (ang. Active Appearance Models, AAM) [5] bazują na nieco starszej technice, tzw. aktywnych modelach kształtu (ang. Active Shape Models, ASM) [29]. Aktywny model kształtu jest strukturą zawierającą informację o średnim kształcie obiektu danego typu (np. twarzy) oraz dane opisujące najbardziej charakterystyczne modyfikacje tego kształtu. Postać modelu może być modyfikowana przez algorytmy, które starają się dopasować go do rzeczywistego obiektu, nie dopuszczając jednocześnie do nienaturalnych deformacji. Porównując wektor parametrów modelu dopasowanego do badanego obrazu twarzy z wektorami zgromadzonymi w bazie możemy przeprowadzać rozpoznawanie. Oprócz kształtu całej twarzy modelowaniu podlegają także rozkłady jasności pikseli wokół każdego z punktów charakterystycznych. Lokalne modele reprezentujące otoczenie tych punktów są wykorzystywane do przemieszczania i modyfikacji całego modelu. Aparat matematyczny używany przy konstruowaniu aktywnych modeli kształtu można zastosować nie tylko do modelowania rozkładu jasności punktów otaczających obiekt, ale również do samego wyglądu tego obiektu w sensie obrazu rastrowego. Zamiast więc określać jedynie kształt średni badanej klasy obiektów, możemy określić średni wygląd, czyli średnie jasności pikseli składających się na obraz obiektu. Analogicznie, parametry modelu mogą sterować nie tylko przesunięciem położenia punktów kształtu, ale również zmianą jasności pikseli wewnątrz kształtu. Modele ASM poszerzone o informację o teksturze obiektu nazywa się aktywnymi modelami wyglądu (AAM). Model wyglądu reprezentuje zarówno zmienność kształtu jak i tekstury zawartą w zbiorze uczącym. Na rys. 9 przedstawiono ogólny schemat działania tej metody. 4. Problemy Jak już wspomnieliśmy, automatyczne rozpoznawanie twarzy jest zadaniem wyjątkowo trudnym. Wynika to już z samego charakteru danych, jakie muszą być przetwarzane (rys. 2). Ich klasyfikacja stwarza szczególnie duże problemy, ponieważ, z jednej strony, obrazy należące do różnych klas (przedstawiające twarze różnych osób) są, ogólnie rzecz

122 122 M. Smiatacz, W. Malina biorąc, do siebie podobne stały jest bowiem zestaw elementów składowych obiektu i ich wzajemne ułożenie (dwoje oczu, pionowa linia nosa, poziome usta, mniej więcej eliptyczny obrys głowy itd.). Natomiast z drugiej strony obrazy reprezentujące tę samą osobę, a więc należące do jednej klasy, wykazują ogromną zmienność, wynikającą chociażby z różnic oświetlenia czy kąta obserwacji rozpoznawanego obiektu. W zbiorach pikseli tworzących kolejne obrazy z rys. 2. bardzo trudno byłoby dopatrzyć się jakichś wspólnych cech, a przecież mimo tego przedstawiają one twarz jednej osoby. Rys. 9. Schemat systemu rozpoznawania twarzy wykorzystującego aktywne modele wyglądu [1,5] Oczywiście, rys. 2. przedstawia sytuację w pewnym sensie ekstremalną. Warto sobie jednak uświadomić skalę problemu, by właściwie podejść chociażby do kwestii oceny praktycznej przydatności systemów rozpoznawania twarzy, bowiem wbrew niektórym entuzjastycznym doniesieniom algorytm, który w każdych warunkach bezbłędnie rozpozna dowolną twarz, nie istnieje. W poprzednich częściach pracy przedstawiliśmy skrótowy przegląd metod rozpoznawania twarzy, wskazujący na wielką różnorodność i wysoki stopień teoretycznego zaawansowania rozwijanych obecnie algorytmów. Jednakże, pomimo ponad 30 lat badań, omawianą technologię trudno uznać za dojrzałą, a rzetelna ocena jej rzeczywistej przydatności jest nad wyraz kłopotliwa.

123 Automatyczne rozpoznawanie twarzy 123 Początkowo opracowywaniem algorytmów rozpoznawania twarzy zajmowały się wyłącznie ośrodki naukowe. W dużej mierze jest tak do dzisiaj, przy czym o ile 15 lat temu był to temat elitarny, to obecnie eksploatuje się go na skalę wręcz masową. Trzeba jednak pamiętać, że miernikiem wartości pracy naukowej nie jest sukces rynkowy, wynikający z praktycznej weryfikacji proponowanych rozwiązań, a dopuszczenie do opublikowania wyników w prestiżowym czasopiśmie. To ostatnie nie jest z kolei możliwe bez pochwalenia się przysłowiową już 98-procentową skutecznością algorytmu. W rezultacie mamy do czynienia z paradoksalną sytuacją polegającą na tym, że od ok. 20 lat pojawiają się nowe rozwiązania, z których każde jest lepsze od poprzedniego, wszystkie jednak (zdaniem autorów) są w 98% skuteczne. Niezależna, praktyczna weryfikacja algorytmów [11, 30] wiąże się z dużymi nakładami i stanowi pracę, która nie jest uznawana za naukową dlatego nie jest ona niemal w ogóle podejmowana. Tymczasem działający pod presją naukowcy najczęściej opisują swoje eksperymenty lakonicznie lub skupiają się na stworzeniu takich warunków, w których 98-procentowa skuteczność zostanie osiągnięta, a nie na rzetelnej dyskusji ograniczeń i wad proponowanych metod. Na przykład, autorzy pracy [31] donoszą o uzyskaniu bardzo dobrych wyników (skuteczność, oczywiście, 98%), zaznaczając jednocześnie, że obrazy nie mogą być zbyt ciemne. Przy takiej precyzji sformułowań publikacje naukowe nie dają żadnych możliwości oceny praktycznej przydatności nowych algorytmów. Osobnym problemem, zwłaszcza w odniesieniu do kwestii detekcji i lokalizacji twarzy, są metody wykorzystujące różne formy uczenia. Chodzi o to, że definiuje się pewne niskopoziomowe cechy (wykorzystujące np. transformatę falkową), a następnie stosuje się algorytm, który ze zgromadzonych przykładów automatycznie wydobywa wiedzę, np. na temat tego, jaki układ pikseli jest twarzą, a jaki nią nie jest. Na tej zasadzie działa najbardziej znany ostatnio algorytm detekcji twarzy [32], którego przykład działania pokazano na rys. 10. Warto zwrócić uwagę na znamienny błąd widoczny na tym rysunku (piłka zidentyfikowana jako twarz). W istocie bowiem algorytmy tego typu odnajdują na obrazie pewien charakterystyczny układ jaśniejszych i ciemniejszych obszarów, co prowadzi do tego, że można je dostroić tak, by z dużą skutecznością odnajdowały twarze rzeczywiste jednocześnie jednak w pewnych sytuacjach będą one zauważać twarze w miejscach całkowicie błędnych. Wracając do kwestii rzetelnej oceny algorytmów należy podkreślić znaczenie odpowiedniego doboru danych do eksperymentów. Niewątpliwie sytuacja poprawiła się pod tym względem od czasu pojawienia się baz danych takich jak BANCA [33] czy MIT-CMU [34],

124 124 M. Smiatacz, W. Malina nadal jednak często wykorzystuje się zupełnie trywialną bazę ORL [35] (rys. 11a). Podczas konkursu systemów rozpoznawania twarzy FERET [36] przeprowadzonego w drugiej połowie lat 90-tych dla danych tego typu uzyskiwano skuteczność rzędu 90%. Te same systemy dla danych realistycznych, tj. takich, dla których zdjęcia testowe były wykonywane po około roku od przygotowania zbioru uczącego (rys. 11b), uzyskiwały jednak skuteczność rzędu 30-50%, co oznacza, że były w takich warunkach bezużyteczne. Obecnie organizuje się podobne konkursy, tzw. Face Recognition Vendor Test (FRVT) [37], przeznaczone głównie dla komercyjnych dostawców oprogramowania rozpoznającego twarze, zestawy zdjęć są już jednak inne, trudno zatem ocenić, jaki jest postęp w przypadku problematycznej bazy danych z dawnych konkursów FERET. Rys.10. Typowy błąd detektora twarzy wykorzystującego niskopoziomowe cechy i algorytm uczenia [32] a) b) Rys.11. a) Zdjęcia z trywialnej bazy danych ORL, b) obraz uczący i testujący z zestawu danych FERET stwarzającego algorytmom największe trudności Nie ulega wątpliwości, że oczekiwania społeczne dotyczące zwiększenia poziomu bezpieczeństwa dzięki zastosowaniu systemów rozpoznawania twarzy są duże. Producenci oprogramowania wspierani przez przedstawicieli mediów entuzjastycznie nastawionych do nowoczesnych technologii snują wizje systemów monitoringu zdolnych do bezbłędnego identyfikowania twarzy terrorystów przemykających się w tłumie podróżnych na peronie czy wśród zgromadzonych na stadionie

125 Automatyczne rozpoznawanie twarzy 125 kibiców. Dochodzą do tego wypowiedzi reprezentantów świata nauki, takie jak oświadczenie prof. Tomaso Poggio z MIT, wygłoszone w 1997 r. (!), że metody rozpoznawania twarzy doprowadziliśmy niemal do perfekcji i nie zajmujemy się już tym zagadnieniem [38]. We wnioskach z ostatniego konkursu FRVT znalazło się nawet stwierdzenie, że najlepsze systemy są dokładniejsze od ludzi [37] (choć osoby biorące udział w teście miały tylko 2 sekundy na zdecydowanie, czy dwa wyświetlone obok siebie zdjęcia pokazują twarz tej samej osoby). Życie dostarcza jednak przykładów o wiele mniej optymistycznych. Policja z Tampy na Florydzie zrezygnowała po dwóch latach z systemu rozpoznawania twarzy, ponieważ nie pomógł on w odnalezieniu żadnych kryminalistów, często utożsamiał natomiast osoby różnej płci, w rożnym wieku itd. [39]. Podobnym niepowodzeniem zakończyły się próby prowadzone na bostońskim lotnisku Logan [40]. Z kolei wg danych z 2004 r. w Wielkiej Brytanii zainstalowanych było ok. 2 milionów kamer, współpracujących z biometrycznymi systemami wykorzystującymi obrazy twarzy. W wyniku tego przeciętny obywatel fotografowany był dziennie przez 300 różnych urządzeń, policja przyznała jednak [41], że pomimo wielu lat stosowania technologia ta nie przyczyniła się do automatycznego wykrycia żadnego kryminalisty. Co ciekawe, spadek przestępczości rzeczywiście nastąpił, ale w wyniku rozmieszczenia tabliczek informujących o tym, że dany obszar chroniony jest przez system biometryczny. Wiara w 98-procentową skuteczność algorytmów rozpoznawania twarzy dotarła więc nawet do środowisk przestępczych. 5. Podsumowanie Mimo 30 lat badań i rozwoju rozpoznawanie twarzy wciąż nie jest technologią, której można bezkrytycznie ufać i którą można masowo stosować. Niezawodne algorytmy automatycznej lokalizacji i rozpoznawania twarzy, działające w każdych warunkach, nie istnieją. Naukowcy są często nieobiektywni (muszą wykazywać zawyżoną skuteczność), a zaangażowanie instytucji komercyjnych, zainteresowanych osiągnięciem finansowych zysków, jeszcze pogarsza sytuację. Mimo wszystko postęp w dziedzinie rozpoznawania twarzy jest duży: podaje się [37], że w okresie wyniki uzyskiwane przez najlepsze systemy poprawiły się o rząd wielkości (chodzi o spadek współczynnika błędnego odrzucenia FRR z 0,2 do 0,01 przy stałej wartości błędnej akceptacji FAR wynoszącej 0,001). Sukcesy odnotowano zwłaszcza, jeśli chodzi o minimalizowanie wpływu oświetlenia na wyniki rozpoznawania. Wydaje się też, że nowe nadzieje można wiązać z zastosowaniem specjalistycznych rozwiązań sprzętowych, takich jak skanery trójwymiarowe.

126 126 M. Smiatacz, W. Malina Literatura [1] Zhao W., Chellappa R., Rosenfeld A., Phillips P.J., Face Recognition: A Literature Survey. ACM Computing Surveys, , [2] Yang M.-H., Kriegman D., Ahuja N., Detecting Faces in Images: A Survey. IEEE Trans. Patt. Anal. Mach. Intell., 24(1), 34-58, [3] Sobottka K., Pitas I., Extraction of facial regions and features using color and shape information. IEEE Int. Conf. Patt. Rec., Vienna, Austria, 1996, [4] Rowley H., Baluja S., Kanade T., Neural Network-Based Face Detection. IEEE Trans. Patt. Anal. Mach. Intell., 209(1), 23-38, [5] Lanitis A., Taylor C.J., Cootes T.F., An Automatic Face Identification System Using Flexible Appearance Models. Image and Vision Computing, 13(5), , [6] Viola P., Jones M.J., Robust real-time face detection. Int. J. Comp. Vis., 57(2), , [7] Liu Ch., A Bayesian Discriminating Features Method for Face Detection. IEEE Trans. Patt. Anal. Mach. Intell., 6, 2003, [8] Samal A., Iyengar P.A., Automatic recognition and analysis of human faces and facial expressions: A survey. Pattern Recognition, 25(1), 65-77, [9] Brunelli R., Poggio T., Face Recognition: Features versus Templates, IEEE Trans. Patt. Anal. Mach. Intell., 15(10), , [10] Turk M., Pentland A., Eigenfaces for Recognition. Journal of Cognitive Neuroscience, 3(1), 71-86, [11] Smiatacz M., Malina W., Active Shape Models in practice. Computer Recognition Systems, Advances in Soft Computing, Springer-Verlag 2005, [12] Chen L.-F., Liao H.-Y. M., Ko M.-T., Lin J.-C., Yu G.-J., A New LDAbased Face Recognition System Which Can Solve the Small Sample Size Problem. Pattern Recognition, 33(10}, , [13] Raudys S.J., Jain A., Small Sample Size Effects in Statistical Pattern Recognition: Recommendations for Practitioners. IEEE Trans. Patt. Anal. Mach. Intell., 13(3), , [14] Wiskott L., Fellous J.-M., von den Malsburg C., Face recognition by elastic bunch graph matching. IEEE Trans. Patt. Anal. Mach. Intell. 19, 1997, [15] Cox I.J., Ghosn J., Yianilos P.N., Feature-based face recognition using mixture-distance. IEEE Conference on Computer Vision and Pattern Recognition, 1996, [16] Okada K., Steffans J., Maurer T., Hong H., Elagin E., Neven H., von den Malsburg C., TheBochum/USC Face Recognition System and how it fared in the FERET Phase III Test. Face Recognition: From Theory to Applications, Springer-Verlag, Berlin, , [17] Nefian A.V., Hayes III M.H., Hidden Markov models for face recognition. International Conference on Acoustics, Speech and Signal Processing, , 1998.

127 Automatyczne rozpoznawanie twarzy 127 [18] Moghaddam B., Pentland A., Probabilistic visual learning for object representation. IEEE Trans. Patt. Anal. Mach. Intell., 19, 1997, [19] Belhumeur P.N., Hespanha J.P., Kriegman D.J., Eigenfaces vs. Fisherfaces: Recognition using class specific linear projection. IEEE Trans. Patt. Anal. Mach. Intell. 19, 1997, [20] Liu C., Wechsler H., Evolutionary pursuit and its application to face recognition. IEEE Trans. Patt. Anal. Mach. Intell., 22, 2000, [21] Bartlett M.S., Lades H.M., Sejnowski T., Independent component representation for face recognition. SPIE Symposium on Electronic Imaging: Science and Technology, 1998, [22] Etemad K., Chellappa R., Discriminant analysis for recognition of human face images. J. Opt. Soc. Am. A 14, , [23] Lin S.H., Kung S.Y., Lin L.J., Face recognition/detection by probabilistic decision-based neural network. IEEE Trans. Neural. Netw. 8, 1997, [24] Pentland A., Moghaddam B., Starner T., View-based and modular eigenspaces for face recognition. IEEE Conference on Computer Vision and Pattern Recognition, [25] Penev P., Atick J., Local feature analysis: A general statistical theory for object representation. Netw. Computat. Neural Syst., 7, 1996, [26] Huang J., Heisele B., Blanz V., Component-based face recognition with 3D morphable models. International Conference on Audio- and Video- Based Person Authentication, [27] Sammon J., An Optimal Discriminant Plane. IEEE Trans. Computers, C- 19, 1970, [28] Malina W., Two Parameter Fisher Criterion. IEEE Transactions on Systems, Man and Cybernetics, Part B: Cybernetics, 31(4), , [29] Cootes T., Taylor C., Active Shape Models - "Smart Snakes". Proc. British Mach. Vis. Conf. 1992, [30] Smiatacz M., Practical evaluation of the basic concepts for face localization. Computer Recognition Systems 2, Advances in Soft Computing, Springer-Verlag 2007, [31] Lin C., Fan K.-C., Triangle-based approach to the detection of human face. Pattern Recognition, 34, 2001, [32] Viola P., Jones M.J., Robust real-time face detection. Int. J. Comp. Vis., 57(2), , [33] Bailly-Baillière E., Bengio S., Bimbot F., Hamouz M., Kittler J., Mariéthoz J., Matas J., Messer K., Popovici V., Porée F., Ruiz B., Thiran J.-P., TheBANCA database and evaluation protocol. 4 th Int. Conf. Audioand Video-Based Biometric Person Authentication, , [34] Schneiderman H., Kanade T., Probabilistic modeling of local appearance and spatial relationships for object recognition. IEEE Conf. Com. Vis. Patt. Rec., 45-51, [35] Samaria F., Harter A., Parameterisation of a Stochastic Model for Human Face Identification. 2 nd IEEE Workshop on Applications of Computer Vision, Sarasota 1994.

128 128 M. Smiatacz, W. Malina [36] Phillips P.J., Moon H., Rauss P.J., Rizvi S., The FERET evaluation methodology for face recognition algorithms. IEEE Trans. Patt. Anal. Mach. Intell., 22(10), , [37] Phillips P.J., Scruggs W.T., O Toole A.J., Flynn P.J., Bowyer K.W., Schott C.L., and Sharpe M., "FRVT 2006 and ICE 2006 Large-Scale Results", NISTIR 7408, [38] Dziekańska E., Koniec prywatności. CHIP, 10/1997. [39] Bowman L.M., Tampa drops face-recognition system. CNET News.com, August 21, [40] Willing R., Airport anti-terror systems flub tests; Face-recognition technology fails to flag suspects. USA Today, [41] Meek J., Robo cop. UK Guardian,

129 TECHNIKI KOMPUTEROWE 1/2007 Tomasz Para, Rafał Doroz Zakład Systemów Komputerowych, Uniwersytet Śląski, Katowice Using dynamic features and linear regression to signature verification Wykorzystanie dynamicznych cech podpisu oraz regresji liniowej w procedurach rozpoznawania Abstract In this paper results of researches concerning signature verification system are presented. The system is based on linear regression, regression coefficient and DTW algorithm. The researches were carried out both for static features and for dynamic ones. The investigation was carried out twice to discover influence of dynamic features on verification system. Moreover, the results of system based on Hough transform (off-line system) are showed for comparison. Streszczenie Artykuł ten prezentuje wyniki badań, jakie zostały przeprowadzone w systemie weryfikacji podpisów opartym na regresji liniowej, współczynniku regresji liniowej oraz algorytmie DTW. Badania zostały przeprowadzone zarówno dla cech statycznych podpisu, jak i dla dynamicznych. Pozwoliło to określić wpływ cech dynamicznych na skuteczność działania systemu. Ponadto dla porównania zostaną przedstawione wyniki działania systemu weryfikującego (działającego w trybie off-line) w oparciu transformatę Hough a. 1. Introduction The handwritten signature is a biometric attribute. It is the most common validation tool for documents or commercial transactions. But it also can be used in such systems that need to ascertain an attendance of person (e.g. time clock and timekeeping systems). Signatures can be verified either online or off-line [11, 12, 13]. Recently, many methods and models have been developed for automatic on-line signature verification like Regional Correlation, Tree Matching, Hidden Markov Models [5] and many more. Selecting a good set of characteristic features of signature is the most important step in designing a signature verification system. This paper

130 130 Tomasz Para, Rafał Doroz presents results of research that shows the influence of dynamic features on efficiency of verification system. Our system is based on linear regression and Dynamic Time Warping (DTW) algorithm that is used to align sequences of different length (equal sequences are needed as input data for linear regression approach). This paper is organized as follows: at the beginning, theoretical background of the DTW algorithm and linear regression are introduced. In the next part of paper the results of carried out researches are presented. Finally, conclusions are presented. 2. Pre-processing The first stage of verifying process is pre-processing. During this process the input data are appropriate prepared to further processing. Proposed in this paper approach consists of two steps: in the first step appropriate rotation of signature is applied, because the recognition system should be rotation-independent. In the next step analyzed signature is shifted to the beginning of the coordinate system. In many cases analysed signature has linear trend, for this reason detrended procedure should be applied. Signature is appropriate rotated and a trend is removed. To rotate a signature, in the first stage equation of the orthogonal linear regression is determined: sx sy + ( sx sy) + 4cov ( x, y) y = ( x x ) + y (1) 2cov( xy, ) where: appropriate variance of a sample (measure of the spread of data in a data set): n n sx = ( xi x), sy = ( yi y), the mean of a sample: n i = 1 1 n xi n i = 1 n i = 1 1 n i x =, y = y n. i = 1 the covariance of a sample: n 1 cov( xy, ) = xy i i xy n 1 i= 1 The slope of the straight line (1) can be computed as follows:

131 Using dynamic features sx sy + ( sx sy) + 4cov ( x, y) tanϕ = (2) 2cov( xy, ) Hence signature can be rotated about angle φ = ϕ ' x xcos y sinϕ y' = xsinϕ+ ycosϕ where: ' ' ( x, y ) denotes the new coordinates of the signature point, which in old system has coordinates ( xy, ) (3) Fig. 1 Rotating signature (removing trend) before rotation (left); after rotation (right) By applying formulas (4): xi = xi min( xi, i= 1,..., n) yi = yi min( yi, i= 1,..., n) the signature is shifted to the beginning of coordinate system (fig.2) (4) Fig. 2 Shifting signature to the beginning of coordinate system: left) input signature; right) shifted signature 3. Dynamic Time Warping

132 132 Tomasz Para, Rafał Doroz For signature verification, it is obvious that signal warping techniques play an important role in order to be able to compare signatures with variations in length and height (but also in length of data sequences of pen-pressure, time, etc), which occurs even for the repetition of the signature of one single person. In this purpose we use the Dynamic Time Warping (DTW) algorithm which is a technique that finds the optimal alignment between two sequences [1,7,10]. One sequence may be warped by stretching or shrinking. This method can be used to find corresponding regions between two sequences or to determine the similarity between two sequences. In this paper, the term sequence denotes variable-length series of elements and each element is a vector with dimension N, which represents a measurement at certain time or position. As input data of the DTW algorithm, the two data sequences are ' ' ' inserted: X1 = ( x1, x2,..., x n ) and X2 = ( x1, x2,..., x m ) (where n and m can be different). The DTW algorithm populates the n m matrix, according to the formula: ' ( 1, 1 ) + ( i, j ) ' ( ) ( i j ) ' (, 1 ) + d( xi, xj ) D i j d x x D( i, j) = min D i 1, j + d x, x D i j The DTW table, is needed to determine the optimal warping path (fig.3). ' ' (, ) ( ) 2 i j = i j d x x x x (5) Fig. 3 DTW table and warping path Cumulative distances in the matrix cell are computed on the basis of d x, x ' in the current cell and the minimum of the cumulative the value ( i j ) distances of the adjacent elements.

133 Using dynamic features The work of the DTW algorithm can be also graphically expressed. The fig. 4 (the upper one) presents two exemplary signatures. Each of these signatures have different length. The fig.4 (the one below) presents the same signatures after the DTW procedure. Now, the sequences are adjusted and have the same length. Fig. 4 Two signature sequences with different length. Original signature sequences (the upper one); the same normalized sequences after DTW algorithm (the one below) 4. Coefficient of the linear regression In our approach coefficient of the linear regression is used to find similarity of two signatures. In the model of linear regression, analysed sequences X1 and X 2 should have the same length. Fit of the straight line to the given data set presents fig.5

134 134 Tomasz Para, Rafał Doroz Fig. 5 A set of two signature points which spread along the axes X1 and X2, respectively and linear regression line The quality of fit measure between both sequences X1 and X2 is well known as R2 factor [6]. The measure R2 indicates the association between the x variable and the i x variable. Its absolute value indicates how '' i well the straight line of the best fit approximates the data. Computations form of the R2 coefficient is (6): R 2 = n ( )( '' x X x X ) i 1 i 2 i= 1 n n 2 '' xi X1 x i X2 i= 1 i= 1 ( ) ( ) 2 2 X 1 1 n xi n i = 1 = X 2 1 n '' xi n i = 1 = (6) The factor R 2 can be treated as the similarity measure Sim between two 2 sequences X 1 and X 2. If we use notation, where Sim = 1 R, then values of similarity coefficient will be normalized, hence Sim [0,1]. If R 2 =1, both sequences X 1, X 2 have perfect linear correlation. If R 2 =0, then linear relation between sequences do not appear. In the other words, we obtain similarity with values between 0% 100%. 5. Researches and results In investigations we used our own database of signatures. A set of 200 signatures (50 people 4 signatures per person) was captured during four days. Finally, the database includes bitmap image of signature, coordinates of each point of signature and signature dynamic features for any bitmap. Dynamic features (time and pen pressure and also coordinates of each point) are stored as a textual file, where each feature is expressed by

135 Using dynamic features appropriate value. To gather signatures we used a Topaz SigLite T- LBK750-HSB tablet. In the first step one of these signatures is chosen as a pattern (the most characteristic signature of the person). Each signature (of the same person) was compared to the remaining three signatures (DTW and linear regression coefficient were used) and the signature, which is the most similar to the other signatures is chosen as the pattern. We passed through the database twice and we carried out experiments including pen-pressure factor and excluding that one. We also did some experiments, where time of signature was captured, but the results revealed that time factor was insignificant for the final result of two signatures comparison. We suppose that the factor might be more important during recognizing forged signatures (these investigations will be carried out soon). The fig. 6 shows results of researches carried out with excluded penpressure factor. Fig. 6 FAR/FRR coefficient distribution for signatures where pen-pressure feature was not measured The compatibility is equal 89% for this investigation (where FRR=FAR=12,2%). During the next pass of researches the pen-pressure factor was included to DTW algorithm and results are shown on the Fig. 7.

136 136 Tomasz Para, Rafał Doroz Fig.7 FAR/FRR coefficient distribution for signatures where pen-pressure feature was measured The compatibility is equal 73% for this investigation (FRR=FAR=2,44%). The pen-pressure factor improved the proper recognition of signatures of almost 10%. Pen-pressure factor is very sensitive: that is why compatibility threshold might be decreased to 73% for the best results. Decreasing the compatibility to such low level (73%) is very risky. It means that if signatures are similar in 73% to the pattern, then are considered as signatures of the same person. If we try to do it without penpressure factor, the results would have a quite high FAR=37,5%. The investigation with the pen-pressure factor proved that in this case low compatibility threshold is allowed and quite safe. 6. Conclusions In previous researches only static features of signature were carried out The Hough transform algorithm was applied to verify signatures [3,4]. The obtained signature recognition results were very accurate, although the most important dynamic features were not measured. Current recognition system is based on both dynamic and static signature features. It was shown that pen-pressure feature is very meaningful and can improve work of system significantly. On the other hand, pen-pressure is very sensitive and needs quite low compatibility threshold (comparing to static features). The received results of previous system (which base on the Hough Transform) and current investigations,

137 Using dynamic features where instead of the Hough transform linear regression coefficient was applied, are shown in the Table 1. Table 1. Comparison of the different methods of the signature recognition Hough Transform(%) R 2 without pen-pressure (%) R 2 with pen-pressure(%) FAR FRR Efficiency FAR FRR Efficiency FAR FRR Efficiency 1,79 3,57 94,60 12,1 12,3 89,00 1,2 2,4 97,48 In the future researches we plan to test other dynamic features (e.g. velocity, acceleration, etc.) and to determine set of the most characteristic/important ranges of dynamic features. Moreover, we plan to carry out tests, where forged signatures will also be analysed. References [1] SALWADOR S., CHAN P., FastDTW: Toward Accurate Dynamic Warping in Linear Time and Space. Proc. of the Int. Conf. on knowledge discovery and data mining KDD 04, Seattle, USA, pp , 2004, [2] LEI H, et all., ER2: an Intuitive Similarity Measure for On-line Signature Verification. 9th Int. Workshop on Frontiers in Handwriting Recognition IWFHR 04, Tokyo, Japan, pp , [3] PORWIK P., PARA T., Some Handwritten Signature Parameters in Biometric Recognition Process. Proc. of the 29th Int. Conf. on Information Technology Interfaces ITI 07, pp Cavtat, Croatia, 2007 [4] Porwik P., The compact three stages method of the signature recognition. Proc of the 6th Int. IEEE Conf. Computer Systems and Industrial Management Applications, CISIM Ełk, pp , 2007 [5] COETZER J., et all. Offline Signature Verification Using the Discrete Radon Transform and a Hidden Markov Model. EURASIP J. on Applied Signal Processing 2004, pp , [6] ZHANG B., FU. M, YAN H., Handwritten signature verification based on neural gas based vector quantization. Proc. of 14th Int. Conf. on Pattern Recognition. Vol. 2, pp , [7] KORONACKI J., ĆWIK J.: Statystyczne systemy uczące się. Wydawnictwa Naukowo-Techniczne, Warszawa, [8] Saeed K., Adamski M., Extraction of Global Features for Offline Signature Recognition. Image Analysis, Computer Graphics, Security

138 138 Tomasz Para, Rafał Doroz Systems and Artificial Intelligence Applications, WSFiZ Press, pp , [9] Adamski M., Saeed K., Signature image recognition by shape context image matching [appear in proceedings of XII Int. Conf. Medical Informatics and Technologies, Osieczany near Cracow, Poland, 2007]. [10] Adamski M., Saeed K., Signature identification by view-based feature extraction and Dynamic Time Warping classifier. Proc. of the 13th Int. MultiConf. on Advanced Computer Systems ACS AIBITS/CISIM'06, Miedzyzdroje, Poland, pp , 2006 [11] LEE L., BERGER T., AVICZER E., Reliable On -Line Human Signature Verification Systems. IEEE Trans. on Pattern Analysis and Machine Intelligence, pp , [12] RHEE T., CHO S., KIM J., On-Line Signature Verification Using Model-Guided Segmentation and Discriminative Feature Selection for Skilled Forgeries. The 6th International Conference on Document Analysis and Recognition (ICDAR), 2001

139 TECHNIKI KOMPUTEROWE 1/2007 Jowita Maciaszek Department of Criminalistics Adam Mickiewicz University Biometric measurement of the scent Biometryczny pomiar zapachu Abstract The aim of this article is to show possibilities of using an electronic nose for scent identification especially at the crime scene. The question is whether this device can be used instead of dogs for identifying substances important from the forensic viewpoint or even criminals. Streszczenie Celem artykułu jest wskazanie możliwości zastosowania elektronicznego nosa dla identyfikacji zapachu, w szczególności na miejscu przestępstwa. Podstawową kwestią jest odpowiedź na pytanie czy wskazane urządzenie może służyć w zastępstwie psa do identyfikacji substancji istotnych z punktu widzenia kryminalistyki, a nawet przestępcy. 1. Introduction Biometry is an automatic technique of measurement of the unique, physical or behavioural, features of an individual and of comparison of such a characteristic with data in order to recognise this individual. [1] Such a feature unique to each human being is scent. It is determined by the components of the body occurring in blood, sweat, etc. Their qualitative and quantitative composition is characteristic of any individual making it possible to identify a person by their scent. [2] This is a subject of osmology in which the dog scent organ is used to identify the individual. Production of sensors with a sensitivity of the dog s nose, which would produce print-outs used as evidence for the court is an aim of research on the applications of the electronic nose (EN). Such a sensor would allow for objective identification, which is not the case with the dog s nose. 2. An electric nose in theory The device called electronic nose is not used for pointing out the qualitative or quantitative composition of a given sample (it is not

140 140 Jowita Maciaszek a chromatographic system) but for smell identification. If the EN is to have an application in biometry, it has to fulfil the following requirements: 1) sensor array with suitable sensitivity and tenderness; 2) pattern recognition system which will be able to differentiate samples from different people and to prove that two samples come from the same person. These two elements are crucial for EN construction. However, for better effectiveness of such a device the following are also important: 1) short recognition time; 2) automatic cleaning of sensors before taking the next sample. 3. Electronic noses in practice The first attempts at building devices able to meet the requirements have been connected with installing explosive detection gates with IMS (Ion Mobility Spectrometry) detectors at some of American airports. The chief disadvantage of these devices is the necessity of staying within the gate for about 12 seconds. [3] The prototype of sensors working as ENs was the Bloodhound system whose tenderness was to enable identification of criminals by their smell. The technical problems connected with the necessity of working at 300 C and preliminary separation of sample components by the chromatograph made it impossible to use it practically. Moreover, the requirement of sample division by the chromatograph negates the EN s idea.[4] This technology became the starting point for a device called Scentinel which was created for digital identification of computer users by the smell of their hands. Despite high costs of producing such a device, British Embassy in Buenos Aires, National in Saudi Arabia and private Indian and Japanese firms have been interested in using it. Therefore, Mass Spec Analytical Ltd of Bristol took over the technology. The device is still called Scentinel and it uses two mass spectrometers (doesn t need any chromatograph). It is used for the detection of drugs and explosives, and also other substances (it is possible to spread the library of smells ). The device is specially intended for prison services, police and other law enforcement agencies. It can be used especially at the crime scene with no need for transporting samples or exhibits to the laboratory.[5] DARPA (Pentagon s Defence Advanced Research Projects Agency) is interested in the utilization of the EN instead of dogs and sponsors the research in various fields.[6] Firstly there are research projects led by the University of Pennsylvania in collaboration with Monell Chemical Senses Centre owing

141 Biometric measurement of the scent 141 to which a prototype of new device was constructed. The fundamental piece of it are carbon nanotubes lined with single stranded animal DNA. The main advantages of such sensors are high tenderness, short response time, precise reading, simple operation and a possibility of using the same DNA for about 50 times without the necessity of regeneration.[7] The collaboration between DARPA and Small Business Innovation Research has resulted in creating a device called ScenTrak which detects vapour signatures of TNT and related materials in landmines. At the Auburn University tests were conducted with canines which made it clear that this technology can detect nitroaromatic compounds (such as DNT) at low concentrations and all that even 10 times better than dogs. ScenTrak can also detect buried anti-tank and anti-personnel landmines. It is also important that the detector is cheap, lightweight, stationary or portable with rechargeable batteries, durable, accurate, with short response and clearing time.[8] The results of research on ENs are also two devices produced by Smiths Detection: Travel IR and HazMat Chemical Identifier. The first one is used to identify hazardous chemicals in tunnels and at underground stations, while the second one identifies explosives.[9] 4. Conclusions To sum up, it is necessary to ask in what way such devices can be used in biometry. To answer this question it is necessary to return to the definition of biometry as an automatic technique of measurement the features of an individual. Given that scent is an individual feature it is important to differentiate the scent as constant and non-constant feature. A constant feature is the scent of an individual and the non-constant feature is this scent enriched by environmental additions which depend on objects an individual is in contact with. A dog can sniff out both these categories because the smell, even after contact with additions, still stays individual, with changed characteristics only. So there are two different applications of EN in biometry: 1) to identify a person s contact with substances which are important from the forensic viewpoint; 2) to identify a criminal who left a scent at a crime scene (as a routine device in osmology).

142 142 Jowita Maciaszek References [1] M. Andrzejkowicz, Dane biometryczne w polskich dowodach tożsamości, in: Biometria wybrane zagadnienia, ed.. W. Mitas, Warszawa-Cieszyn 2004, p. 72. [2] T. Bednarek, Podstawowe zagadnienia z badań osmologicznych, Problemy Kryminalistyki, 1998 nr 222. [3] M. Pecul, Węsząca bramka i pachnące miny, Wiedza i Życie, 1999 nr 5; Ion Mobility Spectrometry (IMS), [4] M. Pecul, Elektroniczne nosy, Wiedza i Życie, 1998 nr 7. [5] Mass Spec Analytical Chemist Company, Bristol-UK-Scentinel, [6] Z. Korotkaya, Biometric Person Authentication: Odor, [7] T. Avril, The e-nose will know , C. Stali, A. T. Johnson, DNA-Decorated Carbon Nanotubes for Chemical Sensing, Nano Letters, 2005 Vol. 5, No. 9, s , pdf z dnia [8] CogniScent Inc s Explosives Detection Capability, [9] Elektroniczny świat zmysłów, Świat Nauki, Wydanie Specjalne, nr 1(8), wrzesień-październik 2007.

143 TECHNIKI KOMPUTEROWE 1/2007 Krzysztof Dudek Uniwersytet Śląski Wydział Etnologii i Nauk o Edukacji Katedra Edukacji Informatycznej Andrzej W. Mitas Politechnik Śląska Scenariusze i algorytmy biometrii multimodalnej Scenarios and algorithms in multimodal biometrics systems Streszczenie Artykuł jest wprowadzeniem w zagadnienia poprawiania skuteczności automatycznej identyfikacji osób przez stosowanie behawioralnej biometrii multimodalnej. W artykule zestawiono scenariusze stosowania tej techniki, ponadto scharakteryzowano algorytmy stosowane w torze przetwarzania informacji. Abstract The article is the introduction to the issues of automatic person identification using multimodal behavioral biometry effectiveness improvement. In this paper, scenarios of using of this technique have been shown, furthermore algorithms used in the path of data processing have been compared. 1. Wstęp Bezpieczeństwo jednostki, ostatecznie przekładające się na to by przeżyć, towarzyszy naszej cywilizacji od zarania dziejów. We wczesnym jej stadium osobniki i grupa musiały rozpoznawać stan zagrożenia pochodzący od przyrody zarówno ożywionej jak i nieożywionej. Taki stan rzeczy trwa po dziś dzień. Populacja naszego gatunku ulegając zwielokrotnieniu, wymusza potrzebę wzajemnej, skutecznej identyfikacji, a wzrastająca liczebność populacji zwiększa skalę trudności skutecznej realizacji. Początek dwudziestego pierwszego wieku ugruntowując procesy globalizacji wzmocnił zagrożenie terroryzmem. W tym kontekście potrzeba skutecznej, automatycznej identyfikacji osób, dla wielu społeczności, stała się naglącą potrzebą. Multimodalne metody biometryczne wychodzą temu na przeciw.

144 144 A.W. Mitas, K. Dudek 2. Autoryzacja i identyfikacja W dzisiejszym świecie większość, czyhających na nas zagrożeń, pochodzi od ludzi. Z tej to racji, wtedy gdy wchodzimy do monitorowanego obiektu, gdy otwieramy sejf, czy podejmujemy zdeponowane w banku pieniądze, w każdym z tych przypadków występuje konieczność potwierdzenia tożsamości. Gdy chcemy zwiększyć skuteczność identyfikacji stosujemy kilka, niezależnych metod nazywając tę procedurę weryfikacją. Ślady ludzkich działań, fragmenty ciała przy zastosowaniu właściwej metodologii pozwalają ustalić tożsamość osoby, doprowadzić do identyfikacji. Historycznie, jedną z najstarszych metod potwierdzania tożsamości, a co za tym idzie autoryzacji, stosowaną z powodzeniem do dnia dzisiejszego, jest klucz. Metoda ta polega na sprawdzeniu czym dysponuje, co posiada, osoba poddawana autoryzacji. Na przestrzeni wieków klucze ulegały technologicznemu przeobrażeniu. Były nimi różne przedmioty, przykładowo sygnety królewskie, czy lakowe pieczęci, którymi legitymowali się umyślni. Dziś stosowane są karty z magnetycznym, elektrycznym czy optycznym systemem przechowywania informacji. Nowoczesne klucze można weryfikować zdalnie przy użyciu fal radiowych. Przykładem takiej aplikacji jest technologia RFID. Urządzenia są doskonalone technicznie, coraz trudniej je skopiować, jednakże sprawdzenie, polegające na weryfikacji tożsamości klucza, a nie osoby, nie uległo zmianie od wieków. A co zrobić gdy klucz zostanie skradziony, zagubiony lub przekazany osobie, która tej autoryzacji nie posiada? Subtelniejsze metody autoryzacji opierają się na własności tego co autoryzowana osoba wie. Stąd stosowana do dnia dzisiejszego metoda haseł. W praktyce dnia codziennego para coś co masz plus coś co wiesz zmniejsza ryzyko popełnienia błędu w procesie autentykacji. Stosowane powszechnie karty bankomatowe czy kredytowe spełniają taki wymóg. Kradzież, czy zagubienie karty nie jest groźne pod warunkiem iż kod zwany PIN (personal identification number) nie został również przez posiadacza klucza utracony. Metoda ta jednak nie weryfikuje osoby tylko fakt dysponowania kluczem i zabezpieczającym go kodem. 3. Biometria Na przeciw wymienionym wcześniej niedogodnościom wychodzą biometryczne metody identyfikacji opierające się na pomiarze cech osobniczych. Biometria zwana czasami biostatystyką jest nauką opisująca zmienność cech populacji organizmów, zjawisk życiowych, czy też

145 Scenariusze i algorytmy biometrii multimodalnej 145 dokonującą pomiarów organizmów żywych metodami statystyki matematycznej. Biometria posługuje się odpowiednio zaplanowanym eksperymentem w celu sprawdzenia postawionych hipotez badawczych. Znajduje zastosowanie w antropologii, ekologii, genetyce, fizjologii, medycynie. Jako nauka biometria powstała w 2. połowie XIX w., a jej twórcami byli F. Galton oraz K. Pearson. W XX w. rozwinęli ją R. A. Fisher i S. Wright. [1] W artykule tym pojęcie biometrii używamy w kontekście zastosowania metodologii tej nauki dla identyfikacji osobniczej. Znaną i stosowaną powszechnie do dnia dzisiejszego biometryczną metodą potwierdzania tożsamości jest odręczny podpis. Jego automatyczne rozpoznanie, szybka identyfikacja przysparza jednak wiele kłopotów. W pierwszym odruchu można sformułować tezę, iż każda zmierzona cecha organizmu może stać się podstawą dla identyfikacji. W praktyce jednak, dla zapewnienia skutecznego, automatycznego porównywania cech ze zgromadzonym w bazie danych wzorcem cechę lub cechy muszą charakteryzować następujące właściwości: [2] Niezmienność. Właściwości powinny pozostać niezmienione w długim przedziale czasowym. Mierzalność. Właściwości powinny być łatwo mierzalne, krótko w czasie (szybko), nie stwarzając podczas pomiaru specjalnych niedogodności. Unikalność. Mierzone cechy winne być na tyle unikalne by wystarczająco dobrze moc odróżnić od siebie osoby. Akceptowalność. Metoda pozyskiwania cech winna być akceptowalna przez większość populacji i winna wykluczać metody inwazyjne przykładowo pozyskujące część organizmu. Redukowalne. Pozyskane, zmierzone wielkości powinny być redukowalne do postaci danych nadających się do przechowywania i łatwego ich przetwarzania. Wiarygodność. Cały proces winien zapewnić wysoką wiarygodność, powtarzalność. Prywatność. Proces autentykacji nie powinien naruszać prywatności. Wiele cech czy właściwości można zmierzyć jednak tylko niektóre spełniają powyższe postulaty. W tabeli nr 1 zestawiono przykładowe mierzone cechy z odniesieniem do wybranych własności wraz z oceną przydatności dla identyfikacji biometrycznej. W literaturze [3] porównano i przeanalizowano przydatność praktyczną również innych technologii biometrycznych: DNA, zapach, odcisk dłoni, kształt ucha, kroki.

146 146 A.W. Mitas, K. Dudek Mierzona cecha Geometria dłoni Geometria dwóch palców Tabela 1. Przydatność metod biometrycznych do identyfikacji osobniczej Metoda pozyskiwania Optyczna lub Termograficzna Optyczna lub Termograficzna Niezmienność Osobliwość Akceptowalność Dobra 1:1 000 Bardzo dobra Dobra 1:1 000 Bardzo dobra Siatkówka Optyczna Bardzo dobra 1: Słaba (inwazyjna) Tęczówka oka Optyczna Bardzo dobra 1: Dobra Rysunek żył powierzchnia dłoni Optyczna Dobra Nieznana Bardzo dobra Podpis Dynamiczna (nacisk) Słaba 1: Bardzo dobra Głos Elektroakustyczna Słaba Nieznana Dobra Twarz Optyczna lub Termograficzna Dobra Nieznana Dobra Odcisk palca Optyczna pojemnościowa Bardzo dobra 1: Dobra Praktycznie stosowane metody identyfikacji dzieli się zwykle na trzy grupy: [4, 5, 6] Metoda pamięciowa coś co wiesz ang. Something you know - SYK. Praktycznymi wdrożeniami metody są identyfikatory PIN stosowane przy kartach kredytowych, bankomatowych, popularne jest również stosowane haseł strzegących dostępu do zasobów komputerowych. Metoda materialnego identyfikatora coś co masz ang. Something you have SYH, metoda zwana Tokenową Metodę tę reprezentują karty magnetyczne, karty chipowe, identyfikatory RFID. Metoda biometryczna w której wykorzystuje się unikatowość cech anatomicznych, fizjologicznych czy sposobów zachowań: o Anatomiczne i fizjologiczne oparte są o cechy biologiczne ang. Something you are SYA (praktycznie wykorzystywane są linie papilarne, kształt dłoni, kształt dwóch palców, cechy anatomiczne twarzy, rysunek siatkówki czy tęczówki oka,

147 Scenariusze i algorytmy biometrii multimodalnej 147 rysunek naczyń krwionośnych w kończynach przykładowo dłoni) o Behawioralne odnoszące się do zachowań człowieka, naturalnych czy wymuszonych stymulacją coś co robisz ang. Something you do SYD przykładem mogą być odręczny podpis, pisanie na klawiaturze, sposób chodzenia kroki, ruch gałek ocznych...) Rys. 1 Metody identyfikacji Identyfikacja biometryczna, o niej mówimy w dalszej części artykułu, realizowana jest w oparciu o unikatowość cech anatomicznych czy fizjologicznych. Ogromną zaletą tej metody jest ścisłe przypisanie klucza do osoby. Praktycznie wykorzystywana jest dla autoryzacji dostępu do bankomatów, urządzeń komputerowych, telefonów, czy zewnętrznych pamięci masowych na przykład dyski zewnętrzne zapisujące informację na pamięci typu flash. Gotowe do zabudowy moduły biometryczne produkowane są na skalę masową [7] stąd coraz częstsza ich obecność w takich urządzeniach jak laptopy, palm topy czy nawet urządzenia domofonowe będące na wyposażeniu domów jednorodzinnych. Metody biometryczne niestety mają również wady [8]. Jeżeli uda się stworzyć falsyfikat cech, uda się oszukać system autoryzacji. Znane są przypadki tworzenia modeli palca czy holograficznej kopi tęczówki. Poprawnie wykonaną, odpowiednio spreparowaną fotografię można przykładowo wykorzystać dla oszukania seryjnie produkowanych urządzeń skanujących tęczówkę oka. Zdarza się, że nie możemy mieć gwarancji czy dokonany pomiar cechy pochodzi z pomiaru cechy osoby żyjącej. Dlatego też coraz częściej sięga się do identyfikacji biometrycznych odnoszących się do cech behawioralnych [9].

Biometria w projektach rządowych

Biometria w projektach rządowych Biometria w projektach rządowych Tomasz Mielnicki Government Programs Konferencja Biometria 2012 Instytut Maszyn Matematycznych 13.12.2012 Biometria dwa cele Identyfikacja porównanie wzorca cechy biometrycznej

Bardziej szczegółowo

ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS.

ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS. ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS. Strona 1 1. Please give one answer. I am: Students involved in project 69% 18 Student not involved in

Bardziej szczegółowo

Financial support for start-uppres. Where to get money? - Equity. - Credit. - Local Labor Office - Six times the national average wage (22000 zł)

Financial support for start-uppres. Where to get money? - Equity. - Credit. - Local Labor Office - Six times the national average wage (22000 zł) Financial support for start-uppres Where to get money? - Equity - Credit - Local Labor Office - Six times the national average wage (22000 zł) - only for unymployed people - the company must operate minimum

Bardziej szczegółowo

Krytyczne czynniki sukcesu w zarządzaniu projektami

Krytyczne czynniki sukcesu w zarządzaniu projektami Seweryn SPAŁEK Krytyczne czynniki sukcesu w zarządzaniu projektami MONOGRAFIA Wydawnictwo Politechniki Śląskiej Gliwice 2004 SPIS TREŚCI WPROWADZENIE 5 1. ZARZĄDZANIE PROJEKTAMI W ORGANIZACJI 13 1.1. Zarządzanie

Bardziej szczegółowo

Working Tax Credit Child Tax Credit Jobseeker s Allowance

Working Tax Credit Child Tax Credit Jobseeker s Allowance Benefits Depending on your residency status (EU citizen or not) there are various benefits available to help you with costs of living. A8 nationals need to have been working for a year and be registered

Bardziej szczegółowo

Cracow University of Economics Poland. Overview. Sources of Real GDP per Capita Growth: Polish Regional-Macroeconomic Dimensions 2000-2005

Cracow University of Economics Poland. Overview. Sources of Real GDP per Capita Growth: Polish Regional-Macroeconomic Dimensions 2000-2005 Cracow University of Economics Sources of Real GDP per Capita Growth: Polish Regional-Macroeconomic Dimensions 2000-2005 - Key Note Speech - Presented by: Dr. David Clowes The Growth Research Unit CE Europe

Bardziej szczegółowo

Unit of Social Gerontology, Institute of Labour and Social Studies ageing and its consequences for society

Unit of Social Gerontology, Institute of Labour and Social Studies ageing and its consequences for society Prof. Piotr Bledowski, Ph.D. Institute of Social Economy, Warsaw School of Economics local policy, social security, labour market Unit of Social Gerontology, Institute of Labour and Social Studies ageing

Bardziej szczegółowo

Effective Governance of Education at the Local Level

Effective Governance of Education at the Local Level Effective Governance of Education at the Local Level Opening presentation at joint Polish Ministry OECD conference April 16, 2012, Warsaw Mirosław Sielatycki Ministry of National Education Doskonalenie

Bardziej szczegółowo

Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl. magda.szewczyk@slo-wroc.pl. Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to students

Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl. magda.szewczyk@slo-wroc.pl. Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to students Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl Back Twoje konto Wyloguj magda.szewczyk@slo-wroc.pl BIODIVERSITY OF RIVERS: Survey to students Tworzenie ankiety Udostępnianie Analiza (55) Wyniki

Bardziej szczegółowo

Akademia Morska w Szczecinie. Wydział Mechaniczny

Akademia Morska w Szczecinie. Wydział Mechaniczny Akademia Morska w Szczecinie Wydział Mechaniczny ROZPRAWA DOKTORSKA mgr inż. Marcin Kołodziejski Analiza metody obsługiwania zarządzanego niezawodnością pędników azymutalnych platformy pływającej Promotor:

Bardziej szczegółowo

Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl. magda.szewczyk@slo-wroc.pl. Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to teachers

Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl. magda.szewczyk@slo-wroc.pl. Twoje konto Wyloguj. BIODIVERSITY OF RIVERS: Survey to teachers 1 z 7 2015-05-14 18:32 Ankiety Nowe funkcje! Pomoc magda.szewczyk@slo-wroc.pl Back Twoje konto Wyloguj magda.szewczyk@slo-wroc.pl BIODIVERSITY OF RIVERS: Survey to teachers Tworzenie ankiety Udostępnianie

Bardziej szczegółowo

Egzamin maturalny z języka angielskiego na poziomie dwujęzycznym Rozmowa wstępna (wyłącznie dla egzaminującego)

Egzamin maturalny z języka angielskiego na poziomie dwujęzycznym Rozmowa wstępna (wyłącznie dla egzaminującego) 112 Informator o egzaminie maturalnym z języka angielskiego od roku szkolnego 2014/2015 2.6.4. Część ustna. Przykładowe zestawy zadań Przykładowe pytania do rozmowy wstępnej Rozmowa wstępna (wyłącznie

Bardziej szczegółowo

POLITYKA PRYWATNOŚCI / PRIVACY POLICY

POLITYKA PRYWATNOŚCI / PRIVACY POLICY POLITYKA PRYWATNOŚCI / PRIVACY POLICY TeleTrade DJ International Consulting Ltd Sierpień 2013 2011-2014 TeleTrade-DJ International Consulting Ltd. 1 Polityka Prywatności Privacy Policy Niniejsza Polityka

Bardziej szczegółowo

Evaluation of the main goal and specific objectives of the Human Capital Operational Programme

Evaluation of the main goal and specific objectives of the Human Capital Operational Programme Pracownia Naukowo-Edukacyjna Evaluation of the main goal and specific objectives of the Human Capital Operational Programme and the contribution by ESF funds towards the results achieved within specific

Bardziej szczegółowo

Wpływ dyrektywy PSD II na korzystanie z instrumentów płatniczych. Warszawa, 15 stycznia 2015 r. Zbigniew Długosz

Wpływ dyrektywy PSD II na korzystanie z instrumentów płatniczych. Warszawa, 15 stycznia 2015 r. Zbigniew Długosz Wpływ dyrektywy PSD II na korzystanie z instrumentów płatniczych Warszawa, 15 stycznia 2015 r. Zbigniew Długosz 1 do czego można wykorzystywać bankowość elektroniczną? nowe usługi płatnicze a korzystanie

Bardziej szczegółowo

Please fill in the questionnaire below. Each person who was involved in (parts of) the project can respond.

Please fill in the questionnaire below. Each person who was involved in (parts of) the project can respond. Project CARETRAINING PROJECT EVALUATION QUESTIONNAIRE Projekt CARETRAINING KWESTIONARIUSZ EWALUACJI PROJEKTU Please fill in the questionnaire below. Each person who was involved in (parts of) the project

Bardziej szczegółowo

I webinarium 18.02.2015

I webinarium 18.02.2015 I webinarium 18.02.2015 Współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Współpracy Transgranicznej Republika Czeska - Rzeczpospolita Polska 2007-2013.

Bardziej szczegółowo

Zarządzanie sieciami telekomunikacyjnymi

Zarządzanie sieciami telekomunikacyjnymi SNMP Protocol The Simple Network Management Protocol (SNMP) is an application layer protocol that facilitates the exchange of management information between network devices. It is part of the Transmission

Bardziej szczegółowo

Łukasz Reszka Wiceprezes Zarządu

Łukasz Reszka Wiceprezes Zarządu Łukasz Reszka Wiceprezes Zarządu Time for changes! Vocational activisation young unemployed people aged 15 to 24 Projekt location Ząbkowice Śląskie project produced in cooperation with Poviat Labour Office

Bardziej szczegółowo

Steps to build a business Examples: Qualix Comergent

Steps to build a business Examples: Qualix Comergent How To Start a BUSINESS Agenda Steps to build a business Examples: Qualix Comergent 1 Idea The Idea is a Piece of a Company 4 2 The Idea is a Piece of a Company Investing_in_New_Ideas.wmv Finding_the_Problem_is_the_Hard_Part_Kevin

Bardziej szczegółowo

A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY

A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY ODMIENNE PODEJŚCIE JAK NAWIGOWAĆ W OBECNYCH NURTACH I RUCHACH, KTÓRE

Bardziej szczegółowo

Planowanie zrównoważonego transportu miejskiego w Polsce. Sustainable Urban Mobility Planning Poland. Wprowadzenie. Introduction

Planowanie zrównoważonego transportu miejskiego w Polsce. Sustainable Urban Mobility Planning Poland. Wprowadzenie. Introduction Planowanie zrównoważonego transportu miejskiego w Polsce Sustainable Urban Mobility Planning Poland Wprowadzenie Introduction Wyzwania polityki UE w zakresie transportu miejskiego Zatłoczenie centrów miast

Bardziej szczegółowo

No matter how much you have, it matters how much you need

No matter how much you have, it matters how much you need CSR STRATEGY KANCELARIA FINANSOWA TRITUM GROUP SP. Z O.O. No matter how much you have, it matters how much you need Kancelaria Finansowa Tritum Group Sp. z o.o. was established in 2007 we build trust among

Bardziej szczegółowo

EGZAMIN MATURALNY 2011 JĘZYK ANGIELSKI

EGZAMIN MATURALNY 2011 JĘZYK ANGIELSKI Centralna Komisja Egzaminacyjna w Warszawie EGZAMIN MATURALNY 2011 JĘZYK ANGIELSKI POZIOM PODSTAWOWY MAJ 2011 2 Egzamin maturalny z języka angielskiego poziom podstawowy ZADANIA ZAMKNIĘTE Zadanie 1. Obszar

Bardziej szczegółowo

Konsorcjum Śląskich Uczelni Publicznych

Konsorcjum Śląskich Uczelni Publicznych Konsorcjum Śląskich Uczelni Publicznych Dlaczego powstało? - świat przeżywa dziś rewolucję w obszarze edukacji, - naszym celem jest promocja śląskiego jako regionu opartego na wiedzy, i najnowszych technologiach,

Bardziej szczegółowo

Umowa Licencyjna Użytkownika Końcowego End-user licence agreement

Umowa Licencyjna Użytkownika Końcowego End-user licence agreement Umowa Licencyjna Użytkownika Końcowego End-user licence agreement Umowa Licencyjna Użytkownika Końcowego Wersja z dnia 2 września 2014 Definicje GRA - Przeglądarkowa gra HTML5 o nazwie Sumerian City, dostępna

Bardziej szczegółowo

How much does SMARTech system cost?

How much does SMARTech system cost? 1. How much does an intelligent home system cost? With over six years of experience in construction of Intelligent Home Systems we have done a value analysis of systems and services usually purchased by

Bardziej szczegółowo

SUPPLEMENTARY INFORMATION FOR THE LEASE LIMIT APPLICATION

SUPPLEMENTARY INFORMATION FOR THE LEASE LIMIT APPLICATION SUPPLEMENTARY INFORMATION FOR THE LEASE LIMIT APPLICATION 1. Applicant s data Company s name (address, phone) NIP (VAT) and REGON numbers Contact person 2. PPROPERTIES HELD Address Type of property Property

Bardziej szczegółowo

Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism

Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism Projekt finansowany Fundusze Europejskie z budżetu państwa dla rozwoju oraz ze Polski środków Wschodniej Unii Europejskiej

Bardziej szczegółowo

Adam Kozierkiewicz JASPERS

Adam Kozierkiewicz JASPERS Adam Kozierkiewicz JASPERS Europa 2020 Flagship initiatives Priorities Targets Digital agenda for Europe Innovation Union Youth on the move Resource efficient Europe An industrial policy for the globalisation

Bardziej szczegółowo

Osoby 50+ na rynku pracy 2013-1-PL1-GRU06-38713

Osoby 50+ na rynku pracy 2013-1-PL1-GRU06-38713 Osoby 50+ na rynku pracy 2013-1-PL1-GRU06-38713 Piąte spotkanie grupy partnerskiej w Katowicach (Polska) 19-20 maj 2015 Program Uczenie się przez całe życie Grundtvig Tytył projektu: Osoby 50+ na rynku

Bardziej szczegółowo

Proposal of thesis topic for mgr in. (MSE) programme in Telecommunications and Computer Science

Proposal of thesis topic for mgr in. (MSE) programme in Telecommunications and Computer Science Proposal of thesis topic for mgr in (MSE) programme 1 Topic: Monte Carlo Method used for a prognosis of a selected technological process 2 Supervisor: Dr in Małgorzata Langer 3 Auxiliary supervisor: 4

Bardziej szczegółowo

Agile at Capgemini. Marek Majchrzak, Andrzej Bednarz Wrocław, 11.10.2011

Agile at Capgemini. Marek Majchrzak, Andrzej Bednarz Wrocław, 11.10.2011 Agile at Capgemini Marek Majchrzak, Andrzej Bednarz Wrocław, 11.10.2011 AGENDA Agile as a strategic direction Examples of Agile Projects Agile Community 2 A strong presence in more than 30 countries Group

Bardziej szczegółowo

1987-2012 DYSKRET POLSKA 1987-2014

1987-2012 DYSKRET POLSKA 1987-2014 25 LAT 27 LAT 1987-2012 DYSKRET POLSKA 1987-2014 nasi klienci dobrze trafili... get your swing on with us... www.dyskret.com.pl 30-023 Kraków, ul. Mazowiecka 131 tel. +48 12 423 31 00, office@dyskret.com.pl

Bardziej szczegółowo

Call 2013 national eligibility criteria and funding rates

Call 2013 national eligibility criteria and funding rates Call 2013 national eligibility criteria and funding rates POLAND a) National eligibility criteria Funding Organisation National Contact Point National Center for Research and Development (Narodowe Centrum

Bardziej szczegółowo

Węzły y gordyjskie Europy Forum Myśli Strategicznej Warszawa, 16 marca 2009 Dr hab. Krzysztof Rybiński Partner, Ernst & Young Adiunkt, Szkoła a Głowna G Handlowa Email: rybinski@rybinski.eu Blog: www.rybinski.eu

Bardziej szczegółowo

PROVEN BY TIME. www.wasko.pl

PROVEN BY TIME. www.wasko.pl PROVEN BY TIME www.wasko.pl Biometria jako metoda uwierzytelniania Dominik Pudykiewicz Departament Systemów Bezpieczeństwa WASKO S.A. Biometria jako metoda uwierzytelniania Agenda Uwierzytelnianie jako

Bardziej szczegółowo

Cracow University of Economics Poland

Cracow University of Economics Poland Cracow University of Economics Poland Sources of Real GDP per Capita Growth: Polish Regional-Macroeconomic Dimensions 2000-2005 - Keynote Speech - Presented by: Dr. David Clowes The Growth Research Unit,

Bardziej szczegółowo

DODATKOWE ĆWICZENIA EGZAMINACYJNE

DODATKOWE ĆWICZENIA EGZAMINACYJNE I.1. X Have a nice day! Y a) Good idea b) See you soon c) The same to you I.2. X: This is my new computer. Y: Wow! Can I have a look at the Internet? X: a) Thank you b) Go ahead c) Let me try I.3. X: What

Bardziej szczegółowo

JĘZYK ANGIELSKI POZIOM PODSTAWOWY

JĘZYK ANGIELSKI POZIOM PODSTAWOWY EGZAMIN MATURALNY W ROKU SZKOLNYM 2013/2014 JĘZYK ANGIELSKI POZIOM PODSTAWOWY ROZWIĄZANIA ZADAŃ I SCHEMAT PUNKTOWANIA MAJ 2014 ZADANIA ZAMKNIĘTE Zadanie 1. Obszar standardów Rozumienie ze słuchu 1.1. 1.2.

Bardziej szczegółowo

Formularz dla osób planujących ubiegać się o przyjęcie na studia undergraduate (I stopnia) w USA na rok akademicki

Formularz dla osób planujących ubiegać się o przyjęcie na studia undergraduate (I stopnia) w USA na rok akademicki Formularz dla osób planujących ubiegać się o przyjęcie na studia undergraduate (I stopnia) w USA na rok akademicki 2017-2018 Zanim zaczniesz wypełniać formularz, zapoznaj się z Instrukcjami! Imię i nazwisko:

Bardziej szczegółowo

Test sprawdzający znajomość języka angielskiego

Test sprawdzający znajomość języka angielskiego Test sprawdzający znajomość języka angielskiego Imię i Nazwisko Kandydata/Kandydatki Proszę wstawić X w pole zgodnie z prawdą: Brak znajomości języka angielskiego Znam j. angielski (Proszę wypełnić poniższy

Bardziej szczegółowo

18. Przydatne zwroty podczas egzaminu ustnego. 19. Mo liwe pytania egzaminatora i przyk³adowe odpowiedzi egzaminowanego

18. Przydatne zwroty podczas egzaminu ustnego. 19. Mo liwe pytania egzaminatora i przyk³adowe odpowiedzi egzaminowanego 18. Przydatne zwroty podczas egzaminu ustnego I m sorry, could you repeat that, please? - Przepraszam, czy mo na prosiæ o powtórzenie? I m sorry, I don t understand. - Przepraszam, nie rozumiem. Did you

Bardziej szczegółowo

Extraclass. Football Men. Season 2009/10 - Autumn round

Extraclass. Football Men. Season 2009/10 - Autumn round Extraclass Football Men Season 2009/10 - Autumn round Invitation Dear All, On the date of 29th July starts the new season of Polish Extraclass. There will be live coverage form all the matches on Canal+

Bardziej szczegółowo

PORTS AS LOGISTICS CENTERS FOR CONSTRUCTION AND OPERATION OF THE OFFSHORE WIND FARMS - CASE OF SASSNITZ

PORTS AS LOGISTICS CENTERS FOR CONSTRUCTION AND OPERATION OF THE OFFSHORE WIND FARMS - CASE OF SASSNITZ Part-financed by EU South Baltic Programme w w w. p t m e w. p l PROSPECTS OF THE OFFSHORE WIND ENERGY DEVELOPMENT IN POLAND - OFFSHORE WIND INDUSTRY IN THE COASTAL CITIES AND PORT AREAS PORTS AS LOGISTICS

Bardziej szczegółowo

Ocena funkcjonowania programu Indywidualnych Kont Emerytalnych implikacje dla doskonalenia systemu zabezpieczenia emerytalnego

Ocena funkcjonowania programu Indywidualnych Kont Emerytalnych implikacje dla doskonalenia systemu zabezpieczenia emerytalnego Zarządzanie Publiczne, 4(16)/2011, s. 95 118 Kraków 2012 Published online June 29, 2012 Ocena funkcjonowania programu Indywidualnych Kont Emerytalnych implikacje dla doskonalenia systemu zabezpieczenia

Bardziej szczegółowo

Awareness campaign Safe rail-road level crossing "Stop and Live!"

Awareness campaign Safe rail-road level crossing Stop and Live! Awareness campaign Safe rail-road level crossing "Stop and Live!" www.plk-sa.pl Geneva, 12-13 May 2014 The key objective of the campaign is: What are our objectives? - to promote the correct patterns of

Bardziej szczegółowo

Najbardziej pożądani pracodawcy 2014 w opinii specjalistów i menedżerów / Badanie Antal International

Najbardziej pożądani pracodawcy 2014 w opinii specjalistów i menedżerów / Badanie Antal International Edycja 5. kwiecień 2015 5 th Edition APRIL 2015 Najbardziej pożądani pracodawcy 2014 w opinii specjalistów i menedżerów / Badanie Antal International The Most Desired Employers 2014 in the Opinion of Professionals

Bardziej szczegółowo

Customer engagement, czyli klient, który wraca

Customer engagement, czyli klient, który wraca Customer engagement, czyli klient, który wraca Impact Economics Relations Transformation Warszawa, 4 listopada 2015 Kolejność ma znaczenie Put your staff first, customers second, and shareholders third

Bardziej szczegółowo

III EUROPEAN ECOTOURISM CONFERENCE 26 29.04.2015 POLAND European Ecotourism: facing global challenges

III EUROPEAN ECOTOURISM CONFERENCE 26 29.04.2015 POLAND European Ecotourism: facing global challenges www.european-ecotourism.pl registration: office@european-ecotourism.pl enquires: biuro@sie.org.pl tel. +48 725 994 964 Social Ecological Institute is pleased to invite to III EUROPEAN ECOTOURISM CONFERENCE

Bardziej szczegółowo

EGZAMIN MATURALNY 2012 JĘZYK ANGIELSKI

EGZAMIN MATURALNY 2012 JĘZYK ANGIELSKI Centralna Komisja Egzaminacyjna EGZAMIN MATURALNY 2012 JĘZYK ANGIELSKI POZIOM PODSTAWOWY Kryteria oceniania odpowiedzi SIERPIEŃ 2012 ZADANIA ZAMKNIĘTE Zadanie 1. Egzamin maturalny z języka angielskiego

Bardziej szczegółowo

Fig 5 Spectrograms of the original signal (top) extracted shaft-related GAD components (middle) and

Fig 5 Spectrograms of the original signal (top) extracted shaft-related GAD components (middle) and Fig 4 Measured vibration signal (top). Blue original signal. Red component related to periodic excitation of resonances and noise. Green component related. Rotational speed profile used for experiment

Bardziej szczegółowo

Clinical Trials. Anna Dziąg, MD, ąg,, Associate Director Site Start Up Quintiles

Clinical Trials. Anna Dziąg, MD, ąg,, Associate Director Site Start Up Quintiles Polandchallenges in Clinical Trials Anna Dziąg, MD, ąg,, Associate Director Site Start Up Quintiles Poland- legislation 1996-2003 Ustawa z dnia 5 grudnia 1996 r o zawodach lekarza i lekarza dentysty, z

Bardziej szczegółowo

Materiały dydaktyczne: Maciej Krzymowski. Biometryka

Materiały dydaktyczne: Maciej Krzymowski. Biometryka Biometryka Biometryka Nauka o mierzalnych cechach fizycznych lub behawioralnych organizmów Ŝywych, z greckiego: "bios" = Ŝywy "metron" = mierzyć. Biometria Zespół metod słuŝących do sprawdzania toŝsamości

Bardziej szczegółowo

Wiejskie organizacje pozarządowe

Wiejskie organizacje pozarządowe Wiejskie organizacje pozarządowe Rural Non-Governmental Organisations Editor Maria Halamska Institute of Rural and Agricultural Development Polish Academy of Sciences Warsaw 2008 Wiejskie organizacje pozarządowe

Bardziej szczegółowo

KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy KATOWICE SPECIAL ECONOMIC ZONE - GLIWICE SUBZONE

KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy KATOWICE SPECIAL ECONOMIC ZONE - GLIWICE SUBZONE KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy Definition: WHAT DOES THE SPECIAL ECONOMIC ZONE MEAN? THE SPECIAL ECONOMIC ZONE IS THE SEPERATED AREA WITH ATTRACTIVE TAX

Bardziej szczegółowo

A good donor has as high requirements as a good customer! Solutions for Fundraising. in cooperation with Ebit GmbH

A good donor has as high requirements as a good customer! Solutions for Fundraising. in cooperation with Ebit GmbH A good donor has as high requirements as a good customer! Solutions for Fundraising in cooperation with Ebit GmbH Profit for commercial companies means optimization of donor relationship for you. The connection

Bardziej szczegółowo

Domy inaczej pomyślane A different type of housing CEZARY SANKOWSKI

Domy inaczej pomyślane A different type of housing CEZARY SANKOWSKI Domy inaczej pomyślane A different type of housing CEZARY SANKOWSKI O tym, dlaczego warto budować pasywnie, komu budownictwo pasywne się opłaca, a kto się go boi, z architektem, Cezarym Sankowskim, rozmawia

Bardziej szczegółowo

Cel szkolenia. Konspekt

Cel szkolenia. Konspekt Cel szkolenia About this CourseThis 5-day course provides administrators with the knowledge and skills needed to deploy and ma Windows 10 desktops, devices, and applications in an enterprise environment.

Bardziej szczegółowo

SME Instrument & Fast Track to Innovation Programy wspierania innowacji dla MŚP sektora transportowego

SME Instrument & Fast Track to Innovation Programy wspierania innowacji dla MŚP sektora transportowego Warszawa, 17 grudnia 2014 SME Instrument & Fast Track to Innovation Programy wspierania innowacji dla MŚP sektora transportowego Prelegent: Aneta Maszewska W niniejszej prezentacji wykorzystano materiały

Bardziej szczegółowo

Zestawienie czasów angielskich

Zestawienie czasów angielskich Zestawienie czasów angielskich Present Continuous I am, You are, She/ He/ It is, We/ You/ They are podmiot + operator + (czasownik główny + ing) + reszta I' m driving. operator + podmiot + (czasownik główny

Bardziej szczegółowo

Implementation of the JEREMIE initiative in Poland. Prague, 8 November 2011

Implementation of the JEREMIE initiative in Poland. Prague, 8 November 2011 Implementation of the JEREMIE initiative in Poland Prague, 8 November 2011 Poland - main beneficiary of EU structural funds - 20% of allocation within cohesion policy (EUR 67 bln) Over EUR 10 bln of NSRF

Bardziej szczegółowo

Perspektywy PDF. ==>Download: Perspektywy PDF ebook By 0

Perspektywy PDF. ==>Download: Perspektywy PDF ebook By 0 Perspektywy PDF ==>Download: Perspektywy PDF ebook By 0 Perspektywy PDF By 0 - Are you searching for Perspektywy pdf Books? Now, you will be happy that Perspektywy PDF is available at our online library

Bardziej szczegółowo

Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27

Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27 Technologia biometryczna w procesach obsługi pacjentów i obiegu dokumentacji medycznej Konferencja ekspercka dotycząca e- Zdrowia Warszawa, 27 listopada 2011 Agenda Demonstracja działania systemu Technologia

Bardziej szczegółowo

WYDZIAŁ NAUK EKONOMICZNYCH

WYDZIAŁ NAUK EKONOMICZNYCH Studia I stopnia stacjonarne i niestacjonarne Kierunek Międzynarodowe Stosunki Gospodarcze Specjalność PROGRAM OF BACHELOR STUDIES Graduate profile Graduate has a general theoretical knowledge in the field

Bardziej szczegółowo

EGARA 2011. Adam Małyszko FORS. POLAND - KRAKÓW 2-3 12 2011r

EGARA 2011. Adam Małyszko FORS. POLAND - KRAKÓW 2-3 12 2011r EGARA 2011 Adam Małyszko FORS POLAND - KRAKÓW 2-3 12 2011r HISTORIA ELV / HISTORY ELV 1992r. 5 Program działań na rzecz ochrony środowiska / EAP (Environmental Action Plan) 1994r. Strategia dobrowolnego

Bardziej szczegółowo

Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading)

Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading) Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading) ROGER sp.j. Gościszewo 59 82-416 Gościszewo Poland tel. 055 2720132 fax 055 2720133 www.roger.pl

Bardziej szczegółowo

Angielski bezpłatne ćwiczenia - gramatyka i słownictwo. Ćwiczenie 4

Angielski bezpłatne ćwiczenia - gramatyka i słownictwo. Ćwiczenie 4 Angielski bezpłatne ćwiczenia - gramatyka i słownictwo. Ćwiczenie 4 Przetłumacz na język angielski.klucz znajdziesz w drugiej części ćwiczenia. 1. to be angry with somebody gniewać się na kogoś Czy gniewasz

Bardziej szczegółowo

Język angielski. Poziom rozszerzony Próbna Matura z OPERONEM i Gazetą Wyborczą CZĘŚĆ I KRYTERIA OCENIANIA ODPOWIEDZI POZIOM ROZSZERZONY CZĘŚĆ I

Język angielski. Poziom rozszerzony Próbna Matura z OPERONEM i Gazetą Wyborczą CZĘŚĆ I KRYTERIA OCENIANIA ODPOWIEDZI POZIOM ROZSZERZONY CZĘŚĆ I Poziom rozszerzony Język angielski Język angielski. Poziom rozszerzony KRYTERIA OCENIANIA ODPOWIEDZI POZIOM ROZSZERZONY CZĘŚĆ I W schemacie oceniania zadań otwartych są prezentowane przykładowe odpowiedzi.

Bardziej szczegółowo

OSTC GLOBAL TRADING CHALLENGE MANUAL

OSTC GLOBAL TRADING CHALLENGE MANUAL OSTC GLOBAL TRADING CHALLENGE MANUAL Wrzesień 2014 www.ostc.com/game Po zarejestrowaniu się w grze OSTC Global Trading Challenge, zaakceptowaniu oraz uzyskaniu dostępu to produktów, użytkownik gry będzie

Bardziej szczegółowo

BALANCE SHEET/Bilans. Total Assets/Suma aktywów 6.476.595

BALANCE SHEET/Bilans. Total Assets/Suma aktywów 6.476.595 Ę ł ś ń ł ł ł ł ł ń ń Ę ń ł ś BALANCE SHEET/Bilans Note 31/12/10 ASSETS/Aktywa Non-current assets/aktywa trwałe Tangible Assets/Rzeczowe aktywa trwałe 6.1 2.978.726 Intangible Assets/Wartości niematerialne

Bardziej szczegółowo

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian 1 / 12 Content list / Spis Treści 1. Hardware and software requirements, preparing device to upgrade Wymagania sprzętowe i programowe, przygotowanie urządzenia do aktualizacji 2. Installing drivers needed

Bardziej szczegółowo

UMOWY WYPOŻYCZENIA KOMENTARZ

UMOWY WYPOŻYCZENIA KOMENTARZ UMOWY WYPOŻYCZENIA KOMENTARZ Zaproponowany dla krajów Unii Europejskiej oraz dla wszystkich zainteresowanych stron wzór Umowy wypożyczenia między muzeami i instytucjami kultury opracowany został przez

Bardziej szczegółowo

A n g i e l s k i. Phrasal Verbs in Situations. Podręcznik z ćwiczeniami. Dorota Guzik Joanna Bruska FRAGMENT

A n g i e l s k i. Phrasal Verbs in Situations. Podręcznik z ćwiczeniami. Dorota Guzik Joanna Bruska FRAGMENT A n g i e l s k i Phrasal Verbs in Situations Podręcznik z ćwiczeniami FRAGMENT Dorota Guzik Joanna Bruska Autorzy: Dorota Guzik, Joanna Bruska Konsultacja językowa: Tadeusz Z. Wolański Lektorzy: Maybe

Bardziej szczegółowo

Patient Protection in Clinical Trials

Patient Protection in Clinical Trials Patient Protection in Clinical Trials Marek Czarkowski Bioethic Committee Warsaw Chamber of Physicians Factors affecting security and rights of research participants International regulations Domestic

Bardziej szczegółowo

PROBLEMATYKA DECYZJI I KOMPETENCJI FINANSOWYCH OSÓB STARSZYCH W UJĘCIU EKONOMICZNYM

PROBLEMATYKA DECYZJI I KOMPETENCJI FINANSOWYCH OSÓB STARSZYCH W UJĘCIU EKONOMICZNYM PROBLEMATYKA DECYZJI I KOMPETENCJI FINANSOWYCH OSÓB STARSZYCH W UJĘCIU EKONOMICZNYM dr Sylwia Pieńkowska-Kamieniecka Uniwersytet Warmińsko-Mazurski w Olsztynie dr Joanna Rutecka Szkoła Główna Handlowa

Bardziej szczegółowo

Estimation and planing. Marek Majchrzak, Andrzej Bednarz Wroclaw, 06.07.2011

Estimation and planing. Marek Majchrzak, Andrzej Bednarz Wroclaw, 06.07.2011 Estimation and planing Marek Majchrzak, Andrzej Bednarz Wroclaw, 06.07.2011 Story points Story points C D B A E Story points C D 100 B A E Story points C D 2 x 100 100 B A E Story points C D 2 x 100 100

Bardziej szczegółowo

P R A C A D Y P L O M O W A

P R A C A D Y P L O M O W A POLITECHNIKA POZNAŃSKA Wydział Maszyn Roboczych i Transportu P R A C A D Y P L O M O W A Autor: inż. METODA Ε-CONSTRAINTS I PRZEGLĄDU FRONTU PARETO W ZASTOSOWANIU DO ROZWIĄZYWANIA PROBLEMU OPTYMALIZACJI

Bardziej szczegółowo

PRACA DYPLOMOWA Magisterska

PRACA DYPLOMOWA Magisterska POLITECHNIKA WARSZAWSKA Wydział Samochodów i Maszyn Roboczych PRACA DYPLOMOWA Magisterska Studia stacjonarne dzienne Semiaktywne tłumienie drgań w wymuszonych kinematycznie układach drgających z uwzględnieniem

Bardziej szczegółowo

Employment. Number of employees employed on a contract of employment by gender in 2012. Company

Employment. Number of employees employed on a contract of employment by gender in 2012. Company Im not found /sites/eneacsr2012.mess-asp.com/themes/eneacsr2012/img/enea.jpg Employt Capital Group is one of the largest companies in the energy industry. Therefore it has an influence, as an employer,

Bardziej szczegółowo

Privacy policy. Polityka prywatności. www.wochen-office.com. office@wochen-offce.com 0048 667-352-102 0048 501-059-473

Privacy policy. Polityka prywatności. www.wochen-office.com. office@wochen-offce.com 0048 667-352-102 0048 501-059-473 Privacy policy Polityka office@wochen-offce.com 0048 667-352-102 0048 501-059-473 registration / correspondence address: 05-850 Ożarów Mazowiecki ul. Dmowskiego 70A/37 Polska / Poland The personal / business

Bardziej szczegółowo

ANALIZA EKONOMICZNA BUDOWY I EKSPLOATACJI SYSTEMÓW TELEFONII INTERNETOWEJ W PRZEDSIĘBIORSTWIE ROLNICZYM

ANALIZA EKONOMICZNA BUDOWY I EKSPLOATACJI SYSTEMÓW TELEFONII INTERNETOWEJ W PRZEDSIĘBIORSTWIE ROLNICZYM Inżynieria Rolnicza 7(105)/2008 ANALIZA EKONOMICZNA BUDOWY I EKSPLOATACJI SYSTEMÓW TELEFONII INTERNETOWEJ W PRZEDSIĘBIORSTWIE ROLNICZYM Gniewko Niedbała, Adam Krysztofiak Instytut Inżynierii Rolniczej,

Bardziej szczegółowo

ADVICERO TAX RETAIL MARKET IN POLAND

ADVICERO TAX RETAIL MARKET IN POLAND ADVICERO TAX RETAIL MARKET IN POLAND 2014 WWW.ADVICERO.EU RETAIL MARKET IN POLAND The Polish retail market enjoyed substantial development in recent years and is expected to continue growing in the near

Bardziej szczegółowo

Umowa o współpracy ponadnarodowej

Umowa o współpracy ponadnarodowej Wzór minimalnego zakresu umowy o współpracy ponadnarodowej w ramach PO KL Umowa o współpracy ponadnarodowej Nazwa Programu Operacyjnego w Polsce: : Numer i nazwa Priorytetu: Numer i nazwa Działania: Numer

Bardziej szczegółowo

Goodman Kraków Airport Logistics Centre. 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth+

Goodman Kraków Airport Logistics Centre. 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth+ Goodman Kraków Airport Logistics Centre 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth Goodman Kraków Airport Logistics Centre ul. Komandosów 1, 32-085 Modlniczka Goodman

Bardziej szczegółowo

Why choose No Hau Studio?

Why choose No Hau Studio? Why choose No Hau Studio? We ve been perfecting our skills for over 10 years. Branding and Communications are the core of our activities. B2B is our speciality. Customer s Satisfaction is our priority.

Bardziej szczegółowo

PROJECT. Syllabus for course Global Marketing. on the study program: Management

PROJECT. Syllabus for course Global Marketing. on the study program: Management Poznań, 2012, September 20th Doctor Anna Scheibe adiunct in the Department of Economic Sciences PROJECT Syllabus for course Global Marketing on the study program: Management I. General information 1. Name

Bardziej szczegółowo

Skonsolidowany oraz jednostkowy raport okresowy Consolidated and unitary quarterly report of AerFinance PLC

Skonsolidowany oraz jednostkowy raport okresowy Consolidated and unitary quarterly report of AerFinance PLC Skonsolidowany oraz jednostkowy raport okresowy Consolidated and unitary quarterly report of AerFinance PLC za okres 01.02.2013 do roku from 01.02.2013 to year Doncaster 17.06.2013 1. Wprowadzenie/ Introduction

Bardziej szczegółowo

Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH

Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH Kierunek Elektronika i Telekomunikacja, Studia II stopnia Specjalność: Systemy wbudowane Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH Zagadnienia

Bardziej szczegółowo

I INTERNATIONAL SCIENTIFIC CONFERENCE

I INTERNATIONAL SCIENTIFIC CONFERENCE I INTERNATIONAL SCIENTIFIC CONFERENCE EU SECURITY AND CRISIS MANAGEMENT FLOOD-2010 ATENEUM UNIVERSITY IN GDANSK P FUNDATION PRO POMERANIA NOTICE NO. 1 I International Scientific Conference EU SECURITY

Bardziej szczegółowo

Politechnika Krakowska im. Tadeusza Kościuszki. Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2014/2015

Politechnika Krakowska im. Tadeusza Kościuszki. Karta przedmiotu. obowiązuje studentów rozpoczynających studia w roku akademickim 2014/2015 Politechnika Krakowska im. Tadeusza Kościuszki Karta przedmiotu Wydział Inżynierii Środowiska obowiązuje studentów rozpoczynających studia w roku akademickim 014/015 Kierunek studiów: Inżynieria Środowiska

Bardziej szczegółowo

Warstwa ozonowa bezpieczeństwo ponad chmurami

Warstwa ozonowa bezpieczeństwo ponad chmurami Warstwa ozonowa bezpieczeństwo ponad chmurami Janusz Mierzejewski Presales consultant 27.09.2012 1 Agenda 2 : Szansa i wyzwanie Private Powinniśmy wykorzystać rozwiązania by reagować na potrzeby biznesu

Bardziej szczegółowo

POPRAWKA do POLSKIEJ NORMY PN-EN ISO 9001:2009/AC. Dotyczy PN-EN ISO 9001:2009 Systemy zarządzania jakością Wymagania. listopad 2009 ICS 03.120.

POPRAWKA do POLSKIEJ NORMY PN-EN ISO 9001:2009/AC. Dotyczy PN-EN ISO 9001:2009 Systemy zarządzania jakością Wymagania. listopad 2009 ICS 03.120. POPRAWKA do POLSKIEJ NORMY ICS 03.120.10 PN-EN ISO 9001:2009/AC listopad 2009 Wprowadza EN ISO 9001:2008/AC:2009, IDT ISO 9001:2008/AC1:2009, IDT Dotyczy PN-EN ISO 9001:2009 Systemy zarządzania jakością

Bardziej szczegółowo

Platforma Office 2010

Platforma Office 2010 Collaborate more Platforma Office 2010 Sebastian Wilczewski Konsultant Betacom S.A. 2 Platforma Office 2010 jako narzędzie do efektywnego zarządzania procesami w organizacji. Jak skutecznie zarządzać informacją?

Bardziej szczegółowo

WYKORZYSTANIE TECHNIK KOMPUTEROWYCH W GOSPODARSTWACH RODZINNYCH

WYKORZYSTANIE TECHNIK KOMPUTEROWYCH W GOSPODARSTWACH RODZINNYCH Inżynieria Rolnicza 6(131)/2011 WYKORZYSTANIE TECHNIK KOMPUTEROWYCH W GOSPODARSTWACH RODZINNYCH Sławomir Kocira, Edmund Lorencowicz Katedra Eksploatacji Maszyn i Zarządzania w Inżynierii Rolniczej, Uniwersytet

Bardziej szczegółowo

Leading organiza5on represen5ng the Business Services Sector in Poland ABSL. June 2013

Leading organiza5on represen5ng the Business Services Sector in Poland ABSL. June 2013 Leading organiza5on represen5ng the Business Services Sector in Poland ABSL June 2013 KEY FACTS ON THE SECTOR KEY FACTS ON THE SECTOR 110 000 No. of employees in foreign capital BPO/ITO, SSC and R&D centres

Bardziej szczegółowo