STUDIA I MATERIAŁY POLSKIEGO STOWARZYSZENIA ZARZĄDZANIA WIEDZĄ Redaktor tomu dr inż. Waldemar Bojar Komitet Redakcyjny: Prof. dr hab. Janusz Kacprzyk Prof. dr hab. Inż. Ludosław Drelichowski Polskie Stowarzyszenie Zarządzania Wiedzą Bydgoszcz 2006
2 Recenzenci: Prof. dr hab. inż. Ludosław Drelichowski Prof. dr hab. Janusz Kacprzyk Opracowanie redakcyjne i korekta inż. Waldemar Kępa inż. Ewa Dziemianko ISSN 1732-324X Drukarnia yyyyyyyyyyyy Zam. Nr ccccccc
3 Spis treści RYSZARD BUDZIŃSKI, ANDRZEJ SZARANEK... 4 Zastosowanie reguł asocjacyjnych do eksploracji baz danych RYSZARD BUDZIŃSKI, AGATA WAWRZYNIAK... 11 Identyfikacja outsourcingu informatycznego w jednostkach samorządowych LILIANA BYCZKOWSKA, JANUSZ LIPIŃSKI, PIOTR MACHOWSKI... 20 Systemy zarządzania zasobami teleinformatycznymi WITOLD CHMIELARZ... 29 Techniki zarządzania wiedzą w koncepcji eksperckiego systemu informatycznego LUDOSŁAW DRELICHOWSKI, MACIEJ NOSAL... 39 Uwarunkowania tworzenia metadanych do wspomagania zarządzania wiedzą w uczelni ANNA KEMPA... 51 Metody i narzędzia wspomagające wyszukiwanie ekspertów i ekspertyz... JOLANTA KONDRATOWICZ-POZORSKA... 60 Powiązania gospodarczo-informacyjne pomiędzy rolnikami a organizacjami i podmiotami istotnymi dla gospodarki żywnościowej MAŁGORZATA NYCZ, BARBARA SMOK... 70 Rola i znaczenie wiedzy w społeczeństwie informacyjnym KAZIMIERZ PERECHUDA, ZBIGNIEW TELEC... 81 Identyfikacja łańcucha wartości Biur Informacji Gospodarczej (BIG) w Polsce ANDRZEJ PIEGAT, BARBARA WĄSIKOWSKA... 86 Zastosowanie metod sztucznej inteligencji do identyfikacji czynników ekonomicznych WITOLD RZEPIŃSKI... 94 Wiedza jako czynnik rozwoju polskiego agrobiznesu ANDRZEJ STRASZAK... 99 Systemowa fuzja i integracja e-danych, e-informacji i e-wiedzy JAN STUDZIŃSKI... 111 Problemy zarządzania informacją w Miejskim Przedsiębiorstwie Wodociągowym TATIANA TRETYAKOVA... 122 Zarządzanie wiedzą przez zastosowanie ontologii dziedzin... LEONID WOROBJOW... 131 Produktywność i efektywność przedsiębiorstwa KAROLINA WOŹNICKA... 137 Strategia przodownictwa kosztowego w walce z konkurencją GRAŻYNA WÓJCIK, ZDZISŁAW SZYJEWSKI... 147 Przekształcanie wiedzy ukrytej w wiedzę jawną ZYGMUNT ZYGMUNTOWICZ... 159 Tworzenie baz wiedzy dla wyceny dóbr nierynkowych w aspekcie określania wartości rynkowej nieruchomości
4 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych RYSZARD BUDZIŃSKI ANDRZEJ SZARANEK Uniwersytet Szczeciński Wydział Nauk Ekonomicznych i Zarządzania ZASTOSOWANIE REGUŁ ASOCJACYJNYCH DO EKSPLORACJI BAZ DANYCH Streszczenie W artykule omówiono teorię i zastosowanie praktyczne wybranych metod eksploracji reguł asocjacyjnych. Przedstawiono zarys rozwoju systemów wspomagających podejmowanie decyzji w przedsiębiorstwach, omówiono genezę i potrzeby wykorzystania reguł asocjacyjnych, oraz przedstawiono przykład ich działania. Słowa kluczowe: reguły asocjacyjne, eksploracja baz danych, KDD 1. Wprowadzenie Ogromny postęp technologiczny ostatnich lat oraz związane z nim rozpowszechnienie się systemów komputerowych w licznych przedsiębiorstwach zaowocowało nagromadzeniem się bardzo dużych zasobów danych jakie przechowywane są w bazach danych. Ilość informacji z czasem przerosła ludzkie możliwości analizy oraz utrudniła podejmowanie decyzji na ich podstawie. Sytuacja taka sprawiała, że w ciągu ostatnich lat systemy informatyczne ewoluowały zwiększając swoją funkcjonalność i niezawodność. Początkowo byliśmy świadkami powstawania systemów wspomagania decyzji (ang. Decision Support Systems), w których znaczącą rolę odgrywała wiedza częściowo pochodząca z baz danych, a częściowo od ekspertów w danej dziedzinie. Wyniki analiz dostarczane były w postaci raportów np.: w postaci wartości sprzedanych produktów w określonym kwartale. Kolejne systemy pozwalały użytkownikowi na zadawanie zapytań oraz na analizę zawartości baz danych np. przy pomocy technologii OLAP (ang. Online Analytical Processing). OLAP umożliwiała wielowymiarową prezentację agregowanych danych z pośród wybranych atrybutów pochodzących z jednej lub wielu relacji. Użytkownik miał możliwość przygotowania pewnej hipotezy, której poprawność następnie weryfikował stosując metodologię OLAP. Jakość tego typu systemów zależna była od wiedzy i kreatywności ekspertów, którzy definiowali hipotezy. Obecnie nową i ciągle rozwijającą się gałąź systemów informatycznych stanowią systemy automatycznie poszukujące wiedzy wśród zbiorów ogromnych ilości danych gromadzonych w bazach danych. Dziedzina informatyki badająca tego typu oprogramowanie znana jest pod nazwą odkrywania wiedzy w bazach danych (ang. Knowledge Discovery in Databases) w skrócie KDD. Z KDD ściśle związane są technologie eksploracji danych (ang. Data Mining). Odkrywanie wiedzy nie wymaga od użytkownika zakładania żadnych hipotez, gdyż są generowane automatycznie i weryfikowane przez system komputerowy. Zadaniem eksperta jest jedynie ocena wygenerowanej wiedzy, zazwyczaj w postaci reguł, sprowadzająca się do odrzucenia lub przyjęcia wyników na podstawie określonych wskaźników statystycznych.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 5 Eksploracja danych (ang. Data mining ) definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych zbiorach danych. Do metod eksploracji danych zalicza się : klasyfikację, odkrywanie sekwencji, klastrowanie, odkrywanie charakterystyk, wykrywanie zmian i odchyleń, odkrywanie podobieństw w przebiegach czasowych, odkrywanie asocjacji. 2. Zastosowanie reguł asocjacyjnych Eksploracja reguł asocjacyjnych stosowana jest do rozwiązywania problemów w licznych dziedzinach nauki, ekonomii, marketingu oraz wielu innych związanych z naszym codziennym życiem. Najbardziej znanym przykładem wykorzystania odkrywania reguł asocjacyjnych jest analiza koszykowa. Przykładowo można uzyskać regułę: gdy ludzie kupują świeże pieczywo, w 30% przypadków kupują również jogurt. Tego typu wiedza pomaga kierownikom sklepu podejmować słuszne decyzje dotyczące, np.: promocji i obniżek cen zwykle nie ma sensu dokonywać jednocześnie obniżki na pieczywo i jogurty. Lepiej obniżyć cenę jednego produktu, aby zwiększyć sprzedaż obu. reklam i akcji marketingowych w niektórych przypadkach pokazanie w reklamie dwóch produktów jednocześnie daje lepszy efekt niż prezentowanie ich oddzielnie. Można również obok produktu lub nawet na opakowaniu produktu umieścić reklamę produktu z nim powiązanego. Pełniejsze zaspokajanie potrzeb dodatkowo utrwala w kliencie pozytywne wrażenie. rozmieszczenia produktów na półkach sklepowych umieszczenie na jednej półce produktów o silnie skorelowanej sprzedaży zwiększy ich sprzedaż. W niektórych sytuacjach jednak bardziej skuteczne okazuje się duże oddalenie produktów, gdyż klient pokonując drogę między nimi musi minąć regały z innymi towarami. Wyszukiwanie reguł asocjacyjnych ma za zadanie zwiększyć wydajność systemów baz danych pod względem funkcjonalności umożliwiając zadawanie złożonych zapytań przykładowo w postaci: Znajdź wszystkie reguły, których konsekwencją jest sprzedaż produktu X. Znajomość reguł tego typu pozwoli podnieść sprzedaż produktu X. Znajdź wszystkie reguły, które powstały w wyniku sprzedaży produktu X. Odkryj te reguły, które powstały w konsekwencji sprzedaży produktu X. Powyższe reguły mają określić jaki wpływ na sprzedaż wskazanych produktów może mieć zaprzestanie sprzedaży produktu X. Znajdź wszystkie reguły, które powstały w wyniku sprzedaży X, a które spowodowały, że wzrosła sprzedaż Y. Tego typu zapytania mogą wskazać jakie produkty należy sprzedawać razem z X tak by wzrosła sprzedaż Y. Znajdź wszystkie reguły, które wiążą ze sobą produkty umieszczone na półce A oraz półce B w sklepie.
6 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych Obecnie towary kupowane w supermarketach posiadają kody kreskowe, które umożliwiają sprzedawcom detalicznym śledzenie sprzedaży produktów i jeżeli sklep posiada karty lojalnościowe możliwe jest analizowanie zakupów dokonywanych przez poszczególnych klientów. Statystyczny klient odwiedza ten sam sklep wiele razy w ciągu roku. Transakcja odnosi się do pojedynczej wizyty i jest powiązana z określoną datą i listą zakupów. Poprzez analizę koszykową sprzedawca może wyciągać informacje, które pozwolą usprawnić jego działalność. Przykładem może tutaj być sytuacja, w której klienci kupujący produkty dla niemowląt kupują też gotowe zupy w kartonach. Taka informacja może być wykorzystana np. w marketingu bezpośrednim (wysłanie ulotki z ofertą promocyjną gotowych zup w kartonach do osób, które kupowały produkty dla dzieci). 3. Teoria reguł asocjacyjnych Zbiory częste dają informację o tym, że pewne elementy występują razem w określonej części transakcji z bazy danych. Na bazie zbiorów częstych można zdefiniować reguły asocjacyjne 1. Pozwalają one przedstawić odkrywaną wiedzę w postaci implikacji. Przy założeniu, że zbiory częste A,B zawierają elementy transakcji z bazy D, A B =, A =, oraz B = reguła asocjacyjna ma postać A B. Zbiór A nazywany jest poprzednikiem reguły, a zbiór B następnikiem reguły. Taka reguła oznacza, że zbiór B ma tendencję do występowania razem w transakcji ze zbiorem A. Długość reguły jest sumaryczną liczbą elementów występujących w poprzedniku i następniku reguły, tzn. A B. Reguła o długości k będzie określana jako k-reguła. Dla reguł asocjacyjnych występują dwie podstawowe miary przydatności: wsparcie i zaufanie. Sposób ich obliczania wygląda następująco: wsparcie( A B) = wsparcie( A B) (1) zaufanie( A B) = wsparcie( A B) / wsparcie( A) (2) Wsparcie określa w jakiej części transakcji z bazy danych występuje dana zależność. Zaufanie określa z jakim prawdopodobieństwem występowanie w transakcji poprzednika implikuje wystąpienie następnika. Przykładowo reguła uzyskana z danych o sprzedaży w sklepie spożywczym: chleb maslo, dzem o wsparciu 5% i zaufaniu 80% oznacza, że 80% ludzi, którzy kupili chleb, kupiło również masło i dżem. Natomiast sytuacja taka zachodzi w 5% wszystkich transakcji w sklepie. Przykładowo jeżeli np. produkt {mleko} pojawia się w wielu transakcjach, gdzie występuje również {margaryna, mleko}, można stworzyć następującą regułę asocjacyjną: {chleb, margaryna} {mleko). Procent transakcji które składają się z {chleb, margaryna} i jednocześnie zawierają {mleko} będzie określany jako zaufanie. Wsparciem tej reguły jest liczba transakcji, które zawierają {chleb, margaryna} oraz {mleko}. Towary znajdujące się w koszyku klienta mogą być pogrupowane w różnej wielkości podzbiory, np. koszyk składający się z następujących towarów: {chleb, margaryna, mleko} może być ułożony w podzbiory jednoelementowe, tj. {chleb}, {margaryna}, {mleko}; podzbiory dwuelementowe {chleb, margaryna}, {chleb, mleko}, {margaryna, mleko} oraz podzbiór trójelementowy {chleb, margaryna, mleko}. Niektóre zestawy takie jak np. {chleb, margaryna} będą pojawiały się w wielu różnych koszykach. Wsparcie określane będzie tutaj jako liczba transakcji, w których 1 http://www.statconsulting.com.pl/assoc_rules_pl.html
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 7 pojawia się dany zestaw. Każda reguła asocjacyjna może mieć wiele pozycji w poprzednikach, oraz wiele pozycji po stronie następników. Reguła {mleko) - {chleb, margaryna} posiada poprzednik {mleko}, oraz następniki {chleb, margaryna}. Wsparcie takiej reguły jest takie samo jak wsparcie reguły {chleb, margaryna} {mleko}, lecz jej zaufanie może być inne. IDTransakcji Tabela 1. Przykładowe transakcje Zakupione_Towary 1 chleb, mleko, pasta do zębów 2 chleb, mleko, margaryna 3 baton, chleb, kawa, margaryna 4 mleko, mięso 5 herbata, ciastka, pizza 6 mleko, kurczak wędzony, ziemniaki 7 margaryna, mleko, ciastka, chleb, kakao 8 margaryna, herbata 9 kawa, margaryna, mleko, makaron, chleb 10 boczek, jaja W powyższej tabeli zestaw {chleb, margaryna} posiada wsparcie 4, dlatego, że występuje w czterech transakcjach (2, 3, 4, 9). Zestaw {mleko} posiada wsparcie 6. zaufanie dla reguły {chleb, margaryna} {mleko} wynosi 75%, ponieważ 3 z transakcji zawierających {chleb, margaryna} zawiera również {mleko}. Zaufanie dla reguły {mleko} - {chleb, margaryna} wynosi 50%, ponieważ mleko pojawia się w sześciu transakcjach i tylko trzy z nich zawiera {chleb, margaryna}. 4. Metody i algorytmy odkrywania reguł asocjacyjnych Problem odkrywania reguł asocjacyjnych sprowadza się do wygenerowania wszystkich tych reguł, które posiadają współczynniki wsparcia oraz pewności wyższe od zadanych przez użytkownika (minimalne wsparcie i minimalna pewność). Eksploracja reguł sprowadza się zatem do dwóch zasadniczych podproblemów: znalezienie wszystkich kombinacji atrybutów, które mają większe wsparcie od pewnego zadanego z góry progu zwanego minimalnym wsparciem (ang. minsupport). Te kombinacje nazywamy dużymi zbiorami elementów l zbiorami (ang. large itemsets). Wszystkie kombinacje nie spełniające powyższych kryteriów (poniżej zadanego progu) nazywane są małymi zbiorami elementów zbiorami (ang. small itemsets). dla danych dużych zbiorów l-zbiorów (zbiorów częstych) Y = i 1, i 2,..., i k gdzie k 2 generowane są wszystkie reguły, które wykorzystują elementy ze zbioru Y. Przesłanką dla wszystkich tych reguł powinien być podzbiór X ze zbioru Y, gdzie X posiada k-1 elementów a konkluzją jest podzbiór atrybutów Y-X. Do wygenerowania reguły
8 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych X i j conf X, gdzie X = i 1, i 2,..., i j-1, i j+1,...i k należy uwzględnić wsparcie zbioru Y i podzielić przez wsparcie zbioru X. Jeśli uzyskany stosunek jest większy od conf, wówczas reguła jest akceptowana ze współczynnikiem conf, w przeciwnym wypadku reguła jest odrzucana. Mając określone zbiory częste rozwiązanie drugiego podproblemu jest w większości przypadków zadaniem prostym. Należy zauważyć, że jeśli zbiór Y jest zbiorem częstym, wówczas każdy jego podzbiór jest również zbiorem częstym. Reguły wywiedzione ze zbioru Y spełniają wszystkie ograniczenia, gdyż zbiór Y jest sumą elementów będących konkluzjami bądź przesłankami każdej w ten sposób utworzonej reguły. Do odkrywania reguł asocjacyjnych stworzono algorytmy, z których dwa najczęściej stosowane zostaną omówione. Algorytm Apriori, oraz jego modyfikacja AprioriTid2, zostały zaproponowane jako rozwinięcie koncepcji wcześniejszych algorytmów AIS3 i SETM4. Na jego przykładzie zostanie zaprezentowana zasada działania większości algorytmów do odkrywania reguł asocjacyjnych. Algorytm Apriori wykonuje wielokrotny odczyt danych wejściowych. Podczas pierwszego czytania danych zliczane są wsparcia pojedynczych elementów, czyli zbiorów jednoelementowych. Pozwala to określić czy są częste, tzn. czy spełniają warunek minimalnego wsparcia. Przed każdym kolejnym odczytem danych wykorzystywane są zbiory częste z poprzedniego odczytu jako baza do generacji nowych zbiorów, które są potencjalnie częste. Są to tzw. zbiory kandydujące. W trakcie odczytu obliczane jest wsparcie tych zbiorów. Następnie zostają określone zbiory są rzeczywiście częste. Stają się one bazą dla kolejnej fazy odczytu. Ten proces powtarza się aż do chwili, gdy nie zostanie znaleziony żaden nowy zbiór częsty. Algorytmy Apriori i AprioriTid różnią się zasadniczo od wcześniejszych algorytmów AIS i SETM metodą generowania zbiorów potencjalnie częstych. W przypadku algorytmów AIS i SETM, zbiory kandydujące są tworzone na bieżąco podczas odczytu danych. W szczególności, po wczytaniu transakcji, znajdywane są zbiory częste z poprzedniego odczytu, które występują w tej transakcji. Nowe zbiory kandydujące wyznaczane są przez rozszerzanie znalezionych zbiorów o pozostałe elementy znajdujące się w transakcji. Jednak wadą tego rozwiązania jest niepotrzebne generowanie zbyt dużej liczby zbiorów, które okazują się nie być częste. Algorytmy Apriori i AprioriTid tworzą zbiory kandydujące wyłącznie w oparciu o zbiory częste znalezione podczas poprzedniego odczytu danych. W procesie generacji zbiorów kandydujących nie są uwzględniane transakcje z bazy danych. Jak wiadomo podzbiór zbioru częstego jest częsty. Z tego powodu k-zbiory kandydujące mogą zostać utworzone poprzez łączenie (k-1)-zbiorów. Dodatkowo można usuwać zbiory, których jakikolwiek podzbiór nie jest częsty. Takie podejście prowadzi do generowania znacznie mniejszej liczby zbiorów kandydujących. Algorytm AprioriTid ma dodatkową cechę polegającą na tym, że baza danych jest używana do liczenia wsparcia tylko podczas pierwszego odczytu. Do tworzenia nowych zbiorów i obliczania ich wsparcia używane są dodatkowe informacje opisujące zbiory wygenerowane w poprzedniej fazie. W kolejnych fazach algorytmu rozmiar tych informacji staje się znacznie mniejszy od bazy 2 http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps 3 Suh-Ying Wur, Yungho Leu - "An Effective Boolean Algorithm for Mining Association Rules in Large Databases" 6th International Conference on Database Systems for Advanced Applications str. 179 4 Ibidium
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 9 danych, oszczędzając czas potrzebny do odczytu danych. W dalszej części zostanie to wyjaśnione bardziej precyzyjnie. 5. Literatura 1. Rakesh Agrawal, Srikant Ramakrishnan, 1994. Fast Algorithms for Mining Association Rules. IBM Research Raport RJ9839, IBM Almaden Research Center 2. Heikki Mannila, Hannu Toivonen, 1997. Levelwise Search and Borders of Theoriesin Knowledge Discovery. Department of Computer Science, University of Helsinki, Finland. 3. Suh-Ying Wur, Yungho Leu. An Effective Boolean Algorithm for Mining Association Rules in Large Databases. 6 th International Conference on Database Systems for Advanced Applications. 4. http://www.kie.ae.poznan.pl/~marek/edu/zw/zasoby/8.pdf 5. http://www.ploug.org.pl/konf_99/pdf/7.pdf 6. http://www.ru.lv/~peter/zinatne/pub/dbis2004.pps 7. http://www.webmining.pl/webmining/techniki13.html
10 Ryszard Budziński, Andrzej Szaranek Zastosowanie reguł asocjacyjnych do eksploracji baz danych APPLICATION OF ASSOCIATION RULES FOR EXPLORATION OF THE DATA BASES Summary The article describes basic ideas of selected methods of association algorithms. There is a short description of development of Decision Support Systems its genesis and importance. There is also and practical usage of association rules. Keywords: Decision Support Systems, Association Rules, Data Base Exploration, KDD RYSZARD BUDZIŃSKI rbudzinski.ps.pl Uniwersytet Szczeciński Instytut Informatyki w Zarządzaniu ul. Mickiewicza 64 71-101 Szczecin ANDRZEJ SZARANEK andrzej_szary@o2.pl Uniwersytet Szczeciński Wydział Nauk Ekonomicznych i Zarządzania ul. Mickiewicza 64, Szczecin
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 11 RYSZARD BUDZIŃSKI AGATA WAWRZYNIAK Uniwersytet Szczeciński IDENTYFIKACJA OUTSOURCINGU INFORMATYCZNEGO W JEDNOSTKACH SAMORZĄDOWYCH Streszczenie W artykule zaprezentowany został problem identyfikacji outsourcingu informatycznego w jednostkach samorządu terytorialnego. Główny nacisk został położony na prezentację metod, które w badaniu będą zastosowane. Podjęto również próbę naszkicowania przyjętej procedury badawczej i scharakteryzowano jej etapy. Słowa kluczowe: outsourcing, usługi informatyczne, jednostki samorządowe, taksonomia rozmyta, teoria zbiorów przybliżonych 1. Wprowadzenie Profesjonalne usługi zewnętrzne, inaczej nazywane outsourcingiem 1, są nowoczesną strategią zarządzania, która polega na przekazywaniu zadań, funkcji, projektów i procesów, które nie są związane bezpośrednio z podstawową działalnością danego podmiotu, do realizacji firmie zewnętrznej. Podstawową korzyścią wynikającą z takiego rozwiązania jest redukcja kosztów, ponieważ outsourcing jest stosowany, gdy dostępne zasoby zewnętrzne są tańsze od własnych. Istotne są także inne czynniki, takie jak dążenie do realizacji usług na najwyższym poziomie, specjalizacja pracy, koncentracja na obszarach, w których osiągana jest przewaga konkurencyjna oraz dostęp do specjalistycznej wiedzy. Jak ważny jest problem outsourcingu może świadczyć fakt, że z konieczności istnienia tego typu usług zdawano sobie sprawę już w początkach XX wieku. Znany wszystkim potentat samochodowy, Henry Ford, już w latach dwudziestych minionego wieku powiedział: " Nastały ciężkie czasy. Ekonomia jest na takim poziomie, na jakim powinna być, a konkurencja otacza nas ze wszystkich stron świata. Zatem jeśli jest coś, czego nie potrafimy zrobić wydajniej, taniej i lepiej niż nasi konkurenci, nie ma sensu, żebyśmy to robili. Powinniśmy zatrudnić do wykonania tej pracy kogoś, kto zrobi to lepiej". Była to pierwsza definicja outsourcingu. Pół wieku później zasada ta stała się mottem ogólnoświatowego rynku 2. Obecnie w zasadzie jest normą, że np. małe przedsiębiorstwa nie prowadzą samodzielnie księgowości, ale korzystają z usług biur rachunkowych. Outsourcing jako szczególna forma współpracy znalazł swoje poczesne miejsce zwłaszcza na gruncie IT (technologii informatycznych), jako dziedziny ściśle podlegającej outsourcingowi. Koszty związane z informatyzacją są zwykle zbyt wysokie aby można było sobie pozwolić na własny dział informatyczny (a często nawet na zatrudnienie pojedynczego informatyka) czy też na korzystanie z najnowszego oprogramowania wspomagającego prowadzenie działalności. Rozwią- 1 Termin outsourcing pochodzi z jęz. angielskiego i jest skrótem trzech słów: outside-resource-using, co oznacza korzystanie z zewnętrznych źródeł. 2 Por. [1, str.40-44].
12 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych zaniem tego problemu jest sięgnięcie po oferty firm specjalizujących się w świadczeniu tego typu usług. Jednak trzeba się również liczyć z faktem, iż zastosowanie outsourcingu nie koniecznie musi oznaczać sukces. Wiele przedsiębiorstw chcących rozwiązywać swoje problemy w ten sposób nie osiąga spodziewanych rezultatów. Powodem tego może być brak wytyczonego kierunku i precyzji w określaniu realnych celów, a także dążenie do nieracjonalnych oszczędności poprzez wybór usługodawców proponujących najniższe ceny, ale nie najwyższą jakość. Nasuwają się zatem podstawowe pytania: Jak korzystać z outsourcingu, aby zagwarantować sobie sukces? Czy to się rzeczywiście opłaca jak mierzyć efektywność tego typu przedsięwzięć? Czy jest to rozwiązanie dla każdego przedsiębiorstwa, niezależnie od jego wielkości i branży, w której działa? Istnienie tych problemów skłoniło autorów niniejszego artykułu do zajęcia się tematem outsourcingu informatycznego w odniesieniu do specyficznego rodzaju organizacji, jakim są jednostki samorządu terytorialnego. Wynika to z faktu istnienia luki badawczej jak dotąd wszelkie opracowania dotyczące outsourcingu IT dotyczyły jedynie przedsiębiorstw. Podstawowymi przesłankami podjęcia badań były: zmiana w podejściu do prowadzenia działalności przez organizacje samorządowe nie wszystko trzeba realizować samodzielnie, można korzystać z usług specjalistów jest to efektywniejsze; skala, powszechność i powtarzalność korzystania z usług outsourcingowych; brak opracowanego wzorca obsługi informatycznej dla tego rodzaju organizacji; brak sprecyzowanych kryteriów oceny czy dla konkretnej organizacji korzystanie z outsourcingu jest opłacalne. Celem artykułu jest zaprezentowanie procedury badawczej jaką zaplanowano zastosować w ramach badań dotyczących identyfikacji outsourcingu informatycznego w jednostkach samorządowych (Rys.1).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 13 Czy istnieją prawidłowości i podobieństwa w stosowaniu outsourcingu przez organizacje samorządowe? Postawienie problemu B A D A N I A Opracowanie procedury badawczej Analiza rynku usług informatycznych w obsłudze jednostek samorządowych Badanie ankietowe i analiza statystyczna uzyskanych danych Klasyfikacja rozmyta organizacji samorządowych w woj. zachodniopomorskim ze względu na poziom korzystania z outsourcingu Taksonomia rozmyta Określenie kierunków rozwoju tego typu usług w regionie Wypracowania wzorca obsługi informatycznej dla tego rodzaju organizacji Teoria zbiorów przybliżonych Rysunek 1. Proponowana procedura badawcza Źródło: opracowanie własne. 2. Charakterystyka etapów w proponowanej procedurze badawczej Aby zrealizować cel podjętych badań, tzn. zidentyfikować outsourcing IT w jednostkach samorządu terytorialnego, przyjęto następującą procedurę badawczą: - I etap - analiza rynku usług informatycznych w obsłudze jednostek samorządowych, - II etap - klasyfikacja organizacji samorządowych objętych badaniem ze względu na poziom korzystania z outsourcingu, - III etap - wypracowanie wzorca obsługi informatycznej dla tego rodzaju organizacji. W związku z tym w badaniach zastosowano trzy podstawowe metody: 1. badanie ankietowe, 2. taksonomia rozmyta, 3. teoria zbiorów przybliżonych. 2.1. Badanie ankietowe i analiza statystyczna rynku usług informatycznych w obsłudze jednostek samorządowych Na potrzeby analizy rynku usług informatycznych opracowano kwestionariusz ankietowy koncentrujący się na:
14 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych 1. stopniu informatyzacji urzędu oraz liczbie zatrudnionych specjalistów z zakresu informatyki,szczegółowych danych dotyczących korzystania przez urząd z usług podmiotów zewnętrznych, 3. określeniu czynników decydujących o wyborze dostawców,ocenie jakości realizowanych przez nich usług.po zgromadzeniu danych z kwestionariuszy ankietowych dokonano weryfikacji formalnej i merytorycznej zebranego materiału oraz stworzono elektroniczną bazę danych. Dane z niej pochodzące stanowiły podstawę do wykonania obliczeń w oparciu o wybrane metody analizy ilościowej zjawisk i procesów rynkowych, takie jak: 1. analiza struktury zjawisk rynkowych; 2. analiza dynamiki; 3. analiza związków przyczynowo-skutkowych; 4. analiza rynku w przestrzeni3. Wyniki obliczeń statystycznych posłużyły następnie do sformułowania wniosków dotyczących stanu przebadanej zbiorowości. 2.2. Klasyfikacja badanych organizacji samorządowych za pomocą taksonomii rozmytej Klasyfikacja danych jest procesem, który przypisuje obiekty posiadające wspólne cechy do określonych klas. Jest ona jedną z podstawowych operacji wykonywanych na danych zgromadzonych w bazach danych. Bazy danych stanowią często ogromne kolekcje danych stąd też wynika duże znaczenie odpowiednich, wydajnych metod przeprowadzania klasyfikacji tych danych. Prawidłowo przeprowadzona klasyfikacja pomaga np. odkryć charakterystyki danych w sposób zrozumiały dla użytkownika, uogólniać dane lub też organizować dane zgodnie z zakładanymi strukturami zorientowanymi na wiedzę. Problem klasyfikacji można widzieć z perspektywy sposobu jej przeprowadzania. Według [6] i [7] systematykę klasyfikacji można przedstawić w postaci drzewa reprezentującego różne typy klasyfikacji (Rys. 2). W klasycznym ujęciu klasyfikacji (taksonomii klasycznej) następuje podział zbioru Ω, który zawiera obiekty O 1, O 2,..., O N, opisywane przez cechy diagnostyczne X 1, X 2,..., X K, na podzbiory A 1, A 2,..., A P, zwane grupami typologicznymi. Podział powinien być dokonany w taki sposób, aby otrzymane grupy w sumie tworzyły zbiór wyjściowy Ω oraz były parami rozłączne. Natomiast obiekty, które znajdują się w jednym podzbiorze były do siebie jak najbardziej podobne, a obiekty znajdujące się w różnych podzbiorach były do siebie jak najmniej podobne. Konsekwencją takiego działania mają być takie grupy typologiczne, w których odległości każdej pary obiektów, które należą do jednej grupy, były mniejsze od odległości każdej pary obiektów, należących do różnych podzbiorów. 4 Jednak w praktyce występują trudności związane z przyporządkowaniem obiektów do określonej grupy (np. ze względu na zbliżone przeciętne różnice między obiektami). W takiej sytuacji granice między wydzielonymi grupami mogą być nieostre rozmyte. 3 Por. [3] i [4]. 4 Por. [5, s. 70].
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 15 KLASYFIKACJE Nie wykluczająca się (nakładające się) (overlapping) Wykluczająca się (exclusive) ROZMYTA (fuzzy) Z NADZOREM (supervised) BEZ NADZORU (unsupervised) HIERARCHICZNA (hierarchical) Z PODZIAŁEM (partional) Rysunek 2. Systematyka klasyfikacji Źródło: opracowano na podstawie [6, s. 355]. Twórcą w latach sześćdziesiątych teorii zbiorów rozmytych oraz logiki rozmytej jest L. A. Zadech. 5 Podstawowym pojęciem tej teorii jest zbiór rozmyty, który można zdefiniować następująco: zbiór rozmyty A na uniwersum Ω jest to zbiór par uporządkowanych ((O i, f A (O i )), gdzie O i Ω. Odwzorowanie f A (O i ): Ω <0, 1> nazywa się funkcją przynależności elementu O i do zbioru rozmytego A. Zbiór rozmyty można wiec zapisać następująco: A = U (O f (O )) (1) O i Ω i Dla każdego elementu należącego do uniwersum określona jest funkcja, która przyjmuje wartości z przedziału <0, 1>. Funkcja ta określa w jakim stopniu element należy do zbioru rozmytego. Zbiór rozmyty jest uogólnieniem zbioru w zwykłym sensie. Zagadnienie klasyfikacji rozmytej można przedstawić następująco: niech zbiór Ω zawiera N obiektów O 1, O 2,..., O N. Każdy z tych obiektów jest opisywany przez wartości cech diagnostycznych X 1, X 2,..., X K, tak, że dane są obserwacje x ik (i = 1, 2,..., N, k = 1, 2,..., K). Należy określić na elementach zbioru Ω rodziny zbiorów rozmytych (klas, grup) A 1, A 2,..., A P gdzie liczba P jest dana, 1<P<N tak, aby były spełnione warunki: 0 fip 1 (i = 1, 2,..., N, p = 1, 2,..., P) (2) P f = 1 (i 1, 2,..., N) ip = p= 1 A i (3) 5 Z polskich prac na ten temat należy wymienić m.in. prace [8] i [9].
16 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych obiekty o dużych wartościach funkcji przynależności do tego samego zbioru rozmytego są bardzo podobne do siebie, natomiast obiekty odznaczające się dużymi stopniami przynależności do różnych klas są mało do siebie podobne. Klasyfikacja rozmyta jest uogólnieniem klasyfikacji zwykłej. Niesie ona ze sobą bogatsze informacje o konfiguracji zbioru obiektów niż klasyfikacja zwykła, dzięki temu należenie do klasy, jako zmienna zero-jedynkowa (1 - obiekt należy, 0- obiekt nie należy), zostaje zastąpione pojęciem przynależność do klasy, które formalnie jest przedstawione za pomocą zmiennej ciągłej przyjmującej wartości z przedziału <0, 1>. Klasyfikacja rozmyta pozwala na bardziej precyzyjny opis w przypadkach, gdy trudno jednoznacznie sklasyfikować obiekty. Ma to miejsce, gdy granice między klasami są nieostre lub klasy nie są dobrze separowalne. W ramach prowadzonych badań zostanie dokonana klasyfikacja rozmyta jednostek samorządowych w województwie zachodniopomorskim ze względu na poziom korzystania z zewnętrznych usług informatycznych. Pozwoli to na określenie kierunków rozwoju tego typu usług w danym regionie oraz będzie stanowić podstawę do wypracowania wzorca obsługi informatycznej dla tych klas organizacji. 2.3. Wnioskowanie ze zbiorów przybliżonych Teoria zbiorów przybliżonych eliminuje ograniczenia związane z określeniem zbioru kantorowskiego. Klasyczna, (kantorowska) teoria zbiorów zakłada, że dowolny element należy lub nie należy do danego zbioru. W teorii zbiorów przybliżonych jest to możliwe poprzez odrzucenie wymogu istnienia ściśle określonych granic zbioru. Często celem systemu decyzyjnego opartego na zbiorach przybliżonych jest poszukiwanie ukrytych, a więc niejawnych reguł, które legły u podstaw wyboru dokonywanego przez eksperta (lub ekspertów). Takie procesy wydobywania wiedzy ze zbioru danych określane są anglojęzycznymi terminami, które nie mają jeszcze swoich polskich odpowiedników. Są to "knowledge discovery" i "data mining", co można przetłumaczyć jako "odkrywanie wiedzy" i "wydobywanie reguł". Autorem koncepcji zbiorów przybliżonych jest polski profesor Zdzisław Pawlak, który ogłosił podstawy tej teorii na początku lat osiemdziesiątych ubiegłego wieku. Teoria ta szeroko upowszechniła się w świecie naukowym i stanowi obecnie jedną z szybciej rozwijających się metod sztucznej inteligencji. Teoria zbiorów przybliżonych umożliwia rozwiązywanie rzeczywistych, trudnych problemów ekonomicznych poprzez znajdowanie powiązań istniejących między atrybutami decyzyjnymi, ułatwiając w ten sposób podjęcie decyzji. W ramach prowadzonych badań teoria zbiorów przybliżonych zostanie wykorzystana do stworzenia bazy reguł, która będzie stanowić podstawę do podjęcia decyzji o zastosowaniu określonego typu zewnętrznych usług informatycznych w danej organizacji samorządowej. Dane pozyskane w ramach badania ankietowego zostały w poprzednich etapach badania uporządkowane w postaci elektronicznej tabeli i stanowią pierwotną tabelę informacyjną, która następnie w wyniku przeprowadzonej dyskretyzacji zostanie przekształcona we wtórną tabelę informacyjną. To z kolei pozwoli wyznaczyć elementarne zbiory warunkowe i koncepty decyzyjne. Następnie podjęta zostanie próba redukcji zbędnych atrybutów warunkowych. Kolejnym etapem badania będzie budowa algorytmu decyzyjnego, który prawdopodobnie będzie musiał zostać uproszczony poprzez wyeliminowanie reguł podobnych. W efekcie zostanie otrzymany zbiór reguł tworzących wzorzec obsługi informatycznej dla jednostek samorządowych (por. Rys. 3).
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 17 Pierwotna tabela informacyjna Wtórna tabela informacyjna Redukcja ilości atrybutów Stworzenie bazy reguł decyzyjnych Ocena jakości i dokładności reguł decyzyjnych Wnioski: stworzenie wzorca obsługi informatycznej dla jednostek samorządowych Rysunek 3. Algorytm działań związanych z wnioskowaniem ze zbiorów przybliżonych Źródło: opracowanie własne. 3. Podsumowanie Przedstawiona procedura badawcza znalazła swoje zastosowanie w badaniach dotyczących identyfikacji outsourcingu informatycznego w jednostkach samorządowych województwa zachodniopomorskiego. Dotychczas zrealizowano I etap badań, tzn. dokonano analizy rynku tych usług. Badaniem objęte były wszystkie urzędy miejskie, miejsko-wiejskie i wiejskie województwa zachodniopomorskiego (n = 113) 6. Badanie ankietowe w formie wywiadu bezpośredniego zostało przeprowadzone w dniach 20.07.2005 15.09.2005. Na podstawie uzyskanych danych wykonano zaplanowane obliczenia statystyczne, które następnie pozwoliły sformułować wnioski o stanie badanej zbiorowości. Stwierdzono przykładowo, że: urzędy gminne w województwie zachodniopomorskim są dobrze wyposażone w komputery, jeżeli chodzi o stosunek liczby komputerów do liczby pracowników (wskaźnik ten wynosi 0,88); ogólnie większość urzędów zatrudnia specjalistów z zakresu informatyki (63,7% wszystkich gmin), jednak w przypadku urzędów w gminach wiejskich sytuacja jest odwrotna (50,9% gmin wiejskich); w większości urzędów nie ma komórek organizacyjnych odpowiedzialnych za informatyzację (90,3% urzędów); większość badanych urzędów korzysta z różnych form outsourcingu informatycznego (94% gmin); 6 Z badania wyłączono Urząd Miasta Szczecina ze względu na jego wielkość i przez to trudność w porównywaniu z innymi gminami w województwie.
18 Ryszard Budziński, Agata Wawrzyniak Identyfikacja outsourcingu informatycznego w jednostkach samorządowych nie można jednoznacznie stwierdzić, że zastosowanie outsourcingu ma wpływ na redukcję kosztów informatyki w urzędach gminnych (outsourcing nie zawsze jest stosowany w celu obniżenia kosztów); najczęstszymi korzyściami ze stosowania outsourcingu stwierdzonymi przez respondentów była wyższa jakość obsługi informatycznej (68,52% wskazań) oraz szybsze i bardziej elastyczne dostosowywanie się do wymagań użytkowników (66,67% wskazań); większość respondentów potwierdziła, że zastosowanie outsourcingu podniosło sprawność działania urzędów (w 83,3% urzędów to stwierdzono); 61,1% urzędów oceniło przebieg współpracy z firmami outsourcingowymi jako dobry. Zamiarem autorów jest kontynuacja badań związanych z identyfikacją outsourcingu informatycznego w jednostkach samorządowych woj. zachodniopomorskiego w oparciu o zaproponowane w artykule metody. 3. Literatura 1. Gay Ch. L., Essinger J., 2002. Outsourcing strategiczny. Oficyna Ekonomiczna Kraków. 2. Jain A.K., Dubes R.C., 1988. Algotithms for clustering data. Prentice-Hall, Inc., A Division of Simon & Schuster, Englewood Cliffs New Jersey 07632. 3. Jajuga K., 1984. O sposobach określania liczby klas w zagadnieniach klasyfikacji i klasyfikacji rozmytej. Prace Nauk. AE we Wrocławiu 262. 4. Nowak E., 1990. Metody taksonomiczne w klasyfikacji obiektów społecznogospodarczych. PWE Warszawa. 5. Nycz M., 2003. Klasyfikacja danych w procesie inteligentnego pozyskiwania wiedzy z baz danych, Pozyskiwanie wiedzy i zarządzanie wiedzą. Praca zbiorowa pod red. Nycz M. i Owoca M., Wyd. AE we Wrocławiu, Wrocław. 6. Piegat A., 1999. Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wyd. Exit Warszawa. 7. Praca zbiorowa pod red. Kędzior Z., 2005. Badania rynku metody i zastosowania, PWE Warszawa. 8. Praca zbiorowa pod red. Mruka. H., 2003. Analiza rynku. PWE Warszawa. 9. Trocki M., 2001. Outsourcing. PWE Warszawa.
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 19 IDENTIFICATION OF COMPUTING OUTSOURCING IN SELF-GOVERNMENT UNITS Summary The aim of this paper is the presentation of the problem of outsourcing IT in units of local self-government. The main stress is laid on the selection of methods, which will be used in the research (for example questionnaire research, fuzzy taxonomy, theory of rough sets). There is made an attempt to trace out a research procedure and its stages are described. Keywords: outsourcing, fuzzy taxonomy, theory of rough sets RYSZARD BUDZIŃSKI e-mail: rbudzinski@wi.ps.pl AGATA WAWRZYNIAK e-mail: agata.wawrzyniak@univ.szczecin.pl Uniwersytet Szczeciński Instytut Informatyki w Zarządzaniu ul. Mickiewicza 64 71-101 Szczecin
20 Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi LILIANA BYCZKOWSKA Instytut Informatyki Politechniki Łódzkiej JANUSZ LIPIŃSKI, PIOTR MACHOWSKI Wyższa Szkoła Informatyki SYSTEMY ZARZĄDZANIA ZASOBAMI TELEINFORMATYCZNYMI Streszczenie W pracy przedstawiono problemy instalacji i konfigurację systemu zarządzania pracą sieci telekomunikacyjnej. Omówiono architekturę i problemy współpracy systemu zarządzania TMN z siecią telekomunikacyjną. Podano zasady opracowywania bezpiecznego systemu zarządzania. Przedstawiono opis usługi zarządzania ruchem w sieci telekomunikacyjnej i teleinformatycznej Słowa kluczowe: zarządzanie, telekomunikacja 1. Wstęp Telekomunikacyjne usługi multimedialne i szerokopasmowe sieci dostępowe stanowią obecnie najbardziej popularne i wzajemnie się przenikające dziedziny współczesnej wymiany wiadomości i danych. W celu ułatwienia wprowadzania nowoczesnych technologii w sieci na szybko rozwijającym się rynku przesyłania wiadomości konieczne jest stosowanie rozwiązań: pozwalających na efektywne zarządzanie zasobami telefonicznymi, zapewniających szybkie i niezawodne usuwanie usterek sieci, zarządzających ekipami technicznymi w procesach nadzorowania i utrzymania sieci teleinformatycznych. [3] W pracy omówione zostanie pojęcie zarządzania zasobami sieci teletransmisyjnych oraz zastosowanie nowoczesnych rozwiązań wykorzystywanych w telekomunikacji. 2. Charakterystyka Systemu Zarządzania Siecią Telekomunikacyjną Podczas projektowania sieci szerokopasmowej bardzo ważnym czynnikiem jest dobór odpowiedniego systemu zarządzania. Dobry system zarządzania zapewnia dodatkowe możliwości i korzyści, które usprawniają pracę sieci. System zarządzania sieciami można zdefiniować jako obszar działań obejmujący: administrowanie (wspomaganie świadczenia usług telekomunikacyjnych), sterowanie (działania adaptacyjne w stosunku do zmian zachodzących w otoczeniu telekomunikacji), utrzymanie (technika zapewniająca sprawne funkcjonowanie sieci), zabezpieczanie (planowanie i przygotowanie do wdrożeń nowych usług w sieci). Pojęcie zarządzania siecią telekomunikacyjną TMN (ang. Telecommunications Management Network) wprowadzone zostało przez komitet konsultacyjny ds. międzynarodowej telefonii i telegrafii CCITT (ang. Consultative Commitee for International Telephony and Telegraphy) w dokumencie o numerze M.30 wydanym w 1988 roku. TMN nie jest rozwiązaniem technicznym, jest normą przeznaczoną dla producentów i operatorów sieci telekomunikacyjnych. Normę tę stworzono w taki sposób, by mogła zostać zastosowana we wszystkich rodzajach sieci.
1 2 3 4 5 6 7 8 9 * 8 # 1 2 3 4 5 6 7 8 9 * 8 # IBM IBM 1 2 3 4 5 6 7 8 9 * 8 # 1 2 3 4 5 6 7 8 9 * 8 # POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 21 Określa ona struktury funkcji protokołów i wiadomości, które mogą zostać zastosowane przez administratora w konkretnej istniejącej sieci. Celem wprowadzenia architektury TMN jest ujednolicenie najważniejszych problemów: sposobu reprezentacji informacji o zarządzanym elemencie w całym systemie, zbioru wspólnych komend służących do komunikacji pomiędzy elementem zarządzanym a systemem zarządzającym. Sieć TMN umożliwia zbieranie, przetwarzanie i przesyłanie danych dotyczących nadzoru sieci, kontroli jej działania i utrzymania. Może ona zarządzać: urządzeniami teletransmisyjnymi (multipleksery, translatory, łącza kablowe, łącza radiowe, łącza satelitarne, systemy SDH), centralami, koncentratorami, sieciami WAN, LAN, urządzeniami pomocniczymi (zasilanie i klimatyzacja, systemy alarmowe, testery). 3. Zasady współpracy sieci telekomunikacyjnej z systemem zarządzania TMN Podstawowym celem TMN jest stworzenie zorganizowanej struktury, która powinna umożliwić współpracę różnych systemów zarządzania OS (ang. Operating System) i urządzeń telekomunikacyjnych na podstawie standardowych protokołów i interfejsów. sieć telekomunikacyjna węzły komutacyjne systemy transmisyjne stacja robocza stacja robocza transmisja danych TMN system zarządzania system zarządzania Rysunek 1. Połączenie systemu TMN w sieci telekomunikacyjnej Włączony w strukturę sieci telekomunikacyjnej system zarządzania siecią TMN powinien zapewnić: wymianę informacji dotyczących zarządzania pomiędzy siecią telekomunikacyjną a systemem TMN, przesyłanie informacji zarządzania pomiędzy poszczególnymi modułami systemu TMN,
22 Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi transfer formatu ujednoliconej postaci informacji zarządzania przesyłanej wewnątrz systemu TMN, przetwarzanie informacji dotyczącej zarządzania (np: odpowiednie reakcje na otrzymaną informację, analiza otrzymanych danych), dostarczenie informacji zarządzania do jej użytkownika, konwersję informacji zarządzania do postaci użytecznej i zrozumiałej dla użytkownika, ochronę i bezpieczeństwo dostępu do informacji zarządzania. Wszystkie metody zabezpieczeń stosowane w sieci zarządzania telekomunikacją są określone w rekomendacjach i standardach. Zarządzanie zgodne z polityką bezpieczeństwa wykracza poza typowe ramy techniczne i staje się obszarem organizacji przedsiębiorstw. Zarządzania bezpieczeństwem w żaden sposób nie można zautomatyzować, co wynika z charakteru spotykanych w rzeczywistości zagrożeń. [1] 4. Architektura Systemu TMN Tworzenie bezpiecznego systemu TMN wymaga opracowania następujących etapów obejmujących: fazę początkową, fazę projektowania, przeglądu i zatwierdzenia, fazę operacyjną W fazie początkowej tworzy się specjalną grupę ekspertów sterujących procesem analizy, wprowadzenia, realizacji zabezpieczeń. Grupa taka stanowi przekrój stron biorących udział w zarządzaniu: użytkowników, przedstawicieli poszczególnych działów, ekonomistów, inżynierów tworzących system. W fazie projektowania, przeglądu i zatwierdzenia określona zostaje strategia zabezpieczeń, strategiczne zasoby, dokonuje się analizy ryzyka. Następnie wybiera się rozwiązania dogodne pod względem efektywnym i ekonomicznym. Faza operacyjna to szkielet funkcjonowania zabezpieczeń w systemie. W fazie tej są wyróżniane etapy: wykrycia zdarzenia, przetwarzania danych związanych z bezpieczeństwem, oceny zdarzenia. Rozwój ataków na sieci, starzenie się algorytmów kryptograficznych, wzrost mocy obliczeniowej maszyn oraz przepustowość sieci prowadzi do konieczności ciągłej kontroli i modyfikacji zabezpieczeń. Prawdopodobnym czynnikiem, który zdeterminuje wprowadzanie zabezpieczeń dla systemu TMN będzie dynamiczny rozwój rynku telekomunikacyjnego. W ciągu kilku lat można spodziewać się pojawienia platform z zaimplementowanymi silnymi mechanizmami kryptograficznymi. [3] Architektura TMN zawiera trzy grupy, które są rozpatrywane oddzielnie podczas projektowania i planowania. Grupy te obejmują: architekturę funkcjonalną opisującą podstawowe funkcje określane jako składniki funkcjonalne oznaczane symbolem FC (ang. Functional Component). Składniki te łączone są w bloki funkcjonalne oznaczane FB (ang. Function Block). Miejsca symbolizujące połączenie między blokami określane są punktami odniesienia (ang. reference point). Oznacza to funkcjonalność, która umożliwia objęcie zasięgiem zarządzania całą sieć i traktowanie jej jako jednego wirtualnego tworu. W większości przypadków takie
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 23 systemy udostępniają graficzną reprezentację sieci z widocznymi statusami urządzeń, połączeniami, alarmami i innymi funkcjami specyficznymi dla danej sieci. g TMN WSF f q OSF x q q NEF TF m Rysunek 2. Architektura funkcjonalna TMN OSF- blok funkcjonalny systemów zarządzania, NEF- blok funkcjonalny pośredniczenia, WSF- blok funkcjonalny stacji roboczej, TF- blok funkcjonalny transformacji architekturę fizyczną opisującą sposób implementacji funkcji TMN w części fizycznej. Poszczególne części dzielone są na bloki fizyczne oznaczane symbolem BB (ang. Building Block), które w zależności od pełnionych funkcji, zawierają wybrane bloki funkcjonalne. Bloki fizyczne dokonują wymiany danych pomiędzy sobą za pomocą standardowych interfejsów. Komunikacja między systemami, a zarządzanymi urządzeniami odbywa się przez porty szeregowe (połączenie lokalne) lub przez protokoły transmisji danych (połączenie zdalne). Realizują one podstawowe funkcje zarządzania elementami sieciowymi, takimi jak przełączniki, routery i przeważnie wykorzystują do tego standardowy protokół SNMP (ang. Simple Network Management Protocol).
24 Liliana Byczkowska, Janusz Lipiński, Piotr Machowski Systemy zarządzania zasobami teleinformatycznymi TMN OS OS X DCN F WS Q Q Q MD Q Q NE AD NE NE Rysunek 3. Architektura fizyczna OS- system zarządzania, AD- urządzenie adaptacyjne, MD- urządzenie pośredniczące, NE- element sieci, WS- stacja robocza, DCN- sieć transmisji danych architekturę informacyjną opisującą sposób modelowania wymiany informacji zarządzania, który jest realizowany jako zarządca agent. Wymiana informacji odbywa się przy pomocy protokołu CMIP (ang. Common Management Information Protocol). Jest to protokół zarządzania siecią oparty na modelu OSI, szczególnie przydatny do współpracy z publiczną, komutowaną siecią telefoniczną. Służy do formatowania wiadomości i transmitowania informacji między programami zbierającymi dane. Przez usługę należy rozumieć przykładowo wirtualną linie dzierżawioną o określonej relacji oraz parametrach transmisyjnych, takich jak przepływność, opóźnienie. System zarządzania usługami monitoruje na bieżąco zakontraktowane przez użytkowników usług parametry i tworzy raporty. Dla uproszczenia, systemy zarządzania elementami sieciowymi udostępniają graficzny interfejs z symulowanym obrazem urządzenia. Bardzo powszechne staje się zarządzanie przez interfejs WWW (ang. World Wide Web). W tym przypadku do zarządzania elementami sieciowymi może zostać użyta dowolna przeglądarka internetowa. [5] Zarządzanie siecią polega na administrowaniu wszystkimi zasobami komunikacyjnymi danego systemu. Jest ono realizowane przez aplikacyjne procesy zarządzania SMAP (ang. System Management Application Process), które przetwarzają i wymieniają między sobą informacje zarządzania. Informacje te są przechowywane w specjalnej bazie określanej symbolem MIB (ang. Management Information Base). Baza taka zawiera w sobie obiekty zarządzane MO (ang. Managed Objects), które odzwierciedlają fizyczne zasoby, którymi zarządza. Modelem zarządca-agent, którego sposób zarządzania zawiera dwa typowe procesy. Są to: proces zarządzania MP (ang. Managing Process) zarządca wydający procesowi agenta polecenia wykonania operacji na obiekcie zarządzanym,
POLSKIE STOWARZYSZENIE ZARZĄDZANIA WIEDZĄ Seria: Studia i Materiały, nr5, 2006 25 proces agenta AP (ang. Agent Process) przekazuje procesowi zarządcy informacje o zmianach stanu zarządzanych obiektów. 5. Zastosowanie TMN do zarządzania systemami telekomunikacyjnymi Od lat 70ych XX wieku dzięki rozwojowi technologii komputerowych transmisja analogowa zaczęła być wypierana przez transmisje cyfrową. Przełączniki elektromagnetyczne zastępowane były elektronicznymi układami przełączającymi sterowanymi komputerowo z użyciem sygnalizacji we wspólnym kanale. W rezultacie otrzymano sieć składającą się z dwóch logicznie różnych podsieci, komutowana podsieć głosowa i podsieć sygnalizacyjna. Takie rozwiązanie daje dużą elastyczność zarządzania siecią i kreowania nowych usług. Wprowadzenie nowych możliwości objętych normami architektury sieci inteligentnej zdefiniowanej przez CCITT dotyczących definicji standardowych usług, interfejsów pomiędzy centralami w systemie, urządzeniami przetwarzającymi oraz platform do obliczeń komputerowych, umożliwia tworzenie rozbudowanych sieci z użyciem sprzętu i oprogramowania różnych firm. [4] W systemie TMN można wyróżnić pewnego rodzaju segmenty, które odpowiadają za realizację usług komunikacyjnych. Każdy z segmentów stanowi zbiór aplikacyjnych elementów usługowych ASE (ang. Application Service Elements) współpracujących ze sobą. Element usługowy zawiera: definicje realizowanych usług, zapisane w postaci zestawu operacji elementarnych, protokół, który pozwala na wymianę elementarnych operacji. Model warstwy aplikacji dla celów zarządzania siecią przedstawia rys.4. SMASE ACSE CMISE Inne ASE ROSE WARSTWA PREZENTACJI Rysunek 4. Model warstwy aplikacji W modelu warstwowym aplikacji wyróżniono następujące elementy: SMAE (ang. Systems Management Application Entity) jest to segment aplikacyjny zarządzania systemami, SMASE (ang. Systems Management Application Sernice Element) aplikacyjny element usługowy zarządzania systemami, ASE (ang. Application Service Element) usługowy element aplikacyjny, ACSE (ang. AssociationControl Service Element) element usługowy sterowania skojarzeniami,