Zarządzanie wspomagane informatyką

Wielkość: px
Rozpocząć pokaz od strony:

Download "Zarządzanie wspomagane informatyką"

Transkrypt

1 Jerzy Kisielnicki Zarządzanie wspomagane informatyką 1

2 Materiały pomocnicze do wykładów: Finansowe systemy informacyjne Systemy informacyjne zarządzania Informartyka w biznesie Tylko do użytku indywidualnego w procesie dydaktyktycznym na Wydziale Zarządzania UW Bez prawa kopiowania i rozpowszechniania 2

3 3

4 4

5 Wstęp - O opracowaniu i o autorze Opracowanie poświęcone jest problematyce zarządzania wspomaganego komputerowo. Takie zarządzanie bardzo często nosi nazwę zarządzania 2.0. Przedstawione opracowanie jest materiałem pomocniczym, które ma za zadanie rozszerzenie i uzupełnienie tematyki mojego wykładu. Tak, do egzaminu obowiązuje materiał wykładowy rozszerzony o materiały które są prezentowane w tym opracowaniu. Ponieważ jest on oparty o moją książkę Zarządzanie i informatyka, która została wydana w Wydawnictwie Placet dlatego w treści używam terminu książka. Książka Zarządzanie i informatyka ma nakład wyczerpany a Wydawca odstąpił od druku jej następnych wydań. Zawsze, kiedy pisałem kolejną książkę, zadawałem sobie pytanie kim jest mój Czytelnik. Stosuję podejście projektowe, a jego pierwsze wskazanie brzmi określ potrzeby użytkownika tu Czytelnika. Dlatego podczas identyfikacji Twojej sylwetki Czytelniku, muszę spróbować odpowiedzieć na następujące pytania: Kim jesteś, tzn. jaką masz profesję, zasób wiedzy teoretycznej, doświadczenie? Jakie masz potrzeby i jaki ich segment pragniesz zaspokoić tą książką? I na koniec obawa, czy moja książka będzie na tyle atrakcyjna, że przy takim bogactwie publikacji z dziedziny zarządzania i informatyki, znajdę osobę, która będzie chciała jej poświęcić swój czas. Nie jest to kokieteria. Każdy autor uważa, że jego praca jest na pewno ciekawa i pożyteczna. Bez tego przekonania moje starania byłyby od razu skazane na porażkę. Wydaje się, że mam pewne podstawy, zawodowe i naukowe, aby napisać monografię osadzoną zarówno w zarządzaniu, jak i informatyce gospodarczej (zarządczej). W swojej karierze zawodowej pełniłem funkcję programisty (start), aż do menedżera projektu i dyrektora ds. projektowania w dużych firmach: Ośrodku Badawczo Rozwojowym Informatyki i w Centrum Projektowania i Zastosowania Informatyki ZETO-ZOWAR. Realizowałem szereg ogólnokrajowych projektów informatycznych, takich jak na przykład: System Rent i Emerytów dla ZUS, System Informatyczny Rachunkowości Elana Toruń, System wspomagania planowania przestrzennego Uper-Noteć, System informacji naukowo-technicznej SYNAT, System do wspomagania zarządzania policją RP. Miałem też epizody kariery w biznesie niezwiązane bezpośrednio z informatyką, gdzie byłem plenipotentem w firmie SYKOMAT Polska i administracji państwowej, jako doradca Pełnomocnika Rządu d/s Opakowań. A kariera naukowa? Oto jestem od wielu lat profesorem w Uniwersytecie Warszawskim, kierownikiem zakładu na Wydziale Zarządzania i wykładowcą na Politechnice Warszawskiej. Prowadzę również wykłady dla wybranych przedmiotów w Uczelni Łazarskiego, w której byłem kierownikiem Katedry Zarządzania i Marketingu, jak i w Polsko Japońskiej Wyższej Szkole Technik Komputerowych. Jestem też niezależnym konsultantem, honoro- 5

6 Wstęp wym członkiem IPMA Polska i wykładowcą na studiach MBA. Poza granicami kraju naukowo rozwijałem się (i innych) również na uniwersytetach od Bostonu po Moskwę. Sylwetkę mojego Czytelnika wyobrażam sobie następująco: student uczelni ekonomicznej lub politechnicznej, który poszukuje wsparcia w studiowaniu takich przedmiotów, jak: zarządzanie, technologie informacyjne, wstęp do informatyki gospodarczej, projektowanie systemów informatycznych i informacyjnych zarządzania, szefowie różnych szczebli zarządzania, którzy pragną wzbogacić swoją wiedzę o zastosowaniach współczesnej informatycznej infrastruktury zarządzania, a którzy swoje studia ukończyli parę lat temu i obecnie pragną ją uaktualnić lub też ich kierunek studiów nie był związany z zarządzaniem, pracownik wykonawczy, rozmaitych organizacji, pragnący poznać problemy współczesnych systemów zarządzania z różnych powodów choćby by awansować, osoba, pragnąca poznać współczesne problemy zarządzania i zasady tworzenia społeczeństwa informacyjnego, osoby, które współpracują z informatykami przy realizacji projektów, aby móc nawiązać z nimi kontakt intelektualny. Książka niniejsza jest pewną kontynuacją wcześniej napisanych podręczników: J. Kisielnicki i H. Sroka Systemy informacyjne biznesu, który doczekał się trzech wydań [2000, 2001, 2005], J. Kisielnicki MIS Systemy informatyczne zarządzania, dwa wydania [2009 i 2011]. Obecna książka ma jednak nieco inną koncepcję niż poprzednie. Podobnie jak w tej ostatniej stosowane jest podejście projektowo-zasobowe z tą różnicą, iż tu nacisk położony został na współczesne problemy zarządzania. Pragnę przedstawić jak organizacja, dzięki stosowaniu narzędzi informatycznych, rozszerza swoją działalność, uzyskuje nową wartość i zdobywa nowe zasoby: informacji, wiedzy, kapitału intelektualnego i nowe narzędzia pozwalające na podwyższenie jakości procesu zarządzania. Pewne, zawarte w niej powtórzenia, dotyczą problemów metodycznych, które mimo upływu czasu nie zmieniły się. Starałem się więc o przedstawienie kompendium w miarę pełnej wiedzy o zarządzaniu wspomaganym cyfrowo. W książce stale te dwa nurty zarządzanie i informatyka się przenikają. Oczywiście jest to bardzo rozległa tematyka, dlatego należało dokonać dużej selekcji. Przefiltrowałem więc ogromny materiał zdaję sobie jednak sprawę z pewnego subiektywnego podejścia do tego procesu. Wybór materiału dokonany został na podstawie następujących kryteriów: własnego doświadczenia krajowego i zagranicznego, analizy obowiązujących w Polsce standardów nauczania, dyskusji z wykładowcami podczas przeprowadzanych wizytacji, jako członek PKA w I i II kadencji, w szeregu znakomitych polskich uczelniach i dyskusji ze słuchaczami, zwłaszcza studiów podyplomowych i MBA, analizy wybranych podręczników z tematyki MIS, zwłaszcza podręczników amerykańskich. Książka prezentuje dwie metodologie: projektową, gdzie zarzą- 6

7 Zarządzanie i informatyka dzanie wspomagane informatyką traktuję jako proces oraz funkcjonalną, kiedy zwracam uwagę na jego rolę. W książce uzasadniam hipotezę o stałym procesie integracji poszczególnych elementów zarządzania i informatyki. Właśnie we współczesnych systemach zarządzania, nasyconych informatyką, realizuje się podstawowa definicja Mihajla D. Mesarowica, że system to zbiór elementów i relacji zachodzących między nimi. Logika prezentacji jest następująca. Całość materiału podzielono na pięć, wzajemnie się przenikających, części tematycznych. Tematykę książki można też przedstawić graficznie w postaci pięciu okręgów, których rdzeniem jest część pierwsza, poświęcona problematyce zarządzania wspieranego informatyką, w tym zagadnienia informacji i wiedzy w szerokim kontekście. Właśnie te dwa elementy są podstawą współczesnego zarządzania, które spowodowały rewolucyjne zmiany w metodach tworzenia wartości organizacji i tworzenia kapitału intelektualnego. Następna część, to prezentacja problematyki zastosowań. W pierwszym rozdziale tej części analizowane są różnorodne sposoby gromadzenia zasobów informacji i wiedzy, aby w następnych rozdziałach przejść do charakterystyki podstawowych systemów informacyjnych. Rozdział trzeci to kontynuacja kręgu zastosowań, ale tu pod kątem e-zarządzania. Jest to w pewnym sensie nakładka na część poprzednią i bardzo silnie z nią związana. We współczesnym zarządzaniu i zastosowaniach trudno wydzielić takie zarządzanie, które nie korzysta z sieci. Jednak w literaturze przedmiotu może niezbyt precyzyjnie oddziela się obie te warstwy, dlatego pierwszy rozdział tej części poświęcono problematyce sieci komputerowych i specyfice e-zarządzania, w tym charakterystyce e-pracownika. W tej części książki można wydzielić dwie warstwy. Pierwsza to wirtualizacja, jako sprawczyni pojawienia się organizacji nowego typu, czyli organizacji wirtualnych. Druga, to prezentacja wytypowanych działań i analiza współczesnych systemów zarządzania tworzenie, wdrażanie i doskonaleni zastosowań e-zarządzania. Przedstawiono problemy: e-administracji, e-banku, e-handlu, e-logistyki i e-nauczania. Informatyka działa w otoczeniu i jest to najbardziej zewnętrzny krąg. Poświęcono mu dwie końcowe części książki. W tej zewnętrznej części, ze względu na tematykę, analizowano problemy związane z projektowaniem współczesnych systemów informacyjnych w technologii ICT, a także problemy budowy społeczeństwa informacyjnego oraz ekonomiczny i prawny kontekst zastosowania w zarządzaniu technologii informacyjnokomunikacyjnej. Analizie poddano nie tylko elementy pozytywne, ale też negatywne, w tym cyberterroryzm, jako nowe zagrożenie i nowy typ przestępstw. Ostatni rozdział książki to prezentacja wybranych problemów technologii przetwarzania w chmurze. Dziękuję wydawcy Leszkowi Plakowi, który inspirował mnie i poniósł ryzyko wydania materiałów prezentowanych w tym opracowani w postaci książki Zarządzanie i infownatyka. Dziękuję też Mojemu Przyjacielowi ze Stanów, Mahdiemu Khosrow-Pour oraz Eli Cohnowi, którzy umożliwili mi weryfikację niektórych tez w międzynarodowym środowisku. Dziękuję konsultantom poszczególnych części książki, a mianowicie: prof., prof. Grażynie 7

8 Wstęp Gierszewskiej, Taduszowi Krupie i Zdzisławowi Szyjewskiemu. W kolejności, podziękowania zbiorowe dla uczestników: cyklicznej konferencji Informatyka ku przyszłości organizowanej przez Wydział Zarządzania Uniwersytetu Warszawskiego, uczestników seminarium PTI w Szczyrku i seminariów NTIE, za możliwość prezentacji tez. Lista moich podziękowań jest niepełna, ale pragnę wymienić w niej moich słuchaczy studiów podyplomowych z projektowania systemów informatycznych z Uniwersytetu Warszawskiego, jak i uczestników mojego studium doktoranckiego na Wydziale Zarządzania Politechniki Warszawskiej, za dyskusję i udział w badaniach nad efektywnością zastosowań informatyki oraz nad czynnikami wpływającymi na tworzenie kapitału intelektualnego. Jerzy Kisielnicki 8

9 Spis treści Wstęp Błąd! Nie zdefiniowano zakładki. Część I Zarządzanie wspierane informatyką 11 Rozdział 1 Technologieinformacyjne i komunikacyjne (ICT) w zarządzaniu 13 Rozdział 2 Zarządzanie informacją i wiedzą O informacji wiedzy w zarządzaniu organizacją Informacje dla zarządzania (informacja zarządcza) Wiedza i jej rola w zarządzaniu Kapitał intelektualny i jego tworzenie 33 Rozdział 3 Infrastruktura zarządzania Informatyczna Infrastruktura Zarządzania (IIZ) jako element Systemu Informacyjnego Zarządzania (SIZ) Informatyka w zarządzaniu i jej powiązania z innymi dyscyplinami naukowymi System zarządzania system informacyjny system informatyczny 46 Rozdział 4 System informacyjny organizacji Budowa i zadania systemu informacyjnego zarządzania System informacyjny dla zarządzania wiedzą - czyli jak wykorzystać posiadany kapitał intelektualny, jak absorbować i generować wiedzę w systemie informacyjnym Jakość systemu informacyjnego audyt systemu Generacje systemów informacyjnych zarządzania 74 Część II Zastosowania 83 Rozdział 5 Zasoby informacyjne Baza danych oraz baza baz czyli hurtownia danych Baza modeli i procedur Baza wiedzy Baza tekstowa Baza multimedialna 113 Rozdział 6 Zarządzanie zasobami informacyjnymi Systemy komunikacji z zasobami informacyjnymi Ochrona zasobów informacyjnych 118 Rozdział 7 Charakterystyka podstawowych systemów informacyjnych wspierających procesy zarządzania Wspomaganie zarządzania wybór systemu informacyjnego Systemy transakcyjne czyli systemy informacyjne I generacji Systemy wyszukiwania informacji i informowania kierownictwa systemy informacyjne II generacji Systemy doradcze, czyli systemy informacyjne III generacji Zintegrowane systemy informacyjne 159 Część III E-zarządzanie 167 Rozdział 8 E-zarządzanie - pojęcia i elementy E-zarządzanie - pojęcia, modele, zadania E-zarządzanie w elektronicznej gospodarce Sieć komputerowa jako infrastruktura e-zarządzania 183 Rozdział 9 Wirtualizacja i jej elementy Wirtualizacja i wirtualne organizacje Technologie wirtualne - TW Efekty i bariery zastosowania wirtualizacji 224 Rozdział 10 O niektórych zastosowaniach procedur e-zarządzania w gospodarce E-administracja (E-Government) 229 9

10 Wstęp Handel elektroniczny Bankowość elektroniczna E-logistyka E-nauczanie 257 Część IV Zarządzanie projektami 269 Rozdział 11 Projekt Podejście projektowe w zarządzaniu Organizacja procesu projektowania - systemy komunikacji stosowane w zaspołach projektowych 280 Rozdział 12 Analiza organizacji Miejsce analizy w cyklu życia systemu Procedura i modele analizy podstawy Identyfikacja użytkowników i stawianych przez nich celów Wybrane modele analizy organizacji 308 Rozdział 13 Projektowanie systemu informacyjnego zarządzania O rozwiązanich metodycznych Metodyki projektowania systemów informacyjnych Jakość projektu i procedur realizujących Doskonalenie projektu (kaizen, reeingineering i X-engineering) Strategia realizacji projektu 368 Rozdział 14 Wdrażanie systemów informacyjnych Miejsce wdrażania w cyklu życia systemu Procedura wdrażania Zarządzanie procesem wdrażania Czynniki wpływające ba efektywność wdrażania systemu 390 Część V Społeczny, ekonomiczny i prawny kontekst zastosowań ICT 394 Rozdział 15 Społeczny kontekst zastosowań ICT Społeczeństwo informacyjne Kontekst etyczny i społeczna odpowiedzialność Narzędzia informatyczne komunikacji ze społeczeństwem Zagrożenie w budowie społeczeństwa informacyjnego cyberterroryzm 423 Rozdział 16 Ekonomiczny kontekst zastosowań ICT O ekonomicznej ocenie, czyli efekty i bariery zastosowań ICT Proces decyzyjny wyboru wariantu realizacji ICT Ocena efektywności ekonomicznej zastosowań informatyki - rachunek ekonomiczny Systemowa ocena efektywności ekonomicznej zastosowań ICT 445 Rozdział 17 Prawny kontekst zastosowań technologii informacyjnej 458 Rozdział 18 Postęp w technologii i zagrożenie kulturowe, czyli przetwarzanie w chmurze 470 Literatura

11 11 Część I Zarządzanie wspierane informatyką

12 1. Technologie informacyjne i komunikacyjne (ICT) w zarządzaniu 2. Zarządzanie informacją i wiedzą 2.1. O informacji i wiedzy w zarządzaniu organizacją 2.2. Informacje dla zarządzania (informacja zarządcza) 2.3. Wiedza i jej rola w zarządzaniu 2.4. Kapitał intelektualny i jego tworzenie 3. Infrastruktura zarządzania 3.1. Informatyczna Infrastruktura Zarządzania (IIZ) jako element Systemu Informacyjnego Zarządzania (SIZ) 3.2. Informatyka w zarządzaniu i jej powiązania z innymi dyscyplinami naukowymi 3.3. System zarządzania system informacyjny system informatyczny 4. System informacyjny w organizacji 4.1. Budowa i zadania systemu informacyjnego zarządzania 4.2. System informacyjny dla zarządzanie wiedzą czyli jak wykorzystać posiadany kapitał intelektualny, jak absorbować i generować wiedzę w systemie informacyjnym 4.3. Jakość systemu informacyjnego audyt systemu 4.4. Generacje systemów informacyjnych zarządzania 12

13 Rozdział 1 Technologie informacyjne i komunikacyjne (ICT) w zarządzaniu Życie stało się nagle naprawdę światowe i chcę przez to powiedzieć, że treścią życia przeciętnego człowieka jest obecnie cały glob; że każda jednostka żyje życiem całego świata. To są słowa José Ortega y Gasset wypowiedziane w roku 1947 [autor zmarł w 1955 roku, a książka zawierająca to zdanie została przetłumaczona na język polski w 2006 roku]. Realizacja idei José Ortega y Gasset, jest możliwa obecnie, kiedy systemy komunikacyjne, dzięki ICT, skróciły znacznie odległość miedzy ludźmi na całym świecie. Odległość od drugiego człowieka jest obecnie tylko na jedno kliknięcie w naszym komputerze. Co jest naszej gospodarki, paradoksalnie, słabością, jak i siłą? Gospodarka polska, z różnych względów, nie była w okresie przed akcesją do UE nowoczesna, a stosowane w niej technologie produkcji były przestarzałe i niekonkurencyjne. Wynikało to między innymi z naszego opóźnienia w stosowaniu nie zawsze najnowszych systemów zarządzania. To była nasza słabość. Wprowadzając bardzo szybko nowoczesne technologie, dokonujemy tego zgodnie z ideą reengineeringu, a nie strategii powolnych zmian (małych kroczków). Oznacza to, że mamy szansę szybciej i skuteczniej pokonać lukę strategiczną w kontekście organizacji i technologii. W procesie modernizacji stosowane są różnego rodzaju metody i techniki zarządzania. W większości są one powiązane z technologią informacyjną i komunikacyjną, czyli z tzw. ICT (Information & Communication Technology). To właśnie narzędzia ICT pozwalają na transfer nowoczesnej technologii i w efekcie przyniosą modernizację polskiej gospodarki. Dzięki ICT realizowana jest integracja różnych przedsiębiorstw UE. Konsekwencją jest wyrównywanie poziomu ich nowoczesności. Zastosowanie ICT pozwoliło na otwarcie wrót naszej gospodarki na świat, a w tym na najbliższą nam Europę. ICT, jako współczesna infrastruktura zarządzania, pozwalają na wymianę informacji i wiedzy z otoczeniem, monitorowanie procesów modernizacji, jak i na przewidywanie przyszłości. ICT przyczyniła i przyczynia się zarówno do powstania nowych możliwości modernizacji gospodarki i rozwoju społeczeństwa, jak i wcześniejszego rozpoznawania pojawiających się barier. Dzięki ICT nie można obecnie kwestionować, historycznego już, stwierdzenia 13

14 Technologie informacyjne i komunikacyjne w zarządzaniu P. Druckera [1973] o tym, że nie ma nierozwiniętych krajów są tylko kraje o nierozwiniętym zarządzaniu. Można więc postawić następujące hipotezy: Hipoteza I Technologie informacyjno-komunikacyjne zaoferowały zupełnie nowe i doskonalsze narzędzia wspomagające modernizację polskich przedsiębiorstw, w międzynarodowe, w pełni konkurencyjne przedsiębiorstwa, funkcjonujące na globalnym rynku. Hipoteza II Zastosowanie ICT ma znaczący udział w transformacji społeczeństwa przemysłowego w społeczeństwo informacyjne oparte na zarządzaniu wiedzą, a tym samym pozwala na zmniejszenie dystansu dzielącego Polskę od innych krajów UE. Starając się uzasadnić postawione hipotezy, należy określić miejsce Polski w świecie w zastosowaniu technologii informacyjno-komunikacyjnych. Ambicje Polaków są bardzo duże. Są takie postulaty i dążenia, abyśmy byli wśród krajów wiodących w tej dziedzinie w świecie. Niewątpliwie pragniemy, aby nasza gospodarka była nowoczesna i konkurencyjna. Czy jednak posiadamy dla tego celu odpowiednie środki ICT? Do takiej oceny w literaturze jest proponowanych wiele miar. Do wyliczenia wskaźników oceny korzysta się z różnych źródeł informacji. W przedstawieniu takiej oceny korzystano z takich wiarygodnych źródeł, jak publikacje zamieszczone w: Opracowaniu GUS-u Społeczeństwo informacyjne w Polsce [2010] oraz The Global Information Technology Report [2013]. Ten ostatni raport, stworzony przez Word Economic Forum, pokazuje wpływ, jaki technologie teleinformatyczne wywierają na wzrost gospodarczy i liczbę miejsc pracy w 144 państwach. Według badań firmy consultingowej Booz & Company, informatyzacja i poprawa narzędzi komunikacyjnych mogłaby pomóc milionom osób wyjść z ubóstwa. W ciągu ostatnich dwóch lat cyfryzacja ( ) zwiększyła światowy PKB o 193 mld USD i pozwoliła stworzyć 6 milionów miejsc pracy. Wzrost na skali cyfryzacji o 10% powoduje, według badań Booz & Company, wzrost PKB danego kraju o 0,75% i spadek bezrobocia o 1,02%. Ciekawe i poparte autorytetami naukowymi są badanie przeprowadzone przez Światowe Forum Gospodarcze (Word Economic Forum) przy udziale INSEAD. W badaniach tych pozycję danego kraju ocenia się na podstawie wyliczenia indeksu NRI (Networked Readiness Index). Indeks pozwala na ewaluację pod względem gotowości do wykorzystania możliwości, jakie oferują ICT. Raporty są publikowane corocznie. 14

15 Zarządzanie i informatyka cz. I Indeks NRI jest pochodną 68. danych zgrupowanych w 3 głównych komponentach: 1. indeks otoczenia: rynku, polityki i regulacji, infrastruktury, 2. indeks gotowości: indywidualnej, przedsiębiorstw, administracji, 3. indeks wykorzystania: indywidualnego, przedsiębiorstw, administracji. Z tych 68. czynników, 27 można określić mianem tzw. twardych, ilościowych. Zostały stworzone przez instytucje międzynarodowe o ugruntowanej renomie, takie jak np. Organizacja Narodów Zjednoczonych (United Nations), Bank Światowy (World Bank) czy Międzynarodowy Związek Telekomunikacyjny (International Telecommunication Union). Pozostałe pochodzą z badań ankietowych 12. tys. liderów biznesu prowadzonych na zlecenie Światowego Forum Ekonomicznego. W polskich publikacjach spotyka się różne tłumaczenie NRI, np. wskaźnik gotowości sieciowej, potencjał internetowy, gotowość do transformacji w drodze do społeczeństwa informacyjnego. Według tych badań Polska zajmuje 49. miejsce na świecie pod względem wykorzystywania Internetu i technologii komunikacyjnych. Wciąż jest pole do poprawy, chociaż w cztery lata awansowaliśmy o 20 pozycji. Można mieć pewne zastrzeżenia do metodyki liczenia NRI, ale na pewno nasze miejsce w świecie i w Europie jest złe. Dlatego też, mimo, że potencjalne możliwości współczesnego zastosowania ICT do modernizacji Polski są znaczące, musimy zwrócić uwagę na fakt, że nasza infrastruktura zarządzania jest słabsza niż innych krajów Unii Europejskiej. Konsekwencja to trudności w budowie wspólnej przestrzeni informacyjno-komunikacyjnej z innymi krajami UE, a tym samym problemy w systemie przepływu wiedzy i informacji. W modernizacji polskiej gospodarki stosujemy dorobek nauk zarządzania. W uproszczeniu przyjmujemy, iż w poszczególnych etapach rozwoju, nauki zarządzania stawiały na rozwiązanie następujących globalnych problemów [J. Kisielnicki, 2014]: wydajność kierunek modernizacji nastawiony na wzrost wydajności to paradygmat szkoły klasycznej, motywacja ludzie szukają dróg do modernizacji swojego miejsca w społeczeństwie, właściwie motywowani mogą przenieść góry, czyli podstawy szkoły psychologicznej, podejmowanie decyzji ludzie dążą do podejmowania najlepszych decyzji, co do kierunków modernizacji, w istniejących uwarunkowaniach, wiodący nurt w szkole ilościowo-systemowej. Modernizować gospodarkę możemy tylko w warunkach pełnej informacji. Informacja uzyskiwana w trakcie wielowarstwowej komunikacji traktowana jest, jako specyficzny zasób poszczególnych organizacji i gospodarki danego kraju. Jego posiadanie pozwala na rozwiązanie problemów modernizacji Polski. Przykład systemu takiej wielowarstwowej komunikacji pokazuje rysunek I.1. 15

16 Technologie informacyjne i komunikacyjne w zarządzaniu Rysunek I.1. Schemat zastosowania narzędzi ICT do wielowarstwowej komunikacji (organizacja świat) Źródło: ( ) Systemy związane z zarządzaniem informacją i wiedzą, pozwalają na przyczynienie się do skutecznego rozwiązania większości problemów modernizacji kraju. Dzięki technologiom informacyjnym i komunikacyjnym, a szczególnie globalnym sieciom komputerowym, Polska jest elementem światowej przestrzeni informacyjnej. Taką przestrzeń nazywa się również cyberprzestrzenią. Cyberprzestrzeń tworzą dwa podstawowe elementy: 1. systemy komputerowe zlokalizowane w różnych miejscach przestrzeni fizycznej i zdolne do odbioru lub wysłania informacji, 2. globalne sieci komputerowe zdolne do przenoszenia tych informacji, czyli pozwalające na komunikacje między istniejącymi systemami komputerowymi. Relacje między tymi elementami mają postać różnorodnych powiązań, które są wyznaczone przez przyjęte procedury i protokoły komunikacyjne. Cechą charakterystyczną cyberprzestrzeni jest wielokierunkowość powiązań i niemożność określania jej granic za pomocą miar fizycznych. Komputery w cyberprzestrzeni są powiązane między innymi przez takie produkty ICT, jak: pocztę elektroniczną, sieć WWW, portale Web 1, Web 2, Web 3, 16

17 Zarządzanie i informatyka cz. I EDI, transmisje multimedialne (multicast) lub P2P (peer to peer). W ostatnich 10. latach nastąpił 15. krotny wzrost liczby węzłów sieci internetowych [K. C. Laudon, C.G. Traver, 2011]. W tej przestrzeni czas przesyłania informacji, jak i trwania procesu podejmowania decyzji jest bardzo krótki i często wyraża się ułamkami sekundy. W konsekwencji podstawowy problem zarządzania, jakim jest gospodarka w warunkach niedoboru zasobów, rozwiązywany jest za pomocą nowych, niestosowanych dotychczas form takich, jak: nowej formy rynku, czyli rynku elektronicznego, (Polska jako kraj jest elementem tego rynku), nowej formy organizacji szczególnie organizacji międzynarodowych, czyli powstania nowej formy, jaką są organizacje wirtualne, (elementami są polskie organizacje), interaktywnych portali i aktywnej roli wszystkich użytkowników w ich tworzeniu i eksploatacji, możliwości korzystania ze światowych zasobów wiedzy, takich jak np. europejska biblioteka, możliwości uczestnictwa w różnego rodzaju międzynarodowych projektach. Dzięki ITC mamy nową sytuację w zarządzaniu gospodarką. Jesteśmy, jako kraj, otwarci na otoczenie. ICT jest zaś kluczem do otwarcia wrót przepływu informacji i wiedzy. W Polsce, jednym z ważnych realizowanych w tym obszarze projektów jest projekt o nazwie Wrota Polski. Celem jest budowa systemu informatycznego, który umożliwia świadczenie usług publicznych. W szerszym znaczeniu symbolizuje: otwarcie Polski na nowe techniki, współpracę z innymi krajami i otwarcie państwa na potrzeby obywateli. Można przyjąć, że jest to element realizowanego równolegle w UE projektu eeurope, który przewiduje dla wszystkich członków UE stworzenie wspólnej przestrzeni do wymiany informacji i wiedzy. Konsekwencje to m.in. szybszy, tańszy i bezpieczny dostęp do Internetu, powszechne stosowanie sieci dla różnorodnych celów, promowanie idei telepracy oraz ułatwienie kontaktu obywatela z władzami. Dzięki realizacji wymienionych projektów uzyskujemy nowe efekty, takie jak: tworzenie społeczeństwa informacyjnego, możliwości globalizacji i demokratyzacji naszego życia, modernizacja gospodarki. To są pozytywy. Ale są też zagrożenia, co w konsekwencji powoduje, iż musimy być przygotowani na straty. Ta część gospodarki, która nie jest modernizowana bardzo szybko traci w konkurencji z nowoczesnymi organizacjami innych krajów świata. Otwarcie informacyjne Polski, to konieczność walki z przestępstwami, które dotychczas w zarządzaniu nie występowały. Do nich można zaliczyć np. cyberterroryzm, oszustwa finansowe i bankowe, czarny PR. Podstawowymi produktami ICT są systemy komunikacyjne i procedury pozyskania, przechowywania i dostosowania informacji i wiedzy do potrzeb różnego typu użytkowników. Współczesna organizacja funkcjonuje w gospodarce globalnej. W gospodarce tej stale odbywa się walka konkurencyjna między poszczególnymi podmiotami funkcjonują- 17

18 Technologie informacyjne i komunikacyjne w zarządzaniu cymi na rynku. Modernizacja gospodarki jest koniecznością. Realizowane różnego rodzaju alianse mają charakter powiązań strategicznych mających na celu umacnianie pozycji organizacji na rynku niezależna od tego, czy jej działalność odbywa się na lokalnym, czy też na globalnym rynku. Organizacja dla realizacji swojej misji i stawianych przed nią celów potrzebuje nie tylko informacji, ale i wiedzy. Wiedza pozyskiwana jest zarówno od pracowników, jak bliższego i dalszego otoczenia organizacji. ICT pozwala na korzystanie z informacji i wiedzy zawartej w różnego rodzaju bazach, jak i hurtowniach danych. Coraz częściej źródłem informacji dla kierowników projektów modernizacyjnych jest technologia cloud computing ( przetwarzanie w chmurze, chmury obliczeniowe ). W tej to technologii model komunikacji, i to zarówno wewnętrznej (Polska), jak i zewnętrznej (świat), wymaga dostarczenia potrzebnych informacji i obsługi procesów komunikacji przez wyspecjalizowane organizacje. Obywatele Polski są zanurzeni w informacjach dostępnych dla każdego, kto posiada ICT ( np. notebooka z możliwością korzystania z Internetu). Oliver Hogan [2010], stwierdza, iż badanie dotyczące wpływu przetwarzania w chmurze ujawniło istotne korzyści ekonomiczne związane z przewidywanym wprowadzeniem tej technologii w wielu sektorach gospodarki. Dystrybucja, sprzedaż detaliczna i hotelarstwo potencjalnie uzyskały najwyższy zwrot z wdrożenia chmury obliczeniowej, pomimo zmniejszonej siły nabywczej i konieczności obniżania cen produktów. Bankowość oraz usługi finansowe i biznesowe to także jedne z najsilniejszych sektorów pod względem osiąganych korzyści. Procesy modernizacyjne będą skuteczne tylko wtedy, kiedy będą wspomagane przez odpowiednią infrastrukturę zarządzania. Infrastrukturę tę stanowią takie elementy ICT, jak: sprzęt komputerowy (hardware), oprogramowanie (software), sieci do przesyłania danych, w tym Internet, ekstranet i intranet. Interpretując to zdanie możemy stwierdzić, że właśnie rozwój zastosowań ICT, a szczególnie powstanie zintegrowanych systemów informatycznych (Systemów Wspomagania Decyzji, Systemów Ekspertowych, Business Intelligence, Planowanie Zasobów Przedsiębiorstwa ERP) wraz z takimi narzędziami, jak: baza danych, hurtownia danych, baza modeli i baza wiedzy, pozwala na stosowanie w modernizacji gospodarki wymiany informacji i wiedzy. O tych problemach będziemy pisać w dalszych częściach podręcznika. Rola ICT w otwarciu Polski na inne kraje świata jest znacząca. Tylko jej zastosowanie pozwala na przyjęcie właściwej strategii modernizacji. Rozwój kraju nie byłyby możliwy bez zastosowania nowoczesnych metod zarządzania, wysokiej kultury organizacyjnej, zastosowania supernowoczesnej technologii i współczesnej ICT. Nadchodzące lata stanowić będą epokę komunikacji zarówno wewnątrz kraju, jak i ze wszystkimi zewnętrznymi interesariuszami. Informatyka, w tym Internet, jako nowa technologia, jest dlatego takim wielkim wyzwaniem dla ludzkości, bo przenika wszystkie dziedziny życia prywatnego i społecznego, osobistego i zawodowego. W dodatku na każdą skalę od członków najbliższej rodziny i bezpośrednich kolegów z pracy po całe narody, a nawet prawie całą ludzkość [W. Celary, 2013]. ITC jest wspomagającym i przyjaznym narzędziem. Pozwala na to, aby ludzie mogli korzystać ze swego intelektu i z jego pomocą budować przewagi konkurencyj- 18

19 Zarządzanie i informatyka cz. I ne. Nawet ci, którzy nie mają w tej chwili środków finansowych dzięki potędze swojego umysłu, wspierani przez ICT mogą stać się właścicielami nowoczesnych firm. Mądrze zarządzana gospodarka może stać się gospodarką nowoczesną. Współczesne systemy komunikacyjne stale monitorują nasze działania. Nasze decyzje stają się coraz bardziej trafione. Te ogromne możliwości są jednak hamowane przez to, że w Polsce nie zawsze zajmujemy się przyszłością. Poczynania ludzi władzy są ograniczone przez konieczność dokonywania bieżących i szybkich zmian niezbędnych dla pozyskania głosów wyborców. Otwarta i stale modernizowana Polska powiązana przede wszystkim z UE, ale również z całym światem, może stać się konkurencyjna na globalnym rynku. Należy stale dążyć do rozszerzenia naszej wymiany informacji i wiedzy z otoczeniem. Jednak otwartość kraju to również niebezpieczeństwa, o których piszemy w dalszej części książki. Czy efektywnie stosujemy w Polsce ICT? Czy absolwent polskiej szkoły ma odpowiednią wiedzę, umiejętności i nawyki by korzystać z nowoczesnych instrumentów komunikacyjnych i czy rozumie je, jako instrument pracy a nie zabawy czy hobby? To już nieco inne problemy, które wymagają badań. Również należy zastanowić się nad rozwiązaniami systemowymi dla wydatków na ICT, które powinny zmienić naszą nienajlepszą pozycję w światowym rankingu istniejącą infrastrukturę, a w konsekwencji poprawić system wymiany informacji i wiedzy między Polską a jej otoczeniem. 19

20 20

21 Rozdział 2 Zarządzanie informacją i wiedzą 2.1. O informacji wiedzy w zarządzaniu organizacją W teorii i zastosowaniach nauk zarządzania następuje stały rozwój. Jest on spowodowany różnymi czynnikami, w tym znaczącym postępem w technologii informacyjnej i komunikacyjnej (ICT). Jak duża jest to rola trudno precyzyjnie, ilościowo oszacować. Na pewno w różnych sektorach i organizacjach jest inna. Jednak z pewnością czytelnik zgodzi się ze mną, że jest znacząca. Podwaliną rozwoju ICT było zbudowanie pierwszego komputera, a potem, stworzenie przemysłu komputerowego. Nowa szkoła, o której wcześnie wspomniano, określana terminem szkoły zarządzania informacją i wiedzą, powstaje: jako odpowiedź na zapotrzebowanie praktyki spowodowane tworzeniem się społeczeństwa informacyjnego, a w tym nowych form funkcjonowania organizacji oraz nowej roli pracownika we współczesnej organizacji, z konieczności zastosowań w praktyce takich metod i technik zarządzania, które pozwalają na szybkie podejmowanie decyzji w stale zmieniającym się, turbulentnym świecie, jako konsekwencja uzyskania nowych możliwości spowodowanych rozwojem informatyki i nauk z nią związanych (automatyka, robotyka, elektronika i inne); użytkownik, z pomocą współczesnej TI, ma szerokie możliwości wspomagania procesu podejmowania decyzji. Jeżeli za miarę postępu nauki przyjmiemy analizę dyscyplin, z których zostały uzyskane nagrody Nobla, to obserwacja ostatnich lat wykazuje, iż najbardziej burzliwy rozwój dokonuje się w naukach związanych z TI. Nagrody te szczególnie w dziedzinie fizyki i ekonomii pokazują, jak wiele dokonuje się w świecie informatyki i jej zastosowaniach. Do światowego dorobku należą fundamentalne prace z obszaru zarządzania wiedzą takich uczonych, jak P. M Senge, I. Nonaka, H. Takeuchi, E. A. Feingenbaum, A. Tiwana i wielu, wielu innych. Również w Polsce powstaje wiele prac dotyczących tej właśnie problematyki. W literaturze naukowej bardzo często twierdzi się, że obecnie wkroczyliśmy w erę nowej ekonomii lub nowego zarządzania [szerzej: J. Kisielnicki, Z. Szyjewski, 2006]. Na czym polega istota nowej ekonomii i współczesnego zarządzania? 21

22 Zarządzanie informacją i wiedzą Nowa ekonomia, jak i nowe zarządzanie, to wykorzystanie doświadczeń ICT w procesie zarządzanie informacją, a w tym zarządzania wiedzą. Na pewno ten rozwój ma ogromne znaczenie. Szczególnie można zauważyć wpływ Internetu na nowe formy zarządzania. ICT dała nowy impuls naukom zarządzania. Spowodowała również to, iż musimy zrewidować nasze dotychczasowe spojrzenie na teorię zarządzania. Zarządzanie jest nauką społeczną, która zajmuje się problematyką podejmowania decyzji w sytuacjach niedoboru takich zasobów, jak: ziemia, siła robocza, kapitał i przedsiębiorczość. Decyzje powinny uwzględniać również praktycznie nieograniczone potrzeby społeczeństwa. Dla ich zaspokojenia stosowane są różne procedury decyzyjne. One z kolei pozwalają na podjęcie rozstrzygnięć dotyczących alokacji tych ograniczonych zasobów. Jak już wspomniano, współczesna teoria zarządzania, wspierając nauki ekonomiczne, zajmuje się procesem podejmowania decyzji, który ma na celu uzyskanie odpowiedzi na następujące pytanie: w jaki sposób współczesne społeczeństwo stawia czoła problemom wynikającym ze zjawisk niedoboru? Postęp w zarządzaniu informacją, a w tym w zarządzaniu wiedzą, przyczynia się do rozwiązania problemów współczesnego świata. Dzięki ICT, a szczególnie globalnym sieciom komputerowym, działamy w cyberprzestrzeni, o której była mowa uprzednio (patrz str. 16). Istnienie cyberprzestrzeni powoduje, że z jednej stronu uzyskujemy nowe nieoczekiwane dotychczas efekty, ale z drugiej strony musimy być przygotowani na straty i przestępstwa, które dotychczas w praktyce zarządzania nie występowały. Zarządzanie informacją i wiedzą ma cechy, które odróżniają ten proces od teoretycznych i praktycznych rozwiązań tradycyjnych szkół zarządzania. Cechy te mają zarówno charakter makro, jak i mikro. Do wyróżników makro należą między innymi: tworzenie się społeczeństwa informacyjnego, powstanie nowych elektronicznych form globalnych organizacji, jak i globalnego rynku, które stopniowo zastępują stare tradycyjne struktury, zmiany kulturowe w systemach zarządzania, tzw. zarządzanie międzykulturowe. Do wyróżników mikro z kolei zaliczyć możemy: bezpośredni system informacyjny; charakteryzuje się on eliminacją ogniw pośrednich, a przez tworzenia centrów informacji i wiedzy (tzw. hubów) pozwala na stosowanie systemu zdecentralizowanego; w konsekwencji prowadzi do demokratyzacji zarządzania i zanikania tradycyjnych wieloszczeblowych hierarchicznych struktur zarządzania; tworzenie płynnych, elastycznych form organizacyjnych, ukierunkowanych na realizację zadań i mających charakter zarządzania procesami; odmienne niż w organizacjach tradycyjnych kształtowanie się takich podstawowych elementów rachunku ekonomicznego, jak: nakładów inwestycyjnych, krańcowych kosztów produkcji i zależności tych kosztów od wielkości wytworzonej produkcji; 22

23 Zarządzanie i informatyka cz. I zmiana roli kierowników i metod ich szkolenia; kierownik staje się trenerem a nie szefem, występuje również kreowanie nowej roli pracownika we współczesnej organizacji; stosowanie takich metod i technik zarządzania, jak zarządzanie wiedzą i zastosowanie takich doradczych systemów informatycznych, które pozwalają na szybkie podejmowanie decyzji w stale zmieniającym się świecie Informacje dla zarządzania (informacja zarządcza) Podstawą przeprowadzenia zmian w organizacji jest posiadanie relewantnych informacji, które stanowią zarówno bazę dokonywanych zmian, ich uzasadnienie, jak i narzędzie dla analizy procesu, a wreszcie podstawę oceny, czy przeprowadzone zmiany były efektywne i skuteczne. Informacja stanowi bardzo istotny niematerialny zasób organizacji, który można bezpośrednio przełożyć na jej wartość (Business Value BV). Trudno wskazać jedną uznaną definicję informacji. W wielu książkach rezygnuje się z definiowania tego pojęcia poprzestając na jego intuicyjnym, potocznym rozumieniu. Jak zauważa J. Oleński [2006] praktykom, którzy projektują i eksploatują systemy informacyjne potoczne rozumienia pojęcia informacji zupełnie wystarcza. Zakłada ono, że: Informacja to taki rodzaj zasobów, który pozwala na zwiększenie naszej wiedzy o nas i otaczającym nas świecie. Czytelnikowi pragnącemu pogłębić tę tematykę i zainteresowanemu problematyką samej informacji możemy m.in. polecić cytowaną wcześniej i dostępną w języku polskim monografię J. Oleńskiego [2006]. N. Winer wprowadzając pojęcie informacji stwierdza, że:... jest ona jak gdyby nazwą treści pochodzącą ze świata zewnętrznego. Jeden z twórców teorii informacji R. Ashby uważa, że...informacja to przekazywanie różnorodności. Prostą, równocześnie dobrze oddającą istotę pojęcia informacji, jest definicja podana przez W. Flakiewicza: [2001] Informacja jest czynnikiem, który zwiększa naszą wiedzę o otaczającej nas rzeczywistości. E. Niedzielska [1998, s. 14] przytacza francuskie przysłowie, które głosi: Bez materii nie ma nic, bez energii wszystko jest nieruchome, bez informacji jest chaos. W książce ograniczono rozważania nad istotą definicji do prezentacji tych jej aspektów, które są 23

24 Zarządzanie informacją i wiedzą niezbędne do objaśnienia zjawisk związanych z funkcjonowaniem systemów społecznogospodarczych. Według B. Stefanowicza [1998] informacja ma następujące własności: przejawia cechę synergii, jest niezależna od obserwatora (obiektywna), jest różnorodna, jest zasobem niewyczerpalnym, może być powielana i przenoszona w czasie i przestrzeni, można ją przetwarzać nie powodując jej zniszczenia (zużycia), ta sama informacja ma różne znaczenie dla różnych użytkowników (subiektywność ocen), każda jednostkowa informacja opisuje obiekt tylko ze względu na jedną jego cechę. Większość autorów zgadza się, że wyjaśnienie pojęcia informacji może być dokonane w kontekście teorii informacji i powinno uwzględniać jej cztery podstawowe aspekty: semantyczny, ilościowy, jakościowy i pragmatyczny [J. Czekaj 2012]. Zdaniem J. Czekaja [2012 s.15]: Informacja jest czynnikiem, którzy tworzy i zmienia opis rzeczywistości, zmniejsza nieokreśloności umożliwia skuteczne działanie. Informacja dla zarządzania jest szczególnym rodzajem informacji. Pozwala na realizację takich funkcji zarządzania, jak: planowanie, organizowanie, przewodzenie i kontrolowanie. Efektywne zarządzanie jest możliwe tylko wtedy, kiedy posiadamy informacje o organizacji i jej otoczeniu. Kryterium wyodrębniającym ze zbioru informacji podzbiór informacji dla zarządzania jest fakt, że na skutek otrzymanych wiadomości zmniejsza się nieokreśloność wyboru, czy też oceny działania w organizacji. Dlatego też informacja dla zarządzania ma bezpośrednio i pośrednio wpływ na proces decyzyjny. F. Stoner i C. Wankel [1992] przedstawiają następujący łańcuch w procesie podejmowania decyzji (surowe fakty) mogą stać się INFORMACJĄ (przeanalizowanymi danymi), które mogą stać się INFORMACJĄ ZARZĄDCZĄ (wnioskami dotyczącymi działania), która może doprowadzić do DECYZJI I DZIAŁANIA. Możemy więc przyjąć, że podstawowe cechy wyróżniające informację dla zarządzania w stosunku do innych jej typów są takie, że: zawsze są one związane z realizacją, wymienionych wcześniej, funkcji zarządzania, pozwalają na podjęcie decyzji na różnych szczeblach zarządzania. 24

25 Zarządzanie i informatyka cz. I Wymienione cechy są ściśle ze sobą związane. Pisząc o bezpośrednim i pośrednim procesie podejmowania decyzji pragniemy zwrócić uwagę na istnienie pętli informacyjnych w organizacji. I tak, na przykład, informacja o wzroście popytu na określony produkt powoduje, że organizacja sprzedająca go, zwiększy zakup u jego producenta. Informacja o zwiększeniu zakupów, może spowodować decyzję o zwiększeniu jego produkcji. Informacja o wzroście obrotów powinna spowodować poprawę kondycji finansowej organizacji. Z kolei taka informacja w przypadku spółek akcyjnych powinna przełożyć się na wzrost notowań jej akcji na giełdzie. I tak dalej, i dalej. Informacje takie w konsekwencji mogą być opisane za pomocą języka cybernetyki, a mianowicie ujemnego i dodatniego sprzężenia zwrotnego. Na informacje możemy spojrzeć jako na produkt określonej procedury przetwarzania informacji. Złożone, ale tak to w praktyce jest. Informacja dla zarządzania pozwala na uczenie się organizacji i dostosowanie się do stale zmieniającego się otoczenia. O wartości informacji dla zarządzania, a więc o jej użyteczności możemy sądzić na podstawie decyzji podejmowanych przez jej posiadacza. Pojęcie podejmowania decyzji rozumiane jest szeroko. Zbieżne jest ono z poglądami Huberta Simona [1977, s. 39] (laureata Nagrody Nobla z dziedziny ekonomii twórcy tzw. podejścia decyzyjnego). Stwierdził on, że:..aby zrozumieć o co chodzi w podejmowaniu decyzji, pojęcie to powinno być interpretowane szeroko tak szeroko, że stałoby się ono synonimem do pojęcia zarządzania. Użyteczność informacji dla zarządzania zmienia się w czasie. W większości sytuacji użyteczność informacji w czasie zmniejsza się. Jednak taka sytuacja nie zawsze ma taki charakter. I tak informacja dotycząca nowych rozwiązań technologicznych ma swoją użyteczność dopiero po pewnym czasie, kiedy zostaną już opracowane szczegółowe rozwiązania techniczne. J. A. Senn [1995] wyróżnia następujące, podstawowe grupy informacji zarządczej (w naszej terminologii będzie to informacja dla zarządzania zmianami): 1. Informacja pokrzepiająca dotycząca bieżącej sytuacji organizacji. Ma ona na celu zapewnienie, że zmiany przebiegają zgodnie z przyjętymi założeniami. Czyli, na przykład, założone wskaźniki ekonomiczne są w organizacji realizowane. 2. Informacja rozwojowa związana z oceną stanu lub przebiegu jakiegoś zjawiska czy procesu zmian oraz pokazaniem ewentualnych trudności dotyczących jego realizacji. Takimi informacjami są, na przykład zmiany cen produktów rolnych w zależności od pory roku. 3. Informacja ostrzegawcza, która przedstawia, iż wystąpiły określone zagrożenia w wyniku realizacji zmian w organizacji lub też, że mogą one niebawem nastąpić. Taka informacja może opisywać, jaka jest sytuacja na rynku i czy nasze towary sprzedają się, czy też zalęgają w magazynach. 25

26 Zarządzanie informacją i wiedzą 4. Informacja planistyczna odnosząca się do przyszłości, czyli pokazująca, jaka będzie sytuacja po dokonaniu zmian. Taka informacja jest miedzy innymi zawarta w biznes planie. 5. Informacja operacyjna, która określa zmiany we własnej organizacji i pozwala na jej umiejscowienia na mapie działalności innych, podobnych organizacji. Taka informacja jest bardzo istotna w, opisanym dalej, branchmarkingu, gdzie analizujemy naszą organizację i wytwarzane przez nią produkty na tle zmian. 6. Informacja opiniodawcza, która dotyczy zarówno danych o najbliższym, jak i dalszym otoczeniu zmieniającej się organizacji. Informacje takie przekazujemy, na przykład, w folderach informacyjnych lub w prospektach reklamowych. 7. Informacje kontrolowane, które mają być przekazane otoczeniu (np. bankowi, mediom,) o zachodzących zmianach. Jest to, na przykład, informacja podająca, jakie wskaźniki ekonomiczne zostały przez nas w danym okresie osiągnięte. Zebrane informacje dotyczące zarządzania zmianami, potrzebne dla realizacji tego procesu, stanowią określone zasoby informacyjne oraz są podstawowym elementem systemu informacyjnego. Zamiennie z pojęciem informacja w literaturze bardzo często używa się pojęcia wiadomość i dana. Przyjmujemy, że informacja dla zarządzania ma charakter partykularny, tzn. przedstawiona jest w postaci wiadomości wyrażonych w określonych językach, czy też systemach znakowych. Znakową postać informacji będziemy nazywali danymi. Dane są taką postacią informacji, którą możemy przetworzyć z użyciem sprzętu komputerowego. Użytkownik otrzymuje dane w formie wiadomości. Wiadomości są to uporządkowane zbiory danych, które zawierają informacje dla zarządzania. W literaturze przyjmuje się, że dane są to surowe niepoddane analizie liczby i fakty dotyczące zjawisk lub wydarzeń. Informacja natomiast jest wynikiem uporządkowania danych lub ich przeanalizowania w jakiś znaczący sposób [Stoner, Freeman, Gilbert 1998, s. 589]. Do problematyki informacji i jej prezentacji powrócimy w dalszych rozdziałach. 26

27 Zarządzanie i informatyka cz. I Informacje, jak już przedstawiano, stanowią zasoby informacyjne danej organizacji i jej kapitał intelektualny. Zasoby te, aby były użyteczne nie mogą być zbiorem dowolnej ich prezentacji. Informacje winny być przedstawione w postaci określonego modelu. Wymagania dotyczące ich przetwarzania i przechowywania z użyciem ICT są różne i zależą od stosowanego hardwaru i softwaru. Można je zapisać bądź formalnie, bądź opisowo. Problem ten będzie dokładniej przedstawiony w dalszych częściach książki, kiedy będzie mowa o bazie danych i hurtowniach danych. Dowolny model informacyjny niezależnie od stosowanych rozwiązań sprzętowo-programistycznych, odwzorowuje pewien fragment realnego świata i przedstawiony jest z zastosowaniem określonego języka. Dla przedstawienia zasobów informacyjnych stosowane są między innymi podejścia: infologiczne i semantyczne. Podejście infologiczne zakłada, że informacje powinny: w pełni i elastycznie opisywać wybraną część rzeczywistości, pozwalać na otrzymanie nowych informacji o danej rzeczywistości, tak jak zrobiłby to człowiek. Rzeczywistość jest zbiorem powiązanych ze sobą obiektów. Obiektem może być zarówno rzecz fizyczna, a więc istniejąca, jak też zjawisko psychofizyczne typu; preferencje, zawód, poziom życia. Takie podejście pozwala na drodze skończonych kroków dezagregować dowolny obiekt rozłożony na atomy, które noszą nazwę obiektów prostych. Pojęcie obiektu złożonego i prostego zależy od kontekstu. I tak obiektem złożonym może być gospodarka światowa, a prostym gospodarka polska. Każdy obiekt ma co najmniej jeden atrybut, czyli cechę. Każdy obiekt istnieje w czasie. Zasoby informacyjne, stosując model infologiczny, możemy zapisać w postaci trójki: {X, Y, t} gdzie: X obiekt, Y cecha obiektu, t czasowy identyfikator obiektu. Między poszczególnymi obiektami i ich cechami zachodzą określone relacje. Precyzja definicji tych relacji zależy od precyzji zdefiniowania obiektów i ich cech. Relacja zależnie od liczby obiektów, które wiąże, ma określony stopień. I tak relacja binarna, czyli drugiego stopnia, wiąże dwa obiekty, natomiast relacja trzeciego stopnia wiąże już trzy obiekty. Podejście infologiczne w modelowaniu zasobów informacyjnych jest stosowane między innymi przy budowie baz i hurtowni danych. Podejście semiotyczne stosowane jest wtedy, kiedy mamy trudności z precyzyjnym wydzieleniem poszczególnych obiektów. W podejściu tym punkt ciężkości położony jest na analizie tzw. wskaźników ekonomicznych. Obiektem jest tu wskaźnik ekonomiczny. Jak pisze J. Oleński [2001], nie można bezpośrednio zmierzyć takich kategorii, jak: praca, kapitał. Wtedy posługujemy się standardowymi wyrażeniami językowymi zwanymi wskaźnikami. Z nich budujemy model semiotyczny. Podstawowym zadaniem jest przedstawienie związków (relacji) między wskaźnikami a ich atrybutami. Są to następujące relacje: nadrzędna podrzędna lub część całość. 27

28 Zarządzanie informacją i wiedzą Informacje mogą też być przedstawione w postaci jawnej i niejawnej. Pojęcie informacji niejawnej wyraża potrzebę minimalizacji, w sensie fizycznym, ilości gromadzonych informacji przy równoczesnej niezmienionej ilości pod względem merytorycznym. Informacja niejawna to taka, która pozwala na budowę nowych wskaźników bez potrzeby ich przechowywania w pamięci komputera. Wymagana jest natomiast znajomość procedury obliczania określonych wskaźników ekonomicznych Wiedza i jej rola w zarządzaniu Każdy z nas, czytając lekturę szkolną, zetknął się, choć nieświadomie, z zarządzaniem wiedzą. Praktyczna egzemplifikacja zagadnienia została przedstawiona w powieści Faraon Bolesława Prusa. To właśnie kapłani w walce z młodym faraonem wykorzystali swoją wiedzę o spodziewanym zaćmieniu słońca, co spowodowało sekwencję działań, w wyniku których kapłani osiągnęli sukces. I nie sama wiedza o zaćmieniu, ale jej umiejętne użycie spowodowało obalenie niechcianego władcy. Często, w praktyce gospodarczej, możemy zaobserwować następującą sytuację: dwie organizacje o bardzo zbliżonym profilu, parku maszynowym, lokalizacji, itd. uzyskują bardzo różne wyniki ekonomiczne. Jedna z nich ma się świetnie, personel jest zadowolony druga zaś jest na skraju bankructwa. Zastanawiając się nad przyczynami takiego stanu i prowadząc analizę tego zjawiska możemy w większości przypadków dać następującą ocenę. Pierwsze z analizowanych przedsiębiorstw uzyskało lepsze wyniki, ponieważ stosowało zasady zarządzania wiedzą. Dysponowało większymi zbiorami wiedzy, niż drugie przedsiębiorstwo bankrutujące, które nie umiało kreować i absorbować nowej wiedzy. Dyrektor szkoły w Hogwarcie, profesor Dumbledore, mówi: Konsekwencje naszych działań są tak złożone, tak różnorodne, czasem wręcz sprzeczne, że przewidywanie przyszłości jest naprawdę bardzo trudnym zajęciem [Rowling 2001, s. 441]. I tu może paść kolejne pytanie: kiedy możemy przewidzieć przyszłość, jeżeli nie mamy czarodziejskiej różdżki profesora Dumbledora? Tylko wtedy, kiedy posiadamy i umiemy generować wiedzę o organizacji i otaczającym ją świecie, możemy podejmować prawidłowe decyzje, które będą przynosić pożądane rezultaty w przyszłości. Niezależnie od dalej przytoczonych definicji uważamy, że zarządzanie wiedzą jest procesem, w którym dla realizacji postawionych celów umiemy: wykorzystać posiadane w organizacji zasoby wiedzy, poszukiwać i absorbować zewnętrzne zasoby wiedzy, stworzyć takie warunki, aby wszyscy uczestnicy procesu decyzyjnego czuli się zobowiązani do dzielenia się posiadanymi zasobami wiedzy i jej kreowaniem. 28

29 Zarządzanie i informatyka cz. I Zarządzanie wiedzą polega nie tylko na umiejętnym wykorzystaniu posiadanych jej zasobów, ale też na osiągnięciu efektu synergicznego, czyli uzyskaniu wyższych efektów, niż by to wynikało z bezpośredniego jej wykorzystania. Oczywiście dla realizacji zasad zarządzania wiedzą musimy dysponować nie tylko odpowiednimi je zasobami, ale też określoną infrastrukturą zarządzania zbudowana z użyciem ICT. Zarządzanie wiedzą nie jest modą, ale kierunkiem rozwoju nauk o organizacji i zarządzaniu. Jego stosowanie jest zależne od wszystkich wymienionych już systemów. Szczególnie mocno uwydatnia się zależność między systemem pozyskiwania i zarządzania wiedzą a systemem zarządzania (scentralizowany, zdecentralizowany). System sprawowania władzy wpływa bowiem na procedurę pozyskiwania wiedzy oraz jej udostępnianie i kreowanie. Nie jest naszym celem wartościowanie tych procedur, lecz wykazanie ich różnic. Wybór określonego systemu zarządzania przesądza równocześnie, jak będzie organizacja pozyskiwać wiedzę i jak nią zarządzać, a więc jaki system informacyjny zostanie zaprojektowany. Termin wiedza rozumiany jest w literaturze różnie, choć definicje mają wspólne cechy. W Encyklopedii PWN [2001] wiedza, w węższym znaczeniu, to ogół wiarygodnych informacji o rzeczywistości wraz z umiejętnością ich wykorzystywania; w społeczeństwach współczesnych wiedza w tym znaczeniu, to przede wszystkim, choć nie wyłącznie, wiedza naukowa; zajmuje się nią głównie teoria poznania i filozofia nauki. W szerokim znaczeniu wszelki zbiór informacji, poglądów, wierzeń itp., którym przypisuje się wartość poznawczą i/lub praktyczną. W trójkącie niematerialnych wartości organizacji wiedza zajmuje miejsce pośrednie między informacją a mądrością (rysunek I.2). Jak piszą Nonaka i Takeuchi [2000] bardzo często zamiennie stosuje się termin wiedza i informacja. Jednak według nich informacja jest strumieniem wiadomości, podczas gdy wiedza jest jego wytworem, zakorzenionym w przekonaniach i oczekiwaniach odbiorcy. J. Oleński [2001] uważa natomiast, że wiedza jest to zebrana i zakumulowana informacja. Rysunek I.2. Trójkąt niematerialnych zasobów organizacji Źródło: prezentowane w wielu publikacjach. 29

30 Zarządzanie informacją i wiedzą Relacje zachodzące między danymi, informacją a wiedzą przedstawia rysunek I.3. Rysunek I.3. Relacje zachodzące między danymi, informacją i wiedzą Źródło: E. Turban [2001]. Możemy więc na podstawie analizy literatury przedmiotu przyjąć, że: Wiedza to niematerialne zasoby organizacji związane z ludzkim działaniem, które zastosowane, mogą być podstawą przewagi konkurencyjnej. Jest ona wynikiem posiadanych zasobów: danych, informacji, procedur, jak też doświadczenia i wykształcenia. Wiedza bardzo silnie wiąże się z takimi czynnikami jak: kultura, etyka, intuicja, warunki pracy, styl zarządzania. Ten ostatni, jak już wcześniej zaznaczono, ma decydujący wpływ na sprawność systemu zarządzania wiedzą, a tym samym na konkurencyjność danej organizacji. Zgodzić się należy z B. Wawrzyniakiem [2001], że z punktu widzenia zarządzania, podstawowym problemem nie jest wiedza sama w sobie, ale jej zastosowanie w praktyce. Idąc dalej można przyjąć, że to, czy dany zasób jest zasobem danych, czy też informacji, czy też wiedzy ujawnia się w trakcie jego użytkowania. Podziały przedstawione na rysunku I.2 nie są ostre i zawsze istotne jest ich występowanie w konkretnym kontekście. Niekiedy uważa się, że wiedza jest tym zasobem niematerialnym, który nie zużywa się w trakcie jej udostępniania. Pogląd ten słuszny jest tylko z punktu widzenia analizy fizycznych nośników wiedzy. Wiedza zapisana na komputerowych nośnikach danych, czy też wypowiedziana nie zużywa się w sensie fizycznym. W trakcie rozpowszechniania jednak traci wartość i unikalność. Podobnie jak podczas zmieniających się warunków działań. Z tym zagadnieniem styka się każdy, kto zajmuje się problematyką pozyskiwania wiedzy. Wynika to z faktu, że zupełnie inną wartość ma wiedza będąca w dyspozycji jednej osoby, niż ta sama wiedza, którą dysponują wszyscy. Istotniejsza dla naszej analizy jest klasyfikacja zasobów wiedzy dla zarządzania organizacją z punktu widzenia możliwości jej zapisania i przetworzenia w systemach informatycznych. W literaturze, szczególnie z obszaru filozofii, często stosujemy podział na: wiedzę ezoteryczną (tajemną), która jest przeznaczona tylko dla grona wtajemniczonych, wybrańców, wiedzę egzoteryczną, czyli popularną, powszechnie dostępną dla każdego, który pragnie ją posiąść. 30

31 Zarządzanie i informatyka cz. I Powszechnie wiedzę dzieli się na ogólną i specjalistyczną, ekspercką, ale też na wiedzę użyteczną i bezużyteczną. Kryteria podziału są tu dość płynne i subiektywne. Dlatego, aby przypisać określony rodzaj wiedzy do określonej kategorii należy dobrze znać potrzeby użytkownika/ków. Dla zarządzania szczególnie istotna jest identyfikacja istniejących i przyszłych sytuacji decyzyjnych. Można wyróżnić dwa podejścia do tworzenia zasobów wiedzy: zachodnie tradycyjne oraz japońskie. W podejściu zachodnim preferuje się wiedzę jawną. Pogląd ten reprezentowany jest między innymi przez Simona i Druckera, a polega na tym, że wiedza utożsamiana jest z zapisem w bazie danych, wzorem chemicznym lub zestawem reguł postępowania. Firma konsultingowa Artur Andresen [Nanda 2002] z sformalizowanych procedur tworzenia wiedzy zrobiła podstawową zasadę funkcjonowania. Czy trzymanie się mocno tej zasady przyczyniło się do jej upadku to już oddzielny problem. Wydaje się, że dla sprawnego funkcjonowania firmy niezbędne jest również zwrócenie uwagi na tzw. japońskie pojmowanie wiedzy. Jest ono niestety bardzo trudne dla tych, którzy zajmują się jej zapisem w systemie informatycznym. Podejście japońskie, prezentowane między innymi przez I. Nonaka i H. Takeuchi [2000, s. 25], stanowi, że wiedza sformalizowana, wyrażona w słowach i liczbach, to zaledwie wierzchołek góry lodowej. Japońskie korporacje postrzegają wiedzę przede wszystkim jako wiedzę ukrytą, czyli coś, co nie jest wprost dostrzegalne i wyrażalne. Ta wiedza wpływa na wartość organizacji, a jest wysoce indywidualna i trudna do sformalizowania. Sprawia to, że trudno ją przekazać lub podzielić się nią z innymi. Do tej kategorii wiedzy zalicza się między innymi: intuicję, przeczucia, kulturę organizacji, a więc wszystko, czego nie można wyrażać w artefaktach. Ponadto wiedza ukryta jest głęboko zakorzeniona zarówno w indywidualnym działaniu i doświadczeniu, jak i w jednostkowych ideałach, wartościach czy emocjach i tego, co nazywamy, chociaż niezbyt precyzyjnie to trzeba zrobić. Wiedza jawna jest dość prosta do zapisania w systemie informatycznym. Takie narzędzia jak bazy danych, nie mówiąc już o bazach wiedzy, nie mają trudności z jej przechowaniem. Zapisuje się ją z użyciem różnych modeli, takich jak tablice decyzyjne, drzewa celów, harmonogramy PERT, modele J. Forrestera czy inne. Nieco trudniejszy jest zapis wiedzy niejawnej, która jest zarejestrowana bardzo często tylko w naszych umysłach. Zależnie od stosowanego w organizacji systemu zarządzania, zachodzą między nim a typem wiedzy określone relacje patrz tabela I.1. W tabeli I.1 przedstawiono jaki typ wiedzy jest najbardziej użyteczny z punktu widzenia systemu zarządzania. Dla uproszczenia przyjęto dwa podstawowe systemy zarządzania, a mianowicie scentralizowany i zdecentralizowany. Wracając do podstawowego nurtu opracowania, możemy stwierdzić, że scentralizowany system zarządzania jest łatwiejszy dla informatyka. Popyt na wiedzę dotyczy wtedy szczególnie wiedzy jawnej, a ta, przy 31

32 Zarządzanie informacją i wiedzą dostępnych środkach technicznych (współczesnej TI), jest łatwa do gromadzenia i zapisania w bazie wiedzy. Tabela I.1. Zależności między systemem zarządzania a typem wiedzy Treść Wiedza jawna Wiedza ukryta Scentralizowany system zarządzania Decydujący typ potrzebnej wiedzy dla procesu decyzyjnego Uzupełniający typ potrzebnej wiedzy dla procesu decyzyjnego Zdecentralizowany system zarządzania Uzupełniający typ potrzebnej wiedzy dla procesu decyzyjnego Decydujący typ potrzebnej wiedzy dla procesu decyzyjnego Źródło: opracowanie własne. Dla celów tego opracowania użyteczny będzie bardziej szczegółowy podział podstawowych typów wiedzy. Przedstawiona dalej propozycja jest modyfikacją modelu tzw. okna Jehari (Jehari window). Model ten stosowany jest dla analizy systemu komunikacji interpersonalnej. Adaptację tego modelu dla klasyfikacji podstawowych typów wiedzy przedstawia tabela I.2. Tabela I.2. Klasyfikacja podstawowych typów wiedzy z punktu widzenia jej znajomości Wiedza otwarta, czyli wiedza dostępna dla organizacji, i jej pracowników i dla jej otoczenia. Wiedza ślepa, czyli wiedza niedostępna dla organizacji i jej pracowników, ale dostępna dla jej otoczenia. Wiedza ukryta, czyli wiedza dostępna dla organizacji i jej pracowników, a niedostępna dla jej otoczenia. Wiedza nieznana, czyli wiedza niedostępna dla organizacji i jej pracowników i niedostępna również dla jej otoczenia. Źródło: opracowanie własne na podstawie Grodkowski [2001, s ] oraz Steward red. [2000, s. 269]. Podziały przedstawione w tabelach I.1 i I.2 są pewnym uproszczeniem. Brak jest tam trzeciego wymiaru, czyli szczebla decyzyjnego, a pośrednio rozpatrywanego horyzontu czasu. Taka trójwymiarowa kostka ma na osi z szczebel decyzyjny, a więc wiedzę potrzebną dla podejmowania decyzji na poziomie: operacyjnym, taktycznym i strate-gicznym. Ten właśnie ostatni szczebel decyzyjny ma istotne znaczenie w procesie gromadzenia zasobów wiedzy. Jak wykazują badania przeprowadzone przez zespół G. von Krogh, 32

33 Zarządzanie i informatyka cz. I K. Ichijo, I. Nonaka, sukcesy takich korporacji, jak: GM czy Toyota są wynikiem odpowiedniego systemu gromadzenia wiedzy na szczeblu strategicznym [Krogh, Ichijo, Nonaka 2000]. Jeśli więc wiedza dla podejmowania decyzji powinna być gromadzona na szczeblu najwyższym, znaczenia nabiera system zarządzania. System generacji wiedzy w systemie informacyjnym organizacji będzie bliżej przedstawiany w punkcie 4.2. Z czterech rodzajów wiedzy z tabeli I.2 tylko jedna z nich, a mianowicie wiedza otwarta, zwana również wiedzą dostępną, nie sprawia trudności zapisu w syste-mie informatycznym. Pozostałe typy są kłopotliwe z punktu widzenia ich umieszczeniu w bazie danych. Najczęściej nie umiemy jej przedstawić w takiej postaci, aby można było użyć TI. Rola TI dla zarządzenia wiedzą, jak stwierdza McDermott [1999], jest inspirująca. Jak piszą Hansen i wsp. [1999], tylko zastosowanie komputerów pozwala na przyjęcie właściwej strategii rozwoju organizacji. Podobny pogląd jest bardzo często reprezentowany w literaturze (por. np. monografię Rosenberga [2001], który uważa, że komputerowa infrastruktura stanowi podstawę zarządzania wiedzą). W. Grudzewski i I. Hejduk [2000, s. 68] analizując wpływ rozwoju technologii na przedsiębiorstwo przyszłości wyciągają wniosek, że olbrzymia produkcja Boeinga czy działalność Billa Gatesa nie były by możliwe bez zastosowania nowoczesnych metod zarządzania, wysokiej kultury organizacyjnej, supernowoczesnej technologii oraz współczesnych technik informatycznych. Przywołani autorzy uważają też, powołując się na opinie teoretyków zarządzania, że nadchodzące lata to epoka wiedzy i przetwarzania informacji. Epoka ta to droga do tworzenia kapitału intelektualnego Kapitał intelektualny i jego tworzenie W tym miejscu może paść pytanie: Po co organizacji potrzebne są informacje i wiedza, a także jaka jest tu rola informatyki? Efektem posiadania odpowiednich zasobów informacji i wiedzy jest to, o czym już wcześniej wspominano, a mianowicie powiększanie wartości organizacji, czyli tzw. Business Value. Oba te elementy (informacja i wiedza) tworzą kapitał intelektualny. Korzystając z rozważań zaprezentowanych między innymi w pracy zbiorowej pod redakcją M. Bratnickiego i J. Strużyny [2001] i modyfikując zamieszczone tam określenie kapitału intelektualnego przyjmujemy, że: Kapitał intelektualny jest to suma istotnych dla funkcjonowania organizacji informacji i wiedzy, którą posiadają ludzie tworzący tę społeczność oraz przekształcają je w składniki wartości organizacji. 33

34 Zarządzanie informacją i wiedzą Wynika stąd, iż na całkowitą wartość organizacji składa się: kapitał materialny będący składową kapitału rzeczowego i finansowego, kapitał intelektualny, w którego skład wchodzą kapitały: społeczny, ludzki, organizacyjny. Elementami składowymi kapitału intelektualnego są więc dwie jego części. Pierwsza reprezentuje niewidzialne zasoby oraz procesy, tworzy kapitał organizacyjny oraz społeczny. Druga z kolei reprezentuje posiadane zasoby informacji i wiedzy ludzi, co charakteryzuje kapitał ludzki. Czytelnikowi zainteresowanemu tą problematyką polecić można monografię autorstwa A. Jaspahara [2006], który przedstawia przegląd różnych modeli kapitału intelektualnego. Większość prac czy to prezentowanych w literaturze polskiej, czy zagranicznej opiera się na różnych wariantach modelu G. Petrasha [1996]. Jedną z takich modyfikacji modelu kapitału intelektualnego dokonaną przez A. Jaspahara [2006] przedstawia rysunek I.4. Rysunek I.4. Model kapitału intelektualnego Źródło: por.: A. Jaspahara [2006]. Poszczególne kategorie wymienione w modelu oznaczają: Kapitał ludzki (human capital): wartość posiadanych informacji i wiedzy umożliwiających ludziom wytwarzanie dóbr lub usług. Kapitał organizacyjny (organisational capital): wartość zasobów informacji i wiedzy, które nie zanikają z organizacji wraz z odejściem pracowników. Kapitał społeczny (social capital): wartość przypisywana sile powiązań, kontaktów i interakcji oraz jednolitości rozumienia faktów w ramach sieci społecznych występujących w organizacji. Kapitał w klientach (customer capital), czyli wartość przypisana relacjom organizacji z klientami, w tym ich lojalność. 34

35 Zarządzanie i informatyka cz. I S. Kasiewicz, W. Rogowski, M. Kicińska [2006], określają kapitał intelektualny za pomocą pojęcia wiedzy. S. Zambon [2002] uważa, iż kapitał intelektualny jest to ta wiedza i informacja, która może być przekształcona w zysk. Inne zdanie z kolei prezentuje T. Steward [1997], który stwierdza, iż kapitał intelektualny firmy stanowi sumę wszystkiego, co wie każdy jej pracownik, i co daje organizacji przewagę konkurencyjną, a więc informacja i wiedza. Z analizy literatury dotyczącej pojęcia kapitału intelektualnego i jego elementów składowych, a zwłaszcza prac L. Huntera [2002] i D. Skyrme [2003], możemy wyciągnąć wnioski, że na jego wielkość składają się następujące czynniki: materialne patenty, znaki handlowe, licencje projektowe, itd. (uznawane przez rachunkowość za wartości niematerialne), niematerialne (w potocznym słowa znaczeniu) kapitał ludzki, wiedza, informacja, struktura i procesy organizacyjne. Rola kapitału intelektualnego w tworzeniu wartości organizacji jest znaczna. Jednak problem, jak wspomniano, nie jest jednoznacznie przedstawiony w literaturze przedmiotu. Najprostsza metoda wyceny kapitału intelektualnego, to pomiar różnicy między wartością rynkową, a wartościową księgową. Różnice między wartością rynkową a księgową zależą od wielu czynników. Niektóre z nich nie są związane z informacją i wiedzą, a zależą tylko od czynników zewnętrznych, (np. od sytuacji politycznej). I tak wartość firm cementowych w Polsce wzrosła dzięki temu, że Polska i Ukraina otrzymały zgodę na realizację przedsięwzięcia Euro Można też powiedzieć, że dzięki posiadanym informacjom i wiedzy o możliwościach rozwoju organizacji, popyt na kapitał intelektualny wzrósł i dalej jej wartość rynkowa również wzrosła. W ocenie kapitału intelektualnego mamy do czynienia z takimi trudnościami, jak: zmienność w czasie i różne znaczenie informacji i wiedzy dla poszczególnych decydentów. Zupełnie inną wartość ma kapitał intelektualny, który jest w dyspozycji jednej osoby niż ten, którym dysponuje wiele osób. Informacja i wiedza, jako element kapitału intelektualnego, może mieć bardzo duże znaczenie, natomiast po pewnym czasie staje się ona bezużyteczna, a niekiedy nawet szkodliwa. Dzieje się tak, na przykład, wtedy, kiedy mamy informacje o dobrych wynikach organizacji z przeszłości, ale nie mamy aktualnych informacji, a tymczasem, w ostatnim okresie, nastąpiła znaczna zmiana: organizacja z lidera stała się bankrutem. Jeśli podejmie się decyzję zakupu akcji na podstawie tych nieaktualnych, historycznych informacji konsekwencje są łatwe do przewidzenia. Wartość kapitału intelektualnego zależy od kontekstu. Dlatego, aby przypisać określony rodzaj kapitału intelektualnego do określonej kategorii problemu decyzyjnego, należy dobrze znać potrzeby użytkownika/ków. Dla zarządzania szczególnie istotna jest identyfikacja istniejących i przyszłych sytuacji decyzyjnych i związane z tym potrzeby informacyjne i wiedzy. Istotny jest też istniejący w organizacji system przesyłania informacji i dzielenia się wiedzą. Wiąże się to bezpośrednio z funkcjonowaniem systemu informacyjnego orga- 35

36 Zarządzanie informacją i wiedzą nizacji, który będzie analizowany w następnych punktach książki. Tu tylko pragniemy zasygnalizować wpływ systemu przekazywania informacji i wiedzy na proces zarządzania. Zachodnie i japońskie podejścia do tworzenia zasobów informacji i wiedzy (wiedza jawna i ukryta oraz modele, zostały omówione w poprzednim punkcie), ukształtowały się na podstawie historycznego rozwoju takich elementów zarządzania organizacją, jak: system zatrudniania i rozwoju karier oraz struktur organizacyjnych w tych regionach świata. G. Hedlund [1994] uzasadnia, że logika organizacji zbudowanych zarówno według norm zachodnich, jak i japońskich nie sprzyja efektywnemu zarządzaniu. To samo możemy powiedzieć o tworzeniu zasobów informacji i wiedzy, a tym samym o procesie kreowania kapitału intelektualnego. Organizacja zbudowana według tych logik jest to struktura wielooddziałowa, która stworzona została po to, aby: umożliwić zarządzanie organizacją, kontrolować koszty administracyjne i łatwiej rozwiązywać potencjalne problemy kontroli nad nią. Takie podejście decentralizuje podejmowanie decyzji operacyjnych do poziomu operacyjnego, natomiast decyzje strategiczne podejmowane są na najwyższym poziomie zarządzania. Zarząd organizacji monitoruje funkcjonowanie i wyniki podległych mu jednostek za pomocą różnego rodzaju wskaźników efektywności, stosując w tym celu narzędzia informatyczne. Wadami takiej struktury są: dodatkowe poziomy hierarchii, oportunizm i krótkowzroczność wynikające z tego, że zarządzający oddziałami ukierunkowani są na podejmowanie decyzji operacyjnych. W takiej strukturze organizacyjnej jednostki raczej konkurują niż współpracują. Alternatywną dla struktury hierarchicznej ma być struktura N-form proponowana przez G. Hedlunda [1994]. Atrybutami tej formy organizacji są: tworzenie swobodnych i tymczasowych grup ludzi oraz komunikacja równoległa, pozioma. Zarządzający mają raczej spełniać rolę katalizatorów w organizacji. Dużą rolę przykłada się do personelu średniego i niższego szczebla. W konsekwencji taka struktura pozwala na łatwiejsze tworzenie kapitału intelektualnego, jak i łatwiejszy przepływ informacji i wiedzy. Ta forma zarządzania będzie rekomendowana w części opisującej organizację zespołów projektowych. 36

37 Rozdział 3 Infrastruktura zarządzania 3.1. Informatyczna Infrastruktura Zarządzania (IIZ) jako element Systemu Informacyjnego Zarządzania (SIZ) Zasoby informacji i wiedzy są podstawowymi elementami informatycznej infrastruktury zarządzania (IIZ). A ta z kolei jest elementem infrastruktury państwa, organizacji, przedsiębiorstwa. Pod pojęciem infrastruktury rozumie się podstawowe urządzenia i instytucje, niezbędne do funkcjonowania gospodarki i społeczeństwa. Infrastruktura państwa (coraz częściej mówimy o infrastrukturze globalnej) obejmuje miedzy innymi: Infrastrukturę techniczną, w skład której wchodzą między innymi drogi, sieci przesyłowe, obiekty świadczące niezbędne i podstawowe usługi dla określonych jednostek przestrzenno-gospodarczych (osiedla, miasta, przedsiębiorstwa itp.), sieć kanalizacyjna, sieci telefoniczne, Internet itp. Infrastrukturę społeczną, obejmującą usługi z obszaru prawa, bezpieczeństwa, oświaty i nauki, kultury, opieki społecznej, a także szkoły, szpitale, sądy, więzienia, instytucje. Inne infrastruktury, jak: kulturalna, oświatowa, turystyczna. Słowo infrastruktura pochodzi z języka łacińskiego od: infra pierwszy człon wyrazów złożonych, odpowiadający polskiemu pod, poniżej oraz structura oznaczająca układ i wzajemne relacje elementów (części) stanowiących całość, np. struktura zarządzania, system polityczny, struktura atomu, struktura społeczna, struktura systemu komputerowego itp. Infrastruktura, np. wspiera działalność produkcyjną, służy rozwojowi produkcji, choć sama nie bierze bezpośredniego w niej udziału. Występuje w dwóch układach: w roli obiektowej i procesowej. Informatyczna infrastruktura zarządzania ma właśnie te dwa aspekty: obiektowy, często zwany instytucjonalnym, to na przykład, dział TI często też nazywany przetwarzania danych, w większych organizacjach może być to pion projektowania systemów informatycznych, procesowy, który można nazwać funkcjonalnym, to informacyjna infrastruktura jako narzędzie wspomagające procesy biznesowe (zarządzania). 37

38 Infrastruktura zarządzania Informatyczna infrastruktura zarządzania w skrócie IIZ, jest rozpatrywana w aspekcie procesowym, czyli jako narzędzie wspomagające procesy zarządzania. We współczesnych systemach informacyjnych zarządzania, właśnie IIZ stanowi jądro (platformę) jego funkcjonowania. W książce zajmujemy się jednym z ważnych elementów współczesnego zarządzania, jakim są narzędzia informatyczne. W roku 1993 napisałem monografię pt. Informatyczna infrastruktura zarządzania gdzie uzasadniałem następujące hipotezy: Współczesne zarządzanie musi posługiwać się informatyką jako narzędziem w zarządzaniu. Współczesna informatyka jest w pełni przygotowana do tego, aby użytkownicy mogli się nią posługiwać przy rozwiązywaniu nawet najbardziej złożonych zadań. Rozwój informatyki dla zarządzania to tworzenie mocnej i użytecznej infrastruktury zarządzania, którą może posługiwać się użytkownik nie informatyk, bez pośredników. Zastosowanie informatyki w zarządzaniu (inaczej informatyki zarządczej) ma swoją własną teorię i wykorzystuje dorobek innych działów nauki, jak: socjologia, psychologia, prakseologia. To, co powiedziałem wiele lat temu nic nie straciło na aktualności. Recenzent mojej książki habilitacyjnej profesor Zdzisław Hellwig, zadał mi wówczas pytanie: czy infrastruktura informatyczna to materialna substancja, czy też wygodny eufemizm, pod którym kryją się bardziej filozoficzne niż materialne fakty?. Uważam, że informatyczna infrastruktura zarządzania (IIZ) to przede wszystkim substancja materialna, która ma swoje miejsce, wartość, cenę i przeznaczenie. Ma jednak również aspekt filozoficzny, bo zarządzanie to nie tylko nauka (science), ale także sztuka (art). Informatyczna struktura zarządzania (IIZ) to zbiór, którego elementami są: 1. Hardware (sprzęt). 2. Software (oprogramowanie). 3. Zasoby informacji, wiedzy, modeli i procedury. 4. Sieci. Hardware to sprzęt techniczny, dzięki któremu informacje są nadawane, odbierane, przetwarzane i przesyłane. Jest to zbiór, który składa się z rożnego rodzaju urządzeń technicznych takich, jak: procesor, pamięć, urządzenia wejścia (klawiatura, czytniki), urządzenia wyjścia (monitory, drukarki). W sprzęcie tym obserwujemy najbardziej dynamiczny 38

39 Zarządzanie i informatyka cz. I rozwój, niesamowity postęp techniczny. Normalną infrastrukturą współczesnego kierownika i pracownika jest osobisty (tzw. personalny) komputer lub laptop. Obecnie coraz bardziej popularny jest telefon komórkowy, który posiada wiele cech osobistego komputera, a między innymi pozwala na łączenie się z Internetem. Software w języku polskim oprogramowanie komputerów. Jest to zbiór programów i instrukcji napisanych w specjalnym języku, który jest zrozumiały dla komputera. Pracownik nie musi znać żadnego języka programowania, aby posługiwać się potrzebnym mu oprogramowaniem. Współczesne oprogramowanie jest przyjazne i wyposażone w bardzo rozbudowany system podpowiedzi, tzw. helpów. Za pomocą odpowiedniego oprogramowania budowane są podstawowe narzędzia systemów informacyjnych takie jak: bazy danych, bazy modeli i bazy wiedzy. Oprogramowanie dzielimy na narzędziowe, związane ze sprzętem i aplikacyjne, związane z użytkownikiem. W komputerze mamy też oprogramowanie diagnozujące, które udziela informacji użytkownikowi o zaistniałych nieprawidłowościach i metodach rozwiązania pojawiających się problemów. Zasoby informacji, wiedzy, modele i procedury. Problem zasobów informacji i wiedzy był przedstawiony w poprzednim punkcie. Zasoby te przechowywane są w komputerze za pomocą specjalnego oprogramowania w wymienionych wcześniej tzw. bazach. I tak: bazy danych są to specjalnie zorganizowane zbiory wzajemnie powiązanych danych. Baza danych zaspokaja potrzeby informacyjne jednego lub wielu użytkowników. Dane są tak zorganizowane, że korzystanie z nich jest niezależne od oprogramowania, jak i od posiadanego sprzętu. Powszechnie się uważa, że dopiero od czasu powstania bazy danych możemy mówić o pełnym zastosowaniu systemów informatycznych w zarządzaniu. W bazie danych zawarte są, między innymi, informacje o organizacji i jej pracownikach dotyczące, na przykład, ścieżek karier, ocen, nagród, itd. W bazie danych zawarte są też tzw. meta dane (czyli dane o danych) i para dane (czyli dane o źródłach danych). Jeżeli przyjmujemy, że model jest to uproszczony opis rzeczywistości w którym abstrahujemy od drugorzędnych cech tej rzeczywistości to Baza modeli, która zawiera zbiór modeli matematycznych, jak i bardzo różne sformalizowane procedury, pozwala na określenie, na drodze odpowiednich wyliczeń, jak i symulację komputerową wyliczenie i ocenę różnego ryzyka, konsekwencji podejmowania różnych decyzji. Umożliwia również wielokryterialną ocenę kondycji finansowej organizacji. Baza wiedzy, umożliwia zarówno zarządzanie wiedzą, jak i podejmowanie decyzji w sytuacjach kryzysowych oraz wspomaga pracownika w bardziej złożonych sytuacjach, np. w procesach negocjacji. Sieć to system, którego elementami są: organizacja, sprzęt oraz oprogramowanie umożliwiające wspólną pracę dwu lub więcej komputerów, a w pewnych sytuacjach pozwalająca na pracę jednego komputera z terminalami, czyli końcówkami. Dzięki sieci możliwe jest połączenie komputerów w regionie, kraju lub na całym świecie (przykładem takiej globalnej sieci jest Internet). Powiązania te pozwalają na tworzenie nowych systemów organizacji, takich jak dalej prezentowana, organizacja wirtualna. Coraz częściej telekomu- 39

40 Infrastruktura zarządzania nikacja nie wymaga stosowania fizycznych urządzeń w postaci sieci telefonicznej lub światłowodowej, ale stosuje układ bezprzewodowy albo łączność satelitarną. W dalszych rozdziałach będziemy powracać do tych charakterystyk zwłaszcza w aspekcie baz danych, wiedzy i modeli. Są one, bowiem podstawą wszystkich systemów informatycznych wspomagających zarządzanie. IIZ wchodzi w skład określonych systemów, takich jak: informatyczne, informacyjne i zarządzania. Ich charakterystyka zostanie przedstawiona w następnym punkcie rozdziału. Systemy te, jako synteza wszystkich elementów informatycznej infrastruktury, mogą zaoferować wyższą jakość procesu zarządzania tym, którzy odpowiadają za wyniki organizacji i w niej pracują. Człowiek to najważniejszy element całego systemu. Informatyczna infrastruktura tworzona jest przez ludzi, którzy: zarządzają, projektują, programują, eksploatują, konserwują system. Tworzona jest ona dla szerokiej gamy użytkowników. Przygotowanie twórców informatycznej infrastruktury zarządzania i jej użytkowników decyduje o tym czy będzie ona efektywna. Na nic zda się zastosowanie najnowszego sprzętu informatycznego i oprogramowania, jeżeli personel projektujący nie będzie na najwyższym profesjonalnym poziomie, a użytkownicy nieprzygotowani do posługiwania się TI. Duże organizacje mają specjalne służby informatyczne czuwające nad eksploatacją systemu i stale go udoskonalające. Małe firmy najczęściej korzystają z zewnętrznych usług, czyli stosują zasady outsoursingu. Posługiwanie się współczesną IIZ jest bardzo przyjazne. Posiada ona specjalne oprogramowanie (tzw. interface), które ma wbudowany system pomocy, a w tym system podpowiedzi w sytuacjach, kiedy nie wiemy, jak dalej postępować. Z systemu podpowiedzi można skorzystać formułując swój problem w sposób jak najbliższy użytkownikowi i w języku potocznym (naturalnym). System podpowiedzi metodą zadawania szczegółowych pytań postawi diagnozę, a następnie zaproponuje najbardziej efektywną metodę rozwiązania problemu. Decyzja o wydatkowaniu środków na system informatyczny, jak wykazały odpowiednie badania (o których będzie mowa w ostatniej części książki) jest opłacalna. Oczywiście pod warunkiem, że kupujemy odpowiednią do naszych potrzeb informatyczną infrastrukturę zarządzania oraz mamy przeszkolony personel, który wie jak można zastosować ją w praktyce organizacji. Obecnie trudno jest znaleźć taką organizację, w której nie byłoby systemu informatycznego. Nawet w niewielkich firmach takich, jak np. wypożyczalnia kaset video, apteka, sklep, fryzjer, restauracja, biuro podróży używa się komputera do codziennej działalności. Natomiast, gdy czytelnik zapyta: czy posiadana IIZ jest w odpowiednio i najlepiej wykorzystana, to autor miałby duże trudności z precyzyjną odpowiedzią. Jak wykazuje doświadczenie i przeprowadzone analizy zasadności poniesionych nakładów na TI, nie można udzielić jednoznacznej odpowiedzi. Podejmowane decyzje są tu dalekie od optymalnych. 40

41 Zarządzanie i informatyka cz. I Podstawowe pytanie, na które musimy odpowiedzieć przed podjęciem decyzji o zakupie czy projektowaniu IIZ, to przeprowadzenia analizy organizacji, w której powinno nastąpić określenie: Jakie są potrzeby organizacji co do zastosowania lub unowocześnienia istniejącej IIZ? W jakim zakresie IIZ może być pomocna dla zarządzania organizacją? Dla precyzyjnej odpowiedzi dotyczącej użyteczności posługiwania się narzędziami informatycznymi należy przeprowadzić rachunek ekonomiczny, który będzie prezentowany w ostatniej części książki. W tym miejscu pragniemy zwrócić uwagę na fakt, że użyteczność informatyki i tworzonych na jej bazie systemów jest bardzo silnie uzależniona od stylu i systemu zarządzania organizacją. Pragniemy zaznaczyć, że na przykład w organizacji praktykującej biurokratyczny styl zarządzania, system IIZ będzie dla pracowników jeszcze bardziej dokuczliwy. Komputer jest odporny na próby przekupienia i bardzo rygorystycznie przestrzega wprowadzonych do niego procedur. I tak, jeżeli w programie jest zapisane, że obowiązkiem pracownika jest rozpoczęcie pracy o godzinie 8.00, to jeżeli przyjdzie do pracy 10 sekund po 8.00 będzie miał odnotowane spóźnienie. Dzięki wprowadzeniu bardzo ostrych zasad biurokratycznych, związanych z przetwarzaniem i bezpieczeństwem danych zawartych w systemach informatycznych, na pewno jego zastosowanie nie będzie przyjmowane dobrze przez pracowników organizacji. Jednak stosując zarządzanie zdecentralizowane oparte na informacji i wiedzy, dzięki tej samej informatyce, praca będzie bardziej efektywna i przyjazna Informatyka w zarządzaniu i jej powiązania z innymi dyscyplinami naukowymi Informatyka w postaci IIZ jest bardzo mocnym narzędziem dla wspomagania zarządzania o wszechstronnych zastosowaniach. Analizując jej zastosowania możemy stwierdzić, że trudno wyznaczyć granice, poza którymi nie może być ona stosowana. Problem, to tylko środki finansowe i umiejętności ludzi formułujących zagadnienia, które chcą rozwiązać. Podstawowe zadanie informatyki w zarządzaniu to wspomaganie zarządzania a zwłaszcza procesów decyzyjnych na wszystkich szczeblach organizacyjnych zarówno w skali makro- (państwo, sektor, branża), jak i mikro- (organizacja i jej elementy). Informatyka jest tym narzędziem, dzięki któremu proces zarządzania powinien być skuteczny i efektywny. Jak spełnić takie kryteria to temat dalszych rozdziałów. Jeżeli, przyjmiemy, że zarządzanie jest to proces składający się z następujących czterech etapów: planowanie, organizowanie, motywowanie, kontrolowanie (patrz rys. I.5) to IIZ ma powiązania z nimi wszystkimi i wspiera je. 41

42 Infrastruktura zarządzania Rysunek I.5. Rola informatyki w procesie zarządzania Źródło: opracowanie własne. Prezentacja zastosowań systemów informatycznych w poszczególnych fazach procesów zarządzania będzie przedstawiona w dalszych częściach książki. Tu tylko skrótowo scharakteryzujemy ich rolę w poszczególnych fazach procesu zarządzania. Planowanie. Jeżeli zarządzamy daną organizacją lub projektem, to zawsze musimy sprecyzować cel lub cele, do których dążymy. Ta faza nosi nazwę planowania. W procesie planowania rozpoczynamy od określenia strategii działań o różnym horyzoncie czasu i różnej szczegółowości. Aby odpowiedzieć na pytanie: Co mamy zrobić? musimy zebrać odpowiednie dane (bazy danych, wiedzy), jak i dysponować odpowiednimi modelami i procedurami zawartymi w bazie modeli. Baza modeli pozwala na przeprowadzenie odpowiednich wyliczeń i podjęcie optymalnych lub sub-optymalnych decyzji. Organizowanie. Jeżeli już wiemy, dokąd zmierzamy, to następnym krokiem jest organizowanie. Czyli teraz: JAK nasze cele osiągnąć? Kolejne zadanie to opracowanie tzw. mapy drogowej często określanej terminem partytury. W niej zawarte są wskazania: kto i jaką ma rolę w organizacji. Określamy strukturę, a w niej zadania poszczególnych osób, harmonogramy i miejsce w szeregu kolejnych realizatorów. Narzędzia informatyczne pozwalają za pomocą odpowiednich modeli, znajdujących się w bazach modeli, na rozrysowanie i zbudowanie mapy drogowej działań. Również systemy informatyczne swoimi narzędziami, szczególnie stale aktualizowanymi bazami danych, wspomagają nas w zarządzaniu zmianami dokonującymi się w organizacji, jak i jej otoczeniu. Przewodzenie i motywowanie. Jeżeli zorganizowaliśmy proces realizacji planu, to powinniśmy motywować wszystkich uczestniczących w jego wdrożeniu. Zadaniem jest wpłynięciem na wszystkich uczestników procesu, aby chcieli realizować przyjęty plan. A po 42

43 Zarządzanie i informatyka cz. I co? pada nie tylko z ust aktorów dramatu, Sławomira Mrożka, ale w różnych kontekstach w naszej organizacji. Dlatego następna faza procesu projektowania to przewodzenie i motywowanie. Tu dotykamy jednego z najbardziej istotnych zagadnień prezentowanych w podręcznikach z obszaru zarządzania, jakim jest zarządzanie zasobami ludzkimi lub też zarządzanie kapitałem intelektualnym. Informatyka, jak wykażemy dalej, okazuje się bardzo pomocna. W bazach danych posiadamy informacje o ludziach ich kwalifikacjach i karierze, natomiast w bazach wiedzy zawarte są ogromne zasoby kapitału intelektualnego Kontrola. Ta spina cały proces zarządzania. Czy to, co zrobiliśmy wykonaliśmy prawidłowo? Co należy zmienić? Kontrola jest to proces monitorowania całego procesu zarządzania i wyciąganie odpowiednich wniosków. Jest to też proces, który zapewnia sprzężenie zwrotne między decyzją a uzyskanymi wynikami. Te wnioski są podstawą decyzji korygujących podejmowanych w stosunku do wszystkich wymienionych uprzednio etapów, czyli do: planowania, organizacji i motywowania. Rola informatyki jest tu bardzo duża. Szybsze przetworzenie i dostarczenie informacji, zwłaszcza dotyczących zagrożeń, jest niezbędne dla wprowadzenia decyzji korygujących. Podstawowym zadaniem współczesnej informatyki jest zwłaszcza wspomaganie procesu podejmowania decyzji. Decyzje obejmują problemy wyboru typu: jaki sprzęt AGD kupić, czy też na jaki film się wybrać, jak ulokować swoje pieniądze, w jakich kierunkach rozwijać daną organizację, jakie są najbardziej zyskowne kierunki rozwoju badanego sektora itd. Problemy wyboru przy budowie budżetu państwa i wyznaczaniu strategii jego rozwoju, też są wspomagane przez informatykę. W procesie zarządzania podejmowane są pierwsze decyzje, które są następnie wzmacniane i w miarę potrzeb korygowane. Proces podejmowania decyzji w procesie zarządzania jest fundamentem wszelkiej działalności organizacji. Możemy też powiedzieć, że informatyka nie zmienia znaku, ale go wzmacnia. Czyli, jak mówi T. Tadeusiewicz [2007], za jej pomocą trudno zmienić niekorzystny wynik na korzystny, ale możemy ten wynik wzmocnić. Termin decyzja ma więc dwa podstawowe znaczenia. Po pierwsze określa się nim wynik dokonanego wyboru. Systemy informacyjne działające na platformie informatycznej dostarczają informacji dotyczących analizowanych wariantów. Po drugie termin ten dotyczyć może samej procedury wyboru. Dlaczego wybrany został dany wariant i jakie kryteria temu służyły. Informatyka dostarcza tu nie tylko informacji, ale też procedur oblicze-niowych. Możemy więc określić, że: Decyzja 43

44 Infrastruktura zarządzania jest to wybór jednej możliwości spośród nieograniczonego niekiedy zbioru. Podjęta jest ona na podstawie dostarczonych decydentowi informacji i procedur działania (jest to właśnie zadanie informatyki). Informatyka dla wspomagania procesu zarządzania czerpie wiedzę z różnych dyscyplin naukowych. Właśnie dlatego przed ludźmi odpowiedzialnymi za zastosowanie informatyki, stawiane są bardzo wysokie wymagania, znajomości nie tylko jej samej, ale też dyscyplin wymienionych na rysunku I.6. Rysunek I.6. Powiązania SIZ z dyscyplinami naukowymi Źródło: K. C. Laudon, J. P. Laudon: Management Information Systems. Prentice-Hall, Zastosowanie informatyki wymaga też znajomości i stosowania twardych i miękkich metod zarządzania. Rolą informatyki jest wspomaganie i budowa poszczególnych elementów zarządzania: Przy czym dla tzw. twardego zarządzania (trzy górne elementy modelu przedstawione na rysunku I.7) jest ona następująca: Strategie są najczęściej wspierane i budowane z wykorzystaniem odpowiedniej klasy narzędzi informatycznych (narzędzia te zostaną przedstawione w dalszej części książki). Struktury są formalnie zapisane w bazie modeli. Systemy są sformalizowanymi procedurami postępowania zapisanymi w bazach modeli i wiedzy. Natomiast w miękkim zarządzaniu (trzy dolne elementy rysunku I.7) rola informatyki jest następująca: Umiejętności gromadzi dane dotyczące kadry zarządzającej projektami informatycznymi, jak i projektującej te systemy i współpracującej z użytkownikiem. 44

45 Zarządzanie i informatyka cz. I Kadry baza metod zarządzania zasobami ludzkimi, szczególnie metod zarządzania wiedzą. Style zarządzania tu narzędzia informatyczne pozwalają na dobranie odpowiedniego profilu. I właśnie miękkie i twarde podejścia do zarządzania wpływają na wspólne wartości, które możemy określić jako podejście mieszane. Rysunek I.7. Model McKinseya 7S Źródło: T. J. Peters, R. H. Waterman: Poszukiwanie doskonałości w biznesie, Wyd. Medium [2000]. W procesie zarządzania, w tym zarządzania informatyką, co pokazuje poglądowo model 7S (rys. I.7), dokonuje się wzajemne uzupełnienie i symbioza metod twardego i miękkiego zarządzania. Stosując narzędzia informatyczne powinniśmy mieć na uwadze ich współzależność i wpływ na skuteczność i sprawność zastosowań informatyki. Wszyscy biorący udział w budowie tych narzędzi, a następnie w ich wdrażaniu i eksploatacji, powinni zdawać sobie sprawę ze znaczenia znajomości zarówno elementów miękkiego zarządzania takich, jak: etyka, kultura, kultowość, jak i zagadnień twardego zarządzania a szczególnie tzw. inżynierii zarządzania jako podstawy metodologicznej. Podstawą, każdego procesu projektowania współczesnego systemu zarządzania z zastosowaniem narzędzi informatycznych jest analiza rozwiązywanego problemu. W podejściu miękkim, model prezentacji problemu jest również miękki, czyli jest to opis. Taki słowny opis określamy, jako model konceptualny albo semantyczny. Często mówimy o podejściu socjo-psychologicznym, ewentualnie o podejściu społecznym. Zagadnienia 45

46 Infrastruktura zarządzania dotyczące analizy systemu zarządzania i wspomagającej je informatyki postrzega się tu nie w kategoriach technicznych (inżynieryjnych), lecz jako przedsięwzięcie społeczne. Na podstawie praktyki można stwierdzić, że podejście twarde, obiektowe, często jest poprzedzone podejściem socjo-psychologicznym. W zarządzaniu twardym, inżynieryjnym, model prezentacji problemu jest precyzyjny i w miarę jednoznaczny. Powstał on przy użyciu określonych technik sformalizowanych i oprogramowania komputerowego. Analiza problemu powinna być przedstawiona za pomocą określonego dokumentu. O niektórych metodykach będzie mowa w dalszych rozdziałach książki. W metodykach tych stosowane są sformalizowane dokumenty. Ich wzory, tzw. standardy, przedstawiane są w monografii J Oleńskiego [2006]. Większe firmy tworzące oprogramowanie wspomagające zarządzanie tj. IBM, Oracle, SAP, mają również własną metodykę System zarządzania system informacyjny system informatyczny Książka, jak często podkreślamy, jest poświęcona systemom zarządzania wspomaganego informatyką. Według klasycznych definicji systemem, niezależnie od jego przeznaczenia, tworzy zbiór elementów i relacji zachodzących między nimi. System zarządzania w organizacji można określić, jako zbiór działań obejmujący pełny cykl procesu zarządzania, a więc: planowanie i podejmowanie decyzji, organizowanie, przewodzenie tj. kierowanie ludźmi i kontrolowanie skierowane na zasoby organizacji (ludzkie, finansowe, rzeczowe i informacyjne) i wykonywanych z zamiarem sprawnego i skutecznego osiągnięcia celu [por. R. Griffin, 1996]. Jeżeli system ma wspomagać proces zarządzania to jednym z jego elementów musi być odpowiedni system informacyjny. Ze względu ma tematykę książki analizujemy tylko takie systemy informacyjne, których tworzą IIZ (informatyczną infrastrukturę zarządzania). System informacyjny określa się, jako system komunikacyjny organizacji, który łączy w jedną całość elementy systemu zarządzania. Na rolę systemu informacyjnego dla sprawnego zarządzania zwraca uwagę między innymi W. Kieżun [1997], który formułuje tezę, że stopień sprawności komunikacji między częściami organizacji, między częściami a otoczeniem oraz całością organizacji a otoczeniem, jest w bezpośrednim związku przyczynowym ze sprawnością całej organizacji. G. Morgan [1997] pisze: Bardzo prawdopodobne jest, że za jakiś czas stwierdzimy, iż organizacje stają się tożsame z systemami informacyjnymi. 46

47 Zarządzanie i informatyka cz. I A. Koźmiński i W. Piotrowski [red., 2006] uważają, że system informacyjny jest specyficznym układem nerwowym, który łączy w jedną całość elementy systemu zarządzania. Dlatego też uzasadnione jest przykładanie wagi do zbudowania sprawnego systemu informacyjnego. Zgodzić się należy ze stwierdzeniem uprzednio cytowanego G. Morgana, że gdy się dobrze zastanowić, to wszelki aspekty funkcjonowania organizacji zależą od stosowanego rodzaju przetwarzania informacji. System informacyjny powoduje, że użytkownik dysponuje narzędziem do podejmowania celowego działania. Jakość tego systemu decyduje o jakości procesu zarządzania. System informacyjny definiowany jest w literaturze w rożnie. Definicja zależy bowiem od celów, dla jakich ten system jest potrzebny autorowi pracy lub też od dyscypliny uprawianej przez jego autora. Inaczej bowiem definiuje system informacyjny ekonomista, a zupełnie inaczej matematyk. System informacyjny możemy określić, jako wielopoziomową strukturę, która pozwala jego użytkownikowi na transformowanie określonych informacji wejścia na pożądane informacje wyjścia za pomocą odpowiednich procedur i modeli. Wynikiem uzyskania tych informacji są określone decyzje. Dlatego też konkretny system informacyjny można analizować jako: wielopoziomową strukturę, element łańcucha decyzyjnego funkcjonujący w systemie zarządzania. Analizując system informacyjny z punktu widzenia jego struktury rozpatruje się przede wszystkim samo jego zachowanie niezależnie od zadań, dla których został on zbudowany. Jest to więc techniczna i technologiczna analiza systemu. Odmiennie postępujemy wtedy, kiedy analizujemy ten sam system informacyjny pod kątem funkcji, które spełnia cały system i jego elementy. Mówimy wtedy, że analizujemy łańcuch decyzji generowanych w wyniku działania systemu, albo też przeprowadzamy jego analizę pragmatyczną. System informacyjny możemy wyróżnić z otoczenia w trzech wymiarach: czasowym, przestrzennym i problemowym. Formalnie system informacyjny charakteryzuje następująca formuła: SI = {P, I, T, F, M, Z, R} gdzie: SI system informacyjny, P zbiór podmiotów gospodarczych, które są użytkownikami systemu; I zbiór zasobów informacyjnych o stanach i zmianach sfery realnej; zakres tych zasobów można określić za pomocą następujących kryteriów pytań: 47

48 Infrastruktura zarządzania jakie zagadnienia interesują użytkownika, czyli np.: człowiek, otoczenie, działalność; dla jakich funkcji procesu zarządzania, czyli rejestrowania danych, ich analizowania, rekomendowania decyzji i kontroli ich realizacji itd.; jakiego przedziału czasu dotyczą posiadane zasoby, czyli dane retrospektywne, aktualne, prognostyczne; T zbiór środków technicznych, które stanowią infrastrukturę zarządzania; F system zarządzania (formuła zarządzania czyli np. scentralizowana, zdecentralizowana) M zbiór metainformacji (informacje o informacjach, które istnieją w zasobach informacyjnych), Z zbiór parainformacji czyli o źródłach informacji, R zbiór relacji zachodzących między wymienionymi uprzednio elementami systemu informacyjnego. Analiza najprostszego systemu informacyjnego pokazuje, że między użytkownikiem a zasobami danych istnieją powiązania nazywane kanałami informacyjnymi. Możemy zatem powiedzieć, że system informacyjny integruje: nadawcę, odbiorcę i kanały informacyjne. Między nadawcą i odbiorcą powinno funkcjonować też sprzężenie zwrotne, które pozwala na weryfikację przekazanych informacji (rys. I.8). Rysunek I.8. Sprzężenie zwrotne w systemie informacyjnym Źródło: opracowanie własne. Sprzężenie zwrotne w rzeczywiście działającym systemie informacyjnym powtarza się od paru, nawet do milionów razy i stanowi realny system informacyjny.otaczający nas świat generuje ogromne ilości informacji, stąd coraz ważniejszy jest problem filtrowania jej. Czytelnikowi mającemu matema tyczne przygotowanie można polecić monografię W. Abramowicza [2008] poświęconą temu zagadnieniu. Do filtrowania powrócimy w punkcie książki prezentującym aspekty przesyłania informacji i analizy pod tym kątem systemów informacyjnych. Jeżeli chociaż jeden z rozpatrywanych elementów T (zbioru środków technicznych) dotyczy sprzętu komputerowego, wtedy mówimy, że jest to system informatyczny. Oczywiście stopień informatyzacji systemu może być rozmaity. W praktyce wszystkie współczesne, nawet w małych organizacjach, systemy informacyjne zbudowane są z zastosowaniem sprzętu komputerowego. Przykładem mogą być chociażby apteki, które zgodnie z obowiązującymi przepisami muszą posiadać sprzęt komputerowy. Tak więc możemy powiedzieć, że w niedalekiej przyszłości nie będziemy używać pojęcia system informatyczny w stosunku do systemów informacyjnych zarządzania, ponieważ 48

49 Zarządzanie i informatyka cz. I nie będzie takich systemów bez sprzętu komputerowego. Dziś takim sprzętem jest nawet telefon komórkowy (mobilny), który realizuje wiele funkcji a nie tylko tradycyjne dzwonienie i odbieranie rozmów. Problem dotyczyć będzie tylko, jak wielkie powinno być w systemie informacyjnym nasycenie sprzętem komputerowym (komputery wraz z oprogramowaniem, sprzęt teleinformatyczny). Legenda: RFID czyli technologia automatycznej identyfikacji radiowej, LAN/WAN typy sieci komputerowej (LAN lokalna, WAN przestrzenna) Rysunek I.9. System informatyczny szpitala Źródło: opracowanie własne na podstawie Portalu Uniwersytetu Ekonomicznego we Wrocławiu. 49

50 Infrastruktura zarządzania Prawie w całej literaturze anglojęzycznej używa się pojęcia MIS, czyli Management Information Systems. I tak R. M. Stair [1992] pisze, że system informacyjny zarządzania, to zorganizowany zbiór ludzi, procedur przetwarzania, baz danych oraz urządzeń używanych do dostarczania informacji dla menedżerów i decydentów. Podobnie E. Turban [1990] pisze, że System Informacyjny Zarządzania jest formalnym, komputerowym systemem, stworzonym w celu dostarczenia, selekcjonowania i integracji otrzymanych z różnych źródeł informacji w celu zapewnienia aktualnych informacji, niezbędnych dla podejmowania decyzji w zarządzaniu. Na ten fakt w literaturze polskiej zwraca uwagę między innymi A. Nowicki [1998]. Jednak w literaturze polskiej używa się jeszcze pojęcia system informatyczny dla określenie takiego sytemu informacyjnego, w którym zastosowany jest komputer. W książce termin system informatyczny albo skrót ICT, będzie użyty, jeżeli w prezentacji systemu informacyjnego będzie się kłaść nacisk nie na funkcje jakie on pełni, a na jego strukturę (komputer, oprogramowanie, sieć przesyłania danych) lub na proces jego komputeryzacji. Komputeryzację rozumie się jako proces nasycenia sprzętem komputerowym systemów informacyjnych. Przyjmujemy więc następujące określenie systemu informatycznego: System informatyczny jest to wyodrębniona część systemu informacyjnego, która jest z punktu widzenia przyjętych celów skomputeryzowana. Przykład systemu informatycznego przedstawia rysunek I.9. Pokazuje on również system wzajemnego przenikania się systemów. Ogólnie możemy stwierdzić, że relacje między trzema tu rozpatrywanymi rodzajami systemów są następujące. Najbardziej ogólnym i podstawowym pojęciem jest system zarządzania. System informacyjny jest elementem systemu zarządzania i pozwala na realizację tego procesu. Natomiast pojęciem najbardziej szczegółowym jest system informatyczny, jako system narzędziowy wspomagający proces zarządzania przez stwarzanie warunków do efektywnego i skutecznego dostarczania oraz przetwarzania informacji, z udziałem IIZ. 50

51 Rozdział 4 System informacyjny organizacji 4.1. Budowa i zadania systemu informacyjnego zarządzania Pojęcie systemu informacyjnego w kontekście systemu zarządzania i systemu informatycznego zostało przedstawione w poprzednim punkcie. Obiektem funkcjonowania współczesnego systemu informacyjnego, w którym ICT stanowi platformę działania, są organizacje. Relacje zachodzące między tymi pojęciami, jak i wizualizację systemu informacyjnego przedstawia rysunek I.10. Informatyczna infrastruktura zarządzania stanowi element każdej z komórek organizacji i jest obsługiwana przez jej pracowników. Rysunek I.10. System informacyjny organizacji i miejsce w nim informatycznej infrastruktury zarządzania IIZ Źródło: opracowanie własne. Organizacje, wykorzystujące systemy informacyjne różnią się między innymi; wielkością, systemem zarządzania, formą własności, obszarem działania czy też sektorem (branżą). Organizacja w czasie ulega zmianom. I tak początkowo, większość organizacji miało 51

52 Infrastruktura zarządzania zupełnie inny kształt, niż obecnie i mogą spodziewać się, że zmiany te będą kontynuowane. Wraz z rozwojem organizacji następuje coraz większa jej złożoność. Konsekwencją jest zmiana funkcji spełnianych przez informatykę. Pojęcie organizacja można rozumieć w sensie: rzeczowym, czynnościowym, atrybutowym. Organizacją w sensie rzeczowym jest pewnym zbiorem elementów, wewnętrznie uporządkowanych, powiązanych ze sobą i działających w otoczeniu. Modelem systemu zarządzania jest struktura organizacji. Struktura organizacyjna pokazuje zarówno przepływy informacyjne, jak i linie władzy. Podstawowymi składnikami każdej organizacji są: ludzie, cele, środki. Organizacje przy pomocy ludzi realizują zamierzone cele, wykorzystując posiadane środki, w tym ICT, jak i jej element IIZ. Organizacja, jako określony system działa w otoczeniu (patrz rys. I.11). Rysunek I.11. Organizacja i jej otoczenie powiązania informacyjne Źródło: opracowanie własne. Ze względu na ścisłe powiązanie elementów stanowiących organizację, bardzo często taki układ, zgodnie z podejściem systemowym, nazywany jest systemem organizacyjnym. W nim, specjalną rolę pełni system informacyjny, który z zasady wspomagany jest przez technologię informacyjną. System informacyjny organizacji działa jak podwójny filtr, który dostarcza organizacji informacji z otoczenia i otoczeniu, udostępnia informacje o organizacji. System organizacyjny realizuje określony zbiór celów. Cele są ze sobą wzajemnie powiązane. Cele dotyczące TI nie mogą być samoistne lecz podporządkowane celom organi- 52

53 Zarządzanie i informatyka cz. I zacji. Wyjątkiem tu mogą być organizacje, które działają w sektorze technologii informacyjnej, a więc ich celem jest, na przykład, produkcja oprogramowania, czy też instalacja sprzętu komputerowego. Funkcjonowanie organizacji zależy od jej otoczenia. Organizacja z otoczenia, dzięki klientom i dostawcom, czerpie niezbędne dla egzystencji i rozwoju zasoby. Zasoby te to: ludzie, środki rzeczowe i finansowe, informacje, wiedza. Te ostatnie, jak przedstawimy dalej, tworzą kapitał intelektualny. Zmiany w otoczeniu organizacji są, w zależności od konkretnej sytuacji, szansą rozwoju lub zagrożeniem. Jak pisze R. Krupski [2005], podstawową cechą otoczenia jest jego niestabilność i turbulencja. W stale zmieniającym się otoczeniu organizacji można wyodrębnić cztery następujące podstawowe tendencje [Hansof, 1985, s. 58]: 1. Wzrost nowości zmiany oznaczających, że obecne wydarzenie nie było znane w przeszłości, 2. Wzrost intensywności otoczenia, który świadczy o tym, że utrzymanie połączeń między organizacją a jej otoczeniem pochłania coraz więcej energii i uwagi kierownictwa, 3. Wzrost szybkości zmian zachodzących w otoczeniu, 4. Rosnąca złożoność otoczenia. Organizacja, aby trwać i rozwijać się, w tym turbulentnym otoczeniu, musi stale obserwować dokonujące się w nim zmiany. Właśnie sprawność funkcjonowania narzędzi informatycznych jest oceniana ze względu na kryterium jakości powiązań z otoczeniem i szybkość reakcji na zaistniałe w nim zmiany. Powiązania przedstawiono na rysunku I.10. Organizacja dostarcza otoczeniu swoje produkty lub usługi. Powiązanie jej z otoczeniem jest wzajemne. Otoczenie kształtuje organizację, ale i organizacja wpływa na stan otoczenia. Ponieważ elementami organizacji są zarówno ludzie, jak też budynki, urządzenia techniczne, określamy ją terminem złożonego systemu społeczno-technicznego. Pojęcie organizacja jest szerokie, ale często chcąc podkreślić, że jakaś organizacja ma pewne szczególne cechy, używa się terminu przedsiębiorstwo. Przedsiębiorstwo jest jednostką (podmiotem) prowadzącą, motywowaną chęcią uzyskania korzyści majątkowych, działalność gospodarczą, mającą na celu zaspokojenie potrzeb innych podmiotów życia społecznego przez wytwarzanie produktów i/lub świadczenia usług, przy czym działalność ta prowadzona jest samodzielnie na ryzyko właściciela(i) [S. Sudoł 2005, s. 39]. Książka w dużej mierze dotyczy problemów przedsiębiorstwa, cho- 53

54 Infrastruktura zarządzania ciaż niekiedy prezentuje szerszy jego kontekst jak tez problematykę instytucji finansowych i administracji. Zarządzanie jest nauką o zmianach, które dokonują się stale w organizacji i otaczającym ją świecie. Dlatego też ICT powinna stale nadążać za zmianami. W większości dotyczy to konieczności aktualizacji odpowiednich baz danych, modeli, wiedzy, tekstów jak i multimedialnych. Istotne wezwanie to szybkości reagowania na pojawiające się wszelkiego rodzaju zmiany w tym awarie. Jak pisze J. Brilman [2002, s. 375] podstawową przyczyną jest zmienność otoczenia w jakim organizacja funkcjonuje. Jak uważał profesor Tadeusz Kotarbiński zmiana to, że taka a taka rzecz na początku takiego okresu była taka a taka, na końcu zaś tego okresu była inna [cyt. za W. Gasparski 1978, s. 12]. Procesy deregulacji, prywatyzacji, globalizacji, zwiększająca się konkurencja i stale dokonujące się fuzje i przejęcia sprzyjają procesowi zmian. Procesowi zarządzania zmianami sprzyja też współczesna technologia informacyjna. Organizacja musi być elastyczna i stale dostosowująca się do zachodzących zmian. W tym miejscu Czytelnik może zadać pytanie: dlaczego dopiero obecnie problemy zarządzania zmianami są tak szeroko dyskutowane i analizowane w literaturze? Wynika to z tego, że teraz, jak nigdy dotąd, żyjemy w czasach ciągłych zmian, w czasach, którym P. Drucker poświęcił swoją książkę: Zarządzanie w czasach burzliwych [1995 tytuł oryginalny: Managing in Turbulent Times]. We wprowadzeniu do tej książki pisze on, że: Czas burzliwy jest czasem niebezpiecznym, ale największe z jego niebezpieczeństw polega na pokusie odwrócenia się tyłem do rzeczywistości. Nowe realia nie pasują ani do założeń Lewicy, ani Prawicy. Nie pokrywają się w ogóle z tym, «co wszyscy wiedzą». Jeszcze bardziej różnią się od tego, w co wszyscy, niezależnie od politycznych przekonań, wciąż wierzą jako w rzeczywistość. «To, jak jest» różni się całkowicie od tego, co w przekonaniu zarówno Prawicy, jak i Lewicy, «powinno być». Największe i najniebezpieczniejsze zaburzenia biorą się dziś z kolizji między złudzeniami osób podejmujących decyzje czy to w rządzie, czy w najwyższych kręgach kierowniczych biznesu, czy wśród przywódców związkowych a realiami. Ale czas burzliwy to również czas wielkich szans dla tych, którzy potrafią te nowe realia zrozumieć, zaakceptować i wykorzystać. Jest to przede wszystkim czas szans na przywództwo... Każdy, kto podejmuje decyzje w danym przedsiębiorstwie, musi stawić czoła rzeczywistości i oprzeć się pokusom tego, co «wszyscy wiedzą», pokusom wczorajszych pewników, które wkrótce staną się szkodliwymi zabobonami dnia jutrzejszego. Bardzo precyzyjnie określa to zadania stojące przed informatyką. 54

55 Zarządzanie i informatyka cz. I A. K. Koźmiński [2005, s.7], pisze o konieczności poszukiwania nowych metod i technik, które są niezbędnie dla zarządzania zmianami. Problem ten formułuje następująco: Trudno sobie wyobrazić, by w tak zmienionych warunkach można było spokojnie kontynuować wypracowane w latach 60. i 70. XX wieku wzorce i metody zarządzania firmami, które muszą dziś sprostać odmiennym jakościowo, coraz szybciej zmieniającym się wyzwaniom. Pojęcie zmiana jest, jak pisze J. Majchrzak [w pracy K. Ziemniewicz, 2006, s. 11], złożone. Jego interpretacja wymaga wielu kryteriów. Zmiany są zarówno rewolucyjne (skokowe), jak i ciągłe. Oba rodzaje zmian występują w organizacji i trudno określić, które z nich mają większe znaczenie. Jak realizować dostosowanie organizacji do dokonujących się zmian? Jest to pytanie o zmiany, które powinny i dokonują się w systemach informacyjnych oraz wspomagających je systemach informatycznych. B. Wawrzyniak pisze [2005, s. 497 i dalsze], o następujących podejściach w przystosowaniu się organizacji do nowych sytuacji: przystosowaniu czynnym, które charakteryzuje się celową i zaplanowaną działalnością kierownictwa, jako reakcją na zaobserwowane zmiany, przystosowaniu biernym, które polega jedynie na stwierdzeniu występowania zakłóceń w działaniu organizacji i podejmowaniu działań amortyzujących albo czysto kosmetycznych. Jako narzędzia pomocnicze dla wyjaśnienia procesu zmian i analizy różnych jego aspektów, stosowane są narzędzia informatyczne. Decydenci mają do dyspozycji wiele bardzo różnorodnych narzędzi informatycznych. Które z nich i dlaczego wybiorą jest tematem następnych rozdziałów. Przy przesyłaniu informacji za pomocą systemów informacyjnych, mamy do czynienia ze stratami informacyjnymi, powstającymi na skutek rozmaitych zakłóceń. Działanie tych czynników powoduje, że informacja źródłowa ulega zniekształceniu. Wielkość tego zniekształcenia może stanowić podstawę dla oceny jakości działania systemu informacyjnego. Między nadawcą i odbiorcą istnieją tzw. filtry, które nie przepuszczają całej przesyłanej informacji. Narzędzia informatyczne najczęściej minimalizują straty powstałe w procesie przesyłania informacji. Ich działanie przedstawia rysunek I.12. Informacja, na początku procesu przesyłania, napotyka barierę techniczną, którą możemy nazwać filtrem technicznym. Filtr ten, wymieniamy jest jako pierwszy, ponieważ przesyłana od nadawcy informacja najpierw jest odbierana przez komputer i tzw. front procesor. Chcąc przekonać się o jego znaczeniu można wykonać eksperyment polegający na przesyłaniu barwnego prospektu za pomocą faksu. Porównując oryginał z otrzymanym po jego przesłaniu obrazem, możemy zdać sobie sprawę ze znaczenia tego filtru. Podobnie jest, gdy drukujemy wykreowany w komputerze kolorowy obraz a mamy do dyspozycji tylko czarno-białą drukarkę. Doskonalenie systemów komputerowych i synchronizacja 55

56 Infrastruktura zarządzania poszczególnych elementów informatycznej infrastruktury zarządzania powodują, że negatywne oddziaływanie filtrów zmniejsza się. Rysunek I.12. Straty informacji w procesie jej przesyłania Źródło: opracowanie własne. Informacja zaakceptowana przez system komputerowy powinna być dla jego odbiorcy zrozumiała. Filtr działający w tej sferze możemy nazwać filtrem semantycznym. Działanie jego dla przesyłania informacji jest szczególnie istotne, ponieważ w nim następują największe straty informacji. Drogi prowadzące do zmniejszenia strat są bardzo rożne, a do jednej z najbardziej efektywnych można zaliczyć tworzenie: słownika (tezaurus), czyli uporządkowanego systematycznie zbioru terminów, które odwzorowują treść informacji w systemach informacyjnych (w odróżnieniu od skorowidza, tezaurus jest tworzony nie dla konkretnego systemu informacyjnego, lecz dla określonej dziedziny nauki, techniki, gospodarki, życia społecznego [Oleński 1997], reguł pozwalających na korzystanie z odpowiedniego języka, czyli stworzenie odpowiedniej gramatyki. Informacja, jeżeli ma służyć realizacji konkretnej decyzji powinna wnosić nową wiedzę w stosunku do już posiadanej. Jeżeli nie, to mamy do czynienia z nadmiarem informacji, czyli redundancją. W systemie informacyjnym redundancja może oznaczać: nadmiar kodu, czyli odwzorowanie informacji za pomocą większej liczby znaków, niż jest to niezbędne, wielokrotne występowanie kopii tych samych wiadomości lub ich części, kilkakrotne, ale nie identyczne odwzorowanie tych samych informacji w różnych wiadomościach. Jak zauważa J. Oleński [1997, s. 48], należy odróżnić redundancję informacji w procesie jej generowania od redundancji informacji w procesie jej przekazywania użytkownikowi. 56

57 Zarządzanie i informatyka cz. I Redundancja na poziomie generowania informacji jest zbędna, a często szkodliwa. Natomiast redundancja po to, aby informację uczynić łatwo dostępną użytkownikowi, jest pożyteczna. Systemy informacyjne zarządzania dążą do minimalizacji redundancji. Zagadnienie tzw. redundancji kontrolowanej będzie przedstawione w części dotyczącej baz i hurtowni danych. Odwrotnie niż w systemach informacyjnych zarządzania, dzieje się w systemach informacyjnych politycznych, czy promocji i reklamy. Tam celowo wielokrotnie emituje się te same informacje i bardzo często dla tych samych odbiorców. Odpowiednio zaprogramowany system komputerowy może wielokrotnie emitować nie zawsze prawdziwą informację. Filtry oddzielające taką redundancję nazywamy filtrami pragmatycznymi. Dla zmniejszenia strat występujących w procesie dostarczania informacji, należy dążyć do skrócenia drogi jej przesyłania. Chodzi tu nie tyle o zmniejszenie jej w sensie fizycznym, ale o wyeliminowanie ogniw pośrednich. Systemy informatyczne pozwalają na takie skrócenie drogi. Wspomniano o tym przy prezentacji problemów zarządzania wiedzą. W organizacji możemy, ze względu na relacje zachodzące między naczelnym kierownictwem a wykonawcą, wyodrębnić dwa podstawowe typu systemów informacyjnych: system informacji bezpośredniej, system informacji wielopoziomowej określanej również terminami wielodostępnej albo pośredniej. Rysunek I.13. Systemy informacji bezpośredniej i pośredniej (wielopoziomowej) Źródło: opracowanie własne. 57

58 Infrastruktura zarządzania System informacji bezpośredniej (rys. I.13) jest charakterystyczny dla gospodarki rynkowej, podczas gdy system informacji wielopoziomowej dla zarządzania scentralizowanego. Również w warunkach gospodarki rynkowej możemy mieć do czynienia z systemem wielopoziomowym (rys. I.13). Występuje on w organizacji, która mimo, że działa dla rynku to charakteryzuje się scentralizowanym systemem zarządzania. System informacji bezpośredniej umożliwia w praktyce efektywne zarządzanie. W systemie takim decydent postępuje następująco: dla podjęcia określonej decyzji zbiera odpowiednie informacje (wiedzę) i po ich analizie podejmuje decyzję, następnie zbiera informacje o prawidłowości realizacji podjętych decyzji (realizuje zasadę sprzężenia zwrotnego) i na tej podstawie albo koryguje wcześniejsze decyzje, albo też zadowala się otrzymanymi informacjami o realizacji i nie podejmuje już dodatkowych działań. Podjęcie prawidłowej decyzji zależy najczęściej od: 1. prawidłowego i precyzyjnego sformułowania problemu, 2. dysponowanych i dostępnych zasobów informacji, 3. jakości kanałów informacji. Czynnik pierwszy jest związany z nadawcą, czynnik drugi z odbiorcą, natomiast czynnik trzeci charakteryzuje relacje przesyłania informacji, czyli system informacyjny. Między nadawcą a odbiorcą powstają, niezależnie od stosowanych rozwiązań informatycznych, zniekształcenia, czyli straty informacji. Możemy jednak stwierdzić, że czym więcej mamy ogniw pośrednich, tym więcej występuje filtrów, a w konsekwencji informacje zostają zubożone i zniekształcone. Dlatego też w organizacji powinny funkcjonować systemy informacji bezpośredniej, co jest możliwe tylko w wyniku zastosowania informatyki. Praktycznie układ o trzech poziomach zarządzania (strategiczny, taktyczny, operacyjny) wyposażony w system informacyjny z bazą danych, bardzo wolno reaguje na zmiany sytuacji decyzyjnej. Również jego zdolność przystosowania do zmieniających się warunków otoczenia jest bardzo mała. Dla przekonania się o słuszności tej hipotezy przeprowadzono eksperyment polegający na budowie programu inwestycyjnego dla koncernu o dwóch i trzech szczeblach decyzyjnych. Używając tych samych metod matematycznych oraz tych samych zbiorów informacji otrzymano dwa rożne programy inwestycyjne. Program zbudowany przy zastosowaniu systemu informacji bezpośredniej przyniósł większe efekty wartościowe i rzeczowe niż przy zastosowaniu systemu informacji wielopoziomowej. Różnice były spowodowane działaniem rozmaitych filtrów w ogniwach pośrednich, a więc związane były ze stratami informacji w procesie ich przesyłania. 58

59 Zarządzanie i informatyka cz. I W Polsce transformacja systemów informacyjnych dokonała się w wyniku oddziaływania wielu czynników. Czynniki te można zebrać w następujące dwie zasadnicze grupy: 1. Zmiany polityczne i makroekonomiczne w systemie zarządzania, a szczególnie przejście z sytemu nakazowo-rozdzielczego charakterystycznego dla centralnego planowania, na system zdecentralizowany, stosowany w gospodarce rynkowej. 5. Postęp techniczny, który dokonuje się zarówno w sferze hardwaru (sprzętu komputerów), jak i softwaru (oprogramowania). Pierwsza grupa czynników zależna jest od sytuacji Polski i innych krajów przechodzących transformacje ustrojowe, druga natomiast dotyczy wszystkich krajów, niezależnie od ich ustroju politycznego. Obie te grupy wzajemnie się przeplatają. Analizując przyczyny i konieczność dokonujących się zmian, nie można zapomnieć o zmianach powiązań Polski z innymi krajami, w których rozwój informatyki jest o wiele szybszy. Element ten jest też efektem przejścia do gospodarki rynkowej i dotyczy współpracy gospodarki polskiej ze światową, np. powiązania systemów bankowych, działania ponadnarodowych organizacji przemysłowych i handlowych, a także wciąż dokonującej się integracji z Unią Europejską. Systemy informacyjne powodują wspomaganie lub opóźnienie procesu podejmowania decyzji na różnych szczeblach zarządzania. W systemie zarządzania scentralizowanego rola informatyki, jak i całego systemu informacyjnego, była niewielka. Przed systemami informacyjnymi nie stawiało się wielkich wymagań. Rola informacji zmieniła się wraz z przejściem do systemu rynkowego. Powodzenie w działaniu, pozycja organizacji na rynku i jej wyniki finansowe zależą od tego jakie informacje i jak szybko zostaną uzyskane. System informatyczny nie jest już tylko miarą prestiżu organizacji, ale wyznacznikiem jej pozycji na rynku. Dlatego też wiele miejsca w ogłoszeniach reklamowych zajmują anonse o możliwościach zakupu nowych komputerów i coraz to nowszego oprogramowania. I co jest istotne, mimo dużej konkurencji, firmy komputerowe nie narzekają na brak zamówień. Podobnie jest we wszystkich rozwiniętych i rozwijających się krajach, gdyż jak pisze Alvin Toffler [1990] świat oczekuje totalnej wojny informacyjnej, która przebiegać będzie przez całą światową ekonomię. Przykładem funkcjonującego we współczesnej organizacji systemu informacyjnego jest tzw. kokpit zarządzania przedstawiony na rysunku I.14. W zarządzaniu projektem, osoba podejmująca decyzje dotyczące jego realizacji może stosować podejście zwane kokpitem zarządzania. Kokpit zarządzania określany również terminem kokpit menedżerski (management dashboard) to sposób prezentacji wyników całościowych lub cząstkowych działalności organizacji. Stosowane rozwiązania polegają na wizualizacja danych i raportów w postaci podobnej do pulpitów sterowniczych, skąd nazwa kokpit. Decydent otrzymuje w dowolnych okresach i terminach potrzebne mu informacje o zachodzących zmianach. W ten sposób proces zmian jest stale monitorowany. Informacje dotyczące realizowanego projektu zmian w organizacji są zapisane w bazach danych. Bazy te są aktualizowane na bieżąco. Aktualizacja wynika zarówno ze zmian w otoczeniu, jak i na skutek realizacji decyzji podejmowanych przez kierującego zmianami. 59

60 Infrastruktura zarządzania Rysunek I.14. Kokpit zarządzania powiązania informacyjne Źródło: opracowanie własne. Kokpit menedżerski jest elementem najbardziej obecnie zaawansowanych systemów informatycznych, takich jak system wspomagania decyzji. Jest to narzędzie, które przyczynia się do usprawnienia i zracjonalizowania procesu podejmowania decyzji. Oferowany jest on wraz z systemami wspomagającymi podejmowanie decyzji, umożliwia monitorowanie kluczowych wskaźników wydajnościowych (KPI). Zawiera też mechanizm powiadomień (alertów) informujących o przekroczeniach poziomów wybranych zmiennych, co umożliwia podjęcie natychmiastowej reakcji korygującej. Dzięki temu można zapobiec powstaniu strat, a także szybko wykryć nowe trendy, czy nadarzające się okazje biznesowe. Kokpit menedżerski pozwala na interaktywną, przejrzystą i czytelną formę graficznej prezentacji danych, pochodzących ze wszystkich obszarów działalności organizacji. Dzięki dołączonym modelom symulacyjnym można, na podstawie przewidywanych założeń, przewidzieć przebieg zdarzeń, określić poziomy ryzyka, czy też przewidywać wyniki lub bardziej precyzyjnie oszacować planowane wartości. Obecne rozwiązania softwerowe pozwalają na dostęp do kokpitu z poziomu tabletu czy smartfonu. Dzięki możliwości implementacji na urządzeniach przenośnych mamy dostęp do aktualnych danych organizacji w dowolnym miejscu na świecie, o ile mamy połączenie internetowe. 60

61 Zarządzanie i informatyka cz. I Narzędzia analityczne kokpitu zarządzania (menadżerskiego) umożliwią między innymi: tworzenie przekrojowych analiz danych, uwzględniając weryfikowanie podjętych przez odpowiednich menedżerów i osoby odpowiedzialne decyzji oraz ocenianie ich skuteczności; identyfikowanie i odkrywanie przyczyn określonych wyników działalności oraz występujących między nimi zależności, uwzględniając wyszukiwanie współzależności przy wykorzystaniu analizy porównawczej wpływu pojawienia się na danym obszarze zjawiska i jednoczesnego korelowania z pojawieniem się lub zanikaniem innych zjawisk (np. innych faktów towarzyszących); prognozowanie zachowań lub przewidywanie określonych trendów na podstawie rejestrowanych i przechowywanych w średnim i długim horyzoncie czasowym zdarzeń lub innych faktów towarzyszących; dostarczanie na czas aktualnej informacji do planowania działalności operacyjnej organizacji; przeprowadzanie analiz na zgromadzonych, zarówno w formie liczbowej, jak i graficznej, danych, służących wyekstrahowaniu najistotniejszych informacji wymagających ciągłego monitorowania; analizowanie przyczyn powstawania zagrożeń przy wykorzystaniu technik zgłębiania danych, drążenia danych od ogólnych widoków do szczegółowej analizy wybranych składników; zaawansowane kontrolowanie dostępu do poufnych danych celem eliminowania zjawiska nielegalnego wykorzystywania informacji; wspomaganie funkcjonowania poszczególnych działów organizacji przy wykorzystaniu techniki typowania na podstawie niepełnych informacji (np. zawężanie listy klientów). Dla sprawnego zarządzania organizacją we wszystkich obszarach można wyszczególnić, jakie informacje powinny być dostarczane przez kokpit menadżerski użytkownikom. Przykład jednego z praktycznych rozwiązań prezentacji informacji z pomocą kokpitu zarządzania przedstawia rysunek I. 15. Do problematyki kokpitu zarządzania wrócimy omawiając charakterystykę systemów doradczych. 61

62 Infrastruktura zarządzania Rysunek I.15. Przykład kokpitu zarządzania Źródło: (kwiecień 2012) 4.2. System informacyjny dla zarządzania wiedzą - czyli jak wykorzystać posiadany kapitał intelektualny, jak absorbować i generować wiedzę w systemie informacyjnym Organizacja, aby była w pełni konkurencyjna na globalnym i lokalnym rynku, powinna: posiadać i absorbować odpowiednią wiedzę, umieć ją wykorzystać. Zarządzać wiedzą to znaczy tak działać, aby luka wiedzy, rozumiana jako różnica między posiadanymi jej zasobami a wiedzą potrzebną dla podejmowania decyzji, była jak najmniejsza. Jak stwierdzają R. Sutton i J. Pfeffer [2002], w praktyce istnieje duża rozbieżność między dysponowaną wiedzą a umiejętnością jej zastosowania. Mimo, że ilość, liczba i dostępność źródeł wiedzy wzrasta, nie przekłada się to na zmiany w zarządzaniu 62

63 Zarządzanie i informatyka cz. I organizacją. Jak dalej uzasadniają, wynika to z szeregu przyczyn. Do najistotniejszych należą: 1. współzawodnictwo wewnątrz organizacji, które blokuje pełne korzystanie z posiadanych zasobów wiedzy, 2. przywiązanie do standardowych rozwiązań, które często jest szkodliwe i również hamuje proces pozyskiwania wiedzy. Strach i tzw. zła atmosfera w pracy powodują poważne trudności w gromadzeniu wiedzy. Zarządzanie wiedzą należy rozpatrywać w trzech następujących, wzajemnie zazębiających się, obszarach działalności organizacji: funkcjonowania całej organizacji i jej systemu informacyjnego, działania poszczególnych pionów lub komórek, a więc funkcjonowania systemu zarządzania, pracy poszczególnych pracowników niezależnie od ich pozycji w organizacji. Termin zarządzanie wiedzą, podobnie jak i sama wiedza, w literaturze określane jest w różnie. My swoją definicję przedstawiliśmy wcześniej. Należy jednak zaprezentować też i nieco inne podejścia do tego zagadnienia. I tak Klasson [cyt. za Tiwana, 2002, s. 5] uważa, że: wiedza jest to zdolność do kreowania i zatrzymania jak największej wartości dla podstawowej działalności biznesowej organizacji. Definicja najczęściej powtarzająca się w literaturze jest efektem badań naukowców z Cranfield School of Management. Według nich zarządzanie wiedzą to: ogół procesów umożliwiających tworzenie, upowszechnianie i wykorzystanie wiedzy do realizacji celów organizacji [Murray, Meyers 1999]. Zarządzanie wiedzą można również określić jako zrozumienie relacji między danymi, ich identyfikacją, dokumentacją zasad rządzących zarządzaniem danymi, jak również zapewnienie integralności i odpowiedniości danych bazowanie na zasadach i procedurach. wartości. Jak pisze K. Bolesta-Kukułka [2003, s. 152], wiedza kształtuje się w długotrwałym procesie uczenia, nabywania doświadczenia, kumulowania informacji, porządkowania ich w logiczne struktury poznawcze, wiązania z emocjami, układania w ramach systemów Nieco inaczej na tę problematykę patrzą praktycy. I tak pracownicy firmy komputerowej Fujitsu ICL przyjmują, że zarządzanie wiedzą jest strategią zmieniającą aktywa intelektualne organizacji, gromadzone zarówno pod postacią dokumentów, jak i w talentach swoich pracowników, i przetwarzane w efekty ekonomiczne, takie jak: zwiększona produktywność, tworzenie wartości i zwiększenie konkurencyjności. Zastosowanie zarządzania 63

64 Infrastruktura zarządzania wiedzą uczy jak optymalizować umiejętności w ramach grup, zespołów i organizacji [cyt. za Fazlagić 2001]. Z kolei firma konsultingowa Deloitte & Touche definiuje zarządzanie wiedzą jako systematyczny, zorganizowany proces ukierunkowany na wykorzystanie wiedzy zgromadzonej w firmie przez zbieranie, weryfikację, przechowywanie i upowszechnienie wiedzy poszczególnych pracowników oraz zasobów wiedzy zgromadzonych w firmowych archiwach. Służy więc: poprawie wyników, podnoszeniu kompetencji, zwiększeniu szybkości działania, wydajności i rentowności i wzrostu przedstawionego już wcześniej kapitału intelektualnego. Specjaliści z polskiej firmy Notek [Nowe Technologie, 2002] uważają, że zarządzanie wiedzą wymaga dobrego systemu informacyjnego gromadzącego wiedzę, lokalizującego ją w firmie, ( kto, co wie ) oraz ułatwiającego jej przepływ. System taki składa się zarówno z prostych aplikacji, z forum dyskusyjnego dla pracowników firmy, jak i dostępu do skomplikowanych baz danych: ekspertyz, aktów prawnych, dokumentacji technicznej, procedur postępowania. Cytowane określenia zarządzania wiedzą mają bardzo praktyczny wymiar. Zwraca się w nich uwagę na to, że jest ono wtedy tylko możliwe, kiedy organizacja będzie umiała przekonać swoich pracowników o potrzebie przekazania jej swojej wiedzy. A to możliwe jest tylko wtedy, gdy zapewni się im (pracownikom) odpowiednią motywację i środki techniczne do dzielenia się wiedzą. Własne badania nad problematyką zarządzania wiedzą wykazują, że najtrudniejsze, dla kierownictwa organizacji, jest właśnie skłonienie pracowników do dzielenia się posiadaną wiedzą i współpracy w tym z kolegami. W badaniach prowadzonych w ramach realizowanej pod moim kierunkiem rozprawy doktorskiej [K. Padzich, 2004] porównywano dwie sytuacje: 1. wiedza jest przekazywana bezpośrednio (zespoły pracują w jednym pomieszczeniu), 2. wiedza jest przekazywana przez sieć komputerową (członkowie zespołu nie widzą się, a komunikują się za pośrednictwem Internetu). W wyniku eksperymentu okazało się, że wiedza była lepiej przekazywana w drugim przypadku, czyli przez sieć. Dlaczego tak się dzieje? K. Padzich stwierdza, że wbrew obiegowym opiniom, ludzie stykając się ze sobą bezpośrednio ukierunkowani są na to, aby najlepiej wypaść a nie dzielić się wiedzą. Mimo, że w praktyce nie zawsze tak się dzieje, to jednak i ten aspekt należy brać pod uwagę w stwarzaniu warunków dla absorpcji i dzielenia się wiedzą. Na rysunku I.16 przedstawiono dwie zachodzące hipotetycznie relacje między pracownikami A i B. Po lewej stronie rysunku I.16 mamy do czynienia z zależnością hierarchiczną. Pracownik A jest szefem natomiast pracownik B jest jego podwładnym. Między nimi istnieje w zasadzie tylko jednostronne powiązanie. Dodatkowe powiązanie zaznaczone na rysunku I.16, to sprzężenie zwrotne, które pokazuje, że podwładny przekazuje szefowi meldunki o wykonaniu poleceń. Badania nad jakością informacji przesyłanych między pracownikami A i B wykazują, że w większości nie jest to wiedza. Pracownicy A i B są z reguły schowani za osłoną (podwójny okrąg), lub stosując metaforę za podwójną 64

65 Zarządzanie i informatyka cz. I gardę. Powoduje to trudności w systemie komunikacji, a tym samym w przekazywaniu wiedzy. Badania moje potwierdzają cytowane wcześniej stwierdzenia R. Suttona i J. Pfeffera [2002]. Można to wyjaśnić następująco: w zależnościach hierarchicznych pracownik A obawia się o swoje stanowisko i uważa, że B tylko czeka, aby awansować. Oczywiście kosztem zwolnienia dotychczasowego szefa (A). Natomiast pracownik B ma obawy, że jego wiedza zostanie wykorzystana i przywłaszczona przez szefa. Jeżeli takiej zależności nie ma, a więc pracownicy A i B mają taki sam status (prawa strona rysunku I.16) wtedy zmuszeni są do komunikacji i przekazywania sobie dysponowanej wiedzy. Dlatego między nimi nie ma podwójnej gardy (zabezpieczenia). Rysunek I.16. Relacje między pracownikami w organizacji w systemie scentralizowanym i zdecentralizowanym Źródło: opracowanie własne. Oddzielnym zagadnieniem jest zagadnienie asymetrii wiedzy. Rozumiana jest ona jako różnica w poziomie wiedzy między poszczególnymi osobami działającymi w danej organizacji. W systemach scentralizowanych ta asymetria jest wyższa. Wynika ona z wielu przyczyn, takich jak: różnica w zadaniach, które mają do rozwiązania pracownicy organizacji, różna znajomość organizacji i jej otoczenia, różna odpowiedzialność pracowników. Praktyka potwierdza, że odpowiednie szkolenie, wysoka kultura organizacji, wspólne cele i wspólna odpowiedzialność prowadzą do tego, że przepływ wiedzy jest łatwiejszy w systemach zdecentralizowanych niż w hierarchicznych scentralizowanych. Moje badania potwierdzają publikacje dotyczące tego zagadnienia, jak np. Nosowski [2002]. Badania przeprowadzone przez American Productivity & Quality Center (APQC) [1999] wykazały, że tylko te firmy mogą mówić, że stosują zarządzanie wiedzą, w których istnieje szereg nieformalnych sieci ludzkiej współpracy. W takich to firmach personel działa nie tylko w ustalonych hierarchicznie strukturach, ale łączą go węzły prawdziwej przyjaźni. Pracownicy pomagają sobie dzieląc się wiedzą i wspólnie rozwiązując problemy, ponieważ mają świa- 65

66 Infrastruktura zarządzania domość, że współpraca jest kluczową wartością firmy, a takie zachowanie są winni swoim kolegom z pracy. Jeden z pionierów zarządzania wiedzą B. Manville [cyt. za Strojny, 2001, s. 81] stwierdził, że w firmie doradczej McKinsey nauczył się, że technologia jest koniecznym, ale niewystarczającym warunkiem dobrego zarządzania wiedzą. Natomiast ważnym źródłem kompetencji i uczenia się są relacje międzyludzkie oraz nieformalne sieci powiązań między pracownikami. Jak wynika z doświadczeń Accenture, nie można mówić o sprawnie działającym systemie zarządzania wiedzą bez uwzględnienia struktury organizacyjnej. Właśnie ona jest odbiciem stosowanego systemu zarządzania, stanowi platformę funkcjonowania całego systemu zarządzania wiedzą. Na wcześniej przedstawionych rysunkach przedstawiono funkcjonowanie systemów przesyłania i gromadzenia wiedzy przy stosowaniu dwóch systemów zarządzania scentralizowanego i zdecentralizowanego. Również w trakcie procesu przesyłania wiedzy, podobnie jak w procesie przesyłania informacji, następują straty wynikające z funkcjonowania filtrów: technicznych, semantycznych, pragmatycznych. System zdecentralizowany ze względu na to, że wiedza jest bliżej użytkownika, jest na pewno lepszy dla przekazywania wiedzy. Jednak, tworzenie i przesyłanie wiedzy jawnej i otwartej jest mniej czułe na system zarządzania niż pozostałe jej formy. Wiedza jawna i otwarta przedstawiona jest za pomocą różnych sformalizowanych modeli takich, jak na przykładowo opisane w punkcie poświęconemu analizie organizacji, diagramy dla modelowania ( analizy powiązań danych DFD i analizy elementów i relacji E/R), drzewa decyzyjne, schematy blokowe, tablice decyzyjne. Formalizacja zmniejsza znacząco zniekształcenia wiedzy w procesie jej przesyłania. Oczywiście dotyczy to tylko sytuacji, kiedy umiemy taką wiedzę sformalizować. Sformalizowana wiedza może być zapisana w bazie wiedzy. Z niej każdy uprawniony pracownik może pozyskać tyle wiedzy ile jest mu potrzebne dla realizowanych przez niego obowiązków i na ile jest ona mu przyznana w wyniku posiadanych przez niego uprawnień. Inaczej jest natomiast z wiedzą ukrytą, ślepą, czy też nieznaną. Na podstawie własnych obserwacji i wywiadów z kadrą kierowniczą różnych organizacji można stwierdzić, że im struktura jest bardziej rozbudowana, wieloszczeblowa (rys. I.17), tym większa jest niechęć poszczególnych członków organizacji do dzielenia się wiedzą i przekazywania jej innym. Proces przekazywania wiedzy często określamy terminem transferu wiedzy. Większość osób zatrudnionych w organizacji świadomie lub nieświadomie buduje swoje własne bazy wiedzy. Nawet, jeśli taka wiedza jest przekazywana, to ze względu na jej niestandardowy charakter, jest ona bardzo często zmieniana i spłycana. Proces ten dokonuje się również bez świadomej niechęci osób generujących, przekazujących lub gromadzących tę wiedzę. Jednak nie można też wykluczyć aspektu psychologicznego. Pracownik szczebla podstawowego najczęściej nie wie, jak posiadana przez niego wiedza zostanie wykorzystana i kto będzie czerpał z niej korzyści. Bardzo często ludzie, którzy 66

67 Zarządzanie i informatyka cz. I przekazali wiedzę obawiają się, że zostaną zwolnieni, bo zmieniła się wartość ich osoby dla organizacji. Przykładów tego jest wiele. Rysunek I.17. Miejsce Bazy Wiedzy w systemie zarządzania wieloszczeblowym scentralizowanego Źródło: opracowanie własne. Rysunek I.18. Miejsce Bazy Wiedzy w systemie zarządzania zdecentralizowanego Źródło: opracowanie własne. Metodyka wspomnianego wcześniej Accenture wyodrębniała trzy podstawowe etapy budowania systemu informacyjnego dla zastosowania zarządzania wiedzą: ETAP I. Niezależ ne Kontenery Wiedzy 67

68 Infrastruktura zarządzania Obszary wiedzy są tworzone na potrzeby pojedynczych zdarzeń. Przechowywana wiedza ma charakter tymczasowy i dedykowany dla określonych potrzeb, bez określenia sposobów jej przechowywania. ETAP II. Wyspy Doskonałości Na tym etapie gromadzi się i selekcjonuje wiedzę powstającą podczas realizacji zadań dla tworzenia Bazy Wiedzy. Dostęp do takich baz mają wszyscy uczestnicy organizacji, zgodnie z przydzielonymi im prawami dostępu. ETAP III. Kultura Swobodnego Przekazywania Wiedzy Na tym etapie uczestnicy organizacji swobodnie wymieniają między sobą wiedzę i doświadczenia. Sama zawartość jest przechowywana w bazach danych wspomaganych przez narzędzia komunikacyjne. System umożliwia dotarcie do spójnych źródeł wiedzy eksperckiej, mimo szerokiego obszaru poszukiwań. Instrumenty zbudowane przez firmy consultingowe są zbyt nowe i jeszcze nie są w powszechnym użyciu. Rynek komputerowego wspomagania zarządzania wiedzą, jak wykazują badania tej samej firmy, jest trudny. Większość kadry zarządzającej rozumie potrzebę tworzenia komputerowych systemów wspomagania wiedzy, ale aż 90% z tej grupy nie zamierza zająć się tym zagadnieniem w działalności bieżącej, wskazując inicjatywy o wyższym priorytecie. System wspomagania zarządzania wiedzą to nie tylko hardware i software, ale również wiedza zapisana w systemie bezpośrednio lub pośrednio. Dlatego też narzędzia zbudowane przez firmy consultingowe, są łatwiejsze do tworzenia w zdecentralizowanym zarządzaniu. Wydaje się, że szczególnie dotyczy to takich elementów sytemu zarządzania wiedzą, jak: niezależne kontenery wiedzy i swobodne przekazywanie wiedzy. Te dwa etapy projektowania oraz związane z nimi produkty są bardzo czułe na relacje zachodzące między poszczególnymi pracownikami organizacji. Podobnego zdania jest B. Wawrzyniak [2001], który pisze, że wiele ograniczeń związanych z możliwościami wprowadzenia w organizacji koncepcji eksponujących zarządzanie wiedzą, tkwi w systemie zarządzania przedsiębiorstwem. J. Szaban [2001, s. 103] uważa, że w firmach, w których zarządza się wiedzą, istotnym przemianom podlegać muszą struktury organizacyjne (spłaszczenie struktur) czyli systemy informacyjne, o których pisano w punkcie poprzednim, jak też sposoby kierowania ludźmi (zmiana stylu sprawowania władzy). Uważa również, że autokratyczny styl kierowania zupełnie traci rację bytu rozkazywanie, surowe egzekwowanie poleceń, jednoosobowe podejmowanie decyzji, kontrolowanie pracowników, karanie ich, centralizacja władzy to wszystko w firmach wiedzy przejdzie raczej do lamusa. Postulat spłaszczenia systemu informacyjnego pojawia się w wielu miejscach podręcznika. Cytowani już uprzednio I. Nonaka i H. Takeuchi [2000] przeprowadzili analizę doświadczeń organizacji japońskich (Honda, Canon) oraz amerykańskich (GE, 3M) w zastosowaniu 68

69 Zarządzanie i informatyka cz. I systemu zarządzania wiedzą. Wyróżnili oni trzy systemy zarządzania w aspekcie tworzenia wiedzy: góra dół gdzie najwyższy szczebel zarządzania tworzy wiedzę, dół góra, w którym wiedza jest tworzona przez tzw. przedsiębiorczą jednostkę, środek góra dół, w którym wiedza jest tworzona przez cały zespól, a średnia kadra występuje w roli inżynierów wiedzy. Stosując pierwszy system zarządzania udaje się zgromadzić wiedzę dostępną w drugim zaś systemie wiedzę ukrytą. Natomiast w trzecim systemie, który możemy też określić mianem systemu zdecentralizowanego, następuje zgromadzenie wiedzy dostępnej i ukrytej. Mimo, że wydaje się, że przewagę nad innymi ma model zdecentralizowany, to w opisach literaturowych nie jest to jednoznaczne. Na pewno na budowę systemu zarządzania wiedzą w koncernie GM miał wpływ J. Welch, czy też L. Iaccocca w Chrysler albo A. Sloan twórca potęgi General Motors. Dlatego też rekomenduję system zarządzania zdecentralizowanego jako w większości przypadków najbardziej właściwy dla budowy organizacji wykorzystującej zarządzanie wiedzą. Mam jednak pełną świadomość, że każda organizacja winna wybrać swoją indywidualną ścieżkę tworzenia takiego systemu Jakość systemu informacyjnego audyt systemu Organizacja w świecie gospodarki rynkowej zanurzona jest w ogromnej ilości informacji, atakującej ją w każdym momencie i z wielu miejsc. Problemem jest wychwycenie potrzebnych informacji (tzw. słabych sygnałów) i ich przetworzenie, a więc pozyskanie, na co zwracano wcześniej uwagę. Większość istniejących na rynku informacji nie daje się bezpośrednio wykorzystać, co znaczy, że trzeba je najpierw ocenić pod względem ich przydatności dla organizacji, a następnie przetworzyć. System informacyjny zarządzania budowany jest po to, aby organizacja mogła zrealizować postawione przed nią cele. Cele organizacji i to niezależnie, czy jest to mikroorganizacja typu sklep rodzinny, czy też makroorganizacja typu Narodowy Bank Polski, Polskie Koleje Państwowe, wyznaczają jej zamierzenia oraz zadania. Organizacja ma do spełnienia wiele celów o rozmaitej hierarchii ważności i różnym horyzoncie czasu. System informacyjny zarządzania, aby był pomocny dla użytkownika, musi spełniać szereg kryteriów oceny. Kryteria te można określić jako cele, które stawiane są przed projektantami systemu informacyjnego. Wymagania te są ustalane podczas prac analitycznych i projektowych nad definiowaniem i gromadzeniem potrzeb użytkowników systemu. Możemy powiedzieć, że syntetyczną miarą jakości systemu informacyjnego jest różnica miedzy wzorcem jaki życzy sobie użytkownik a obrazem, który otrzymał. Uzyskanie obrazu analogicznego do pożądanego wzorca jest ideałem. Jeżeli użytkownik stwierdzi jak powinien wyglądać wzorzec czyli określi swoje wymagania to sytuacja będzie klarowna ale 69

70 Infrastruktura zarządzania w rzeczywistości nawet najbardziej wyrafinowane techniki analizy potrzeb informacyjnodecyzyjnych dają tylko wyniki przybliżone. Najważniejszym celem sytemu informacyjnego jest takie jego zaprojektowanie by zaspokajał potrzeby użytkowników czyli aby był skuteczny. Jednak, jak przedstawiono wcześniej, zbiór użytkowników jest wieloelementowy. Podobnie mamy do czynienia z mnogością sytuacji decyzyjnych. Potrzeby użytkownika są zmienne. Ze względu na wielorakość celów, które ma do zaspokojenia system to problem oceny jego jakości należy do klasy wielokryterialnych (polioptymalnych). W literaturze przedmiotu można spotkać wiele opracowań, które dotyczą wymagań stawianych funkcjonowaniu systemu informacyjnego. W przedstawionej propozycji kryteriów uwzględniono literaturę przedmiotu oraz własne doświadczenie w projektowaniu systemów, jak i wyniki badań przeprowadzonych w trakcie zajęć z kadrą kierowniczą korzystającą z systemów informacyjnych zarządzania, jak i w trakcie zajęć na studiach podyplomowych z projektantami ICT. Lista sformułowanych w ten sposób kryteriów jakościowych jest następująca: 1. Dostępność dla użytkownika wszystkich zasobów informacyjnych, które są mu niezbędne dla podejmowania decyzji oraz wykonywania nałożonych na niego zadań. 2. Aktualność, rozumiana jako zadanie, którego realizacja pozwala na to, że użytkownicy otrzymują informacje aktualne. Na ile są one aktualne zależy od konkretnej organizacji. I tak klienci banku, pragną znać stan swojego konta natychmiast po operacji wpłaty lub wypłaty. Natomiast informacje o stanie magazynu, jeżeli dotyczą np. materiałów budowlanych, mogą być aktualizowane co godzinę. 3. Rzetelność, rozumiana jako prawdziwość, czy też wiarygodność. Wymaga się, aby występowała zgodność otrzymanej informacji z informacją, która opisuje dany obiekt lub zjawisko w danym czasie i miejscu. Informacje, które otrzymuje użytkownik powinny być prawidłowe pod względem metodologicznym. Badania przeprowadzone wśród kadry kierowniczej różnych firm wykazały, że jest to pierwszoplanowe wymaganie w stosunku do systemów informacyjnych. Uzasadnia się to tym, że kadra kierownicza, jeżeli nie ma informacji dotyczącej danego obiektu, to ma doświadczenie lub instynkt gospodarczy i może dany parametr estymować. Natomiast posiadanie błędnych informacji usypia czujność użytkownika i podrywa jego zaufanie do systemu informacyjnego. 4. Kompletność, rozumiana jako różnica między informacją źródłową a informacją otrzymaną przez użytkownika. Kompletność określamy też, jako straty informacyjne, które zachodzą w procesie przesyłania i przetwarzania informacji. 70

71 Zarządzanie i informatyka cz. I 5. Porównywalność. Wymaga się, aby informacje zebrane z tej samej lub pokrewnej dziedziny umożliwiały przeprowadzenie analizy porównawczej. Jest to trudniejsze do realizacji na najwyższych szczeblach zarządzania, gdzie korzysta się z informacji zagregowanej. Informacje zebrane na szczeblu elementarnym, tzw. informacje źródłowe, są najbardziej przydatne dla przeprowadzenia porównań. W realizacji tego zadania największe niebezpieczeństwa tkwią w działaniach reorganizacyjnych, które powodują zmiany istniejących układów i związane z tym modyfikacje dokumentacji. 6. Niezawodność. W zależności od specyfiki organizacji, wymóg ten może mieć różną wielkość liczbową lub też charakterystykę jakościową. Niezawodność systemu jest iloczynem zawodności wszystkich powiązanych szeregowo elementów. 7. Przetwarzalność. Dla realizacji tego kryterium należy zdawać sobie sprawę, jakiego rodzaju informacje mogą być w systemie przetwarzane. Istniejące w organizacji zasoby informacyjne nie zawsze mogą być absorbowane przez system. I tak informacje przedstawione np. w postaci graficznej lub zapisu głosu są w większości organizacji nie przetwarzalne, mimo że postęp w tej dziedzinie jest dość duży. 8. Elastyczność. Jest to postulat określający zdolność systemu informacyjnego do reagowania na zmiany dokonujące się wewnątrz i na zewnątrz organizacji. Jest to zdolność systemu informacyjnego do przyswojenia informacji pochodzących z rozmaitych nadajników i mających różną postać oraz zdolność dostosowania się do stale zmieniających się potrzeb użytkowników. Kryterium to jest szczególnie ważne dla organizacji działających w stale zmieniającym się otoczeniu. 9. Wydajność rozumiana jako zdolność systemu do przesyłania i przetwarzania w sensie fizycznym określonej ilości informacji w jednostce czasu. Użytkownik określa to kryterium jako średnią wydajność systemu w szczególnych przypadkach, takich jak, na przykład, maksymalna liczba klientów chcących kupić lub sprzedać obligacje w danym momencie. 10. Ekonomiczność rozumiana jako wiązka kryteriów mających związek z efektami i kosztami projektowania i eksploatacji systemu. Wymaganie to charakteryzuje kondycję ekonomiczną użytkownika. 11. Czas reakcji systemu czyli jak długo użytkownik musi czekać na odpowiedź na zadane pytanie. Zamiennie stosowane jest kryterium terminowości (on time), przejawiające się wymaganiem dostarczania potrzebnych informacji w z góry określonym terminie. 12. Szczegółowość. Jest to wymaganie co do detalizacji informacji, jaką musi zapewnić eksploatowany system informacyjny. 71

72 Infrastruktura zarządzania 13. Stabilność systemu czyli jego odporność na zakłócenia wewnętrzne i zewnętrzne. Użytkownik może wymagać od systemu informacyjnego ultrastabilności, tj. możliwości powrotu systemu do stanu przed zakłóceniem jego pracy. 14. Priorytetowość. Użytkownicy, szczególnie decydenci najwyższego szczebla zarządzania, wymagają, aby system był zdolny do zaspokojenia ich potrzeb przed potrzebami innych użytkowników. Również przy zastosowaniu systemu klasy SMOK (System Monitowania Kierownictwa) przedstawionego w dalszej części książki informacje alertowe powinny mieć pierwszeństwo dostarczenia do użytkownika. 15. Poufność. Użytkownik zwykle chciałby, aby informacje z pewnego zakresu działania organizacji, nie były przeznaczone do szerokiego rozpowszechniania, i aby tym informacjom zapewnić specjalną ochronę. 16. Bezpieczeństwo. Bezpieczeństwo systemu można określić skalą możliwości odzyskania przypadkowo utraconych danych: odtworzenie informacji nie nastręcza większych trudności. 17. Łatwość użytkowania. Jest to kryterium trudne do wyrażenia ilościowego, ale bardzo istotne dla użytkownika. Praktyka wykazuje, że bardzo nowoczesne systemy informacyjne nie są eksploatowane ponieważ użytkownik stwierdza, że są one trudniejsze do opanowania, niż system już eksploatowany. Wymienione kryteria mogą być podstawą przeprowadzenia oceny jakości funkcjonowania systemu, a wić pozwolić na przeprowadzenie jego audytu. Lista wymagań stawianych systemom informacyjnym może zmieniać się zależnie od konkretnych potrzeb użytkownika 1. Poszczególne kryteria mogą też być zdezagregowane i przedstawione w postaci wiązki wymagań o różnym stopniu ważności. Użytkownik może też określić je wariantowo lub alternatywnie. Praktyka gospodarcza i własne badania nad egzemplifikacją czynników, które powinny być analizowane przy ocenie sytemu informacyjnego, wykazały, że wymienione kryteria stawiane są przez użytkowników najczęściej. Przedstawione wymagania jakościowe można podzielić na kryteria niezależne od użytkownika i zależne, które są związane z konkretną sytuacją. Kryteria niezależne powinny być spełniane maksymalnie. Są to: dyspozycyjność, aktualność, rzetelność, kompletność i porównywalność. Natomiast pozostałe stanowią kryteria zależne, czyli ich wielkość może ulec zmniejszeniu lub rozszerzeniu w zależności od stanowiska użytkownika i postulowanych przez niego specjalnych wymagań. 1 M. Niedźwiedziński wyróżnia 34 kryteria. Cechy informacji próby systematyzacji, Systemy Informatyczne" GUS 1987 nr.1. 72

73 Zarządzanie i informatyka cz. I Kryteria, generalnie, powinny być tak sformułowane, aby były zrozumiałe zarówno dla użytkownika, jak i projektantów systemów. Przykładowe wymagania stawiane nowoprojektowanemu systemowi informacyjnemu organizacji (w tym przypadku systemowi informacyjnemu zarządzania dla hurtowni materiałów budowlanych) podane zostały w tabeli I.4. W praktyce charakterystyka wymienionych wymagań była szersza, natomiast w tablicy przedstawiono ją tylko hasłowo. Tabela I.4. Przykładowe wymagania stawiane systemowi informacyjnemu (hurtowna materiałów budowlanych) Lp. Wymaganie Charakterystyka 1 Dostępność wszystkie informacje z zakresu funkcjonowania organizacji przez całą dobę 2 Aktualność informacje dotyczące stanu magazynowanego aktualizowane co 30 min. 3 Rzetelność jeżeli określona informacja lub grupa informacji jest szacunkowa należy ją zaznaczyć podświetleniem 4 Kompletność według specyfiki całości informacji z danego zakresu 5 Porównywalność informacja o eksporcie i imporcie wg aktualnego kursu waluty w NBP 6 Niezawodność funkcjonowanie systemu powinno być niezależne od awarii sieci elektrycznych 7 Przetwarzalność system powinien umożliwiać wprowadzenie informacji przedstawionych w postaci kodu kreskowego 8 Elastyczność system powinien akceptować dokumenty finansowe wystawione przez zagranicznych kontrahentów 9 Wydajność obsługa około 5 tys. kupujących oraz 2 tys. dostawców dziennie 10 Ekonomiczność hurtownia może wydać na eksploatację całości systemu 0,7% wartości obrotu rocznego 11 Czas reakcji systemu faktura VAT powinna być wystawiona natychmiast po przeprowadzeniu transakcji 12 Szczegółowość ewidencjonowanie pojedynczych artykułów 13 Stabilność system odporny na nieumiejętną obsługę przez uczących się pracowników 14 Priorytetowość informacje dotyczące zmian kursów walut powinny być dostarczane w pierwszej kolejności 15 Poufność informacje dotyczące dostawców i cen płaconych za dostawę dostępne są tylko dla upoważnionego grona osób; pytania nieupoważnionych pracowników mają być ewidencjonowane 16 Bezpieczeństwo informacje finansowe muszą być natychmiast dublowane na innym komputerze 17 Łatwość użytkowania na poziomie użytkownika wszystkie komunikaty są w języku polskim i podane w formie podpowiedzi Źródło: opracowanie własne. 73

74 Infrastruktura zarządzania Przedstawiona propozycja oceny jakości funkcjonowania systemu informacyjnego jest właściwie kompletna. Kształtowanie się tych miar wymaga odrębnych badań zależnych od konkretnej sytuacji, tj. systemu informacyjnego i zastosowań określonej TI Generacje systemów informacyjnych zarządzania W poprzednich punktach zwracaliśmy uwagę na różnorodność funkcji i zastosowań systemów informacyjnych. W praktyce nie zawsze powinno się wybierać bardzo złożone systemy, często wystarczają proste, które są tańsze i łatwiejsze w obsłudze. Użytkownik ma do dyspozycji następujące podstawowe rodzaje systemów informacyjnych wspomagające proces zarządzania, a w tym proces podejmowana decyzji (patrz rys. I.19). Rysunek I.19. Model organizacji z podziałem na szczeble zarządzania Źródło: opracowanie własne. Model przedstawiony na rysunku I.19 pokazuje zakresy funkcjonowania poszczególnych typów współczesnych systemów informacyjnych. W układzie szczebla zarządzania wyróżniamy tzw. generacje systemów, natomiast w układzie funkcji systemy problemowe albo też modułowe. Poszczególne moduły tworzą generacje systemów. Systemy informacyjne, które wspomagają wszystkie szczeble zarządzania nazywamy systemami kompleksowymi. Przykładami będą systemy wspomagające zarządzanie tzw. systemy ERP (Enterprise Resource Planning Planowanie Zasobów Przedsiębiorstwa). W dalszej części 74

75 Zarządzanie i informatyka cz. I książki przedstawione zostaną przykłady systemów poszczególnych generacji ich budowa, zastosowanie oraz systemy zintegrowane klasy MRPII/ERP. Biorąc jako podstawowe kryterium potrzeby informacyjne decydentów wydzielono trzy następujące generacje systemów informacyjnych: Generacja I Systemy transakcyjne ST powiązane najczęściej ze szczeblem wykonawczym. Generacja II Generacja III Systemy informowania kierownictwa SIK, zwane też systemami wyszukiwania danych SWD, tu najczęściej użytkownikami są pracownicy szczebla zarządzania operacyjnego. Systemy doradcze SD, których użytkownikami w większości są pracownicy szczebla taktycznego i strategicznego. W praktyce trudno jest przydzielić określoną generację tylko do jednego szczebla zarządzania. Następuje tu przenikanie poszczególnych generacji, co w konsekwencji prowadzi do tworzenia, zasygnalizowanych wcześniej, systemów uniwersalnych, zwanych też kompleksowymi. Biorąc pod uwagę złożoność systemu oraz wymienione elementy charakteryzujące system informacyjny przyjęto podział systemów na generacje (patrz tabela I.5). Tabela I.5. Podział systemów informacyjnych na generacje Cechy Generacja I Systemy Transakcyjne [ST] Generacja II Systemy informowania kierownictwa i systemy wyszukiwania danych [SIK + SWD] Generacja III Systemy Doradcze [SD] [SWD, SE, EIS, BI, e-bi] Zasoby informacyjne deterministyczne, informacje pełne, porównywalne, wiarygodne deterministyczne, informacje nie zawsze pełne i porównywalne probabilistyczne nie zawsze pełne i często obarczone błędem o określonym i nieokreślonym prawdopodobieństwie, jak i pochodzące z różnorodnych źródeł; informacje niepełne i często sprzeczne Modele i procedury proste bazujące na czterech działaniach proste modele typu równania; przepływy międzygałęziowe optymalizacyjne i heurystyczne o dowolnej złożoności, symulacyjne, algorytmy genetyczne, sieci neuronowe Infrastruktura komputery o dużych komputery pozwalające komputery pracujące 75

76 Infrastruktura zarządzania informatyczna pamięciach masowych, oprogramowanie zorientowane problemowo, systemy zarządzania bazą danych, języki pozwalające na przetwarzanie danych ekonomicznych na konwersacyjny tryb pracy, systemy zarządzania bazą danych, języki pozwalające na wyszukiwanie danych z dużą szybkością, systemy zarządzania bazą modeli, bazą wiedzy, hurtownie danych, portale internetowe, języki specjalistyczne i symulacyjne, jak też języki zbliżone do naturalnych Podział ten jest umowny i stanowi rozszerzenie generacji sprzętu komputerowego. W odróżnieniu od generacji komputerowej, systemy informacyjne zaliczone do określonej generacji nie przemijają wraz z postępem technicznym, lecz właśnie wraz z nim są stale udoskonalane. Rozwój wszystkich generacji dokonuje się stale i jest tylko zależny od nowych rozwiązań w sferze zastosowań informatyki w zarządzania. Najbardziej dynamiczny jest rozwój systemów III generacji. Stale się rozwijają i są dowodem na dokonującą się integracje narzędzi ICT. Nie można stwierdzić, że w pewnym okresie zakończyła się jedna generacja, a rozpoczęła następna. Generacje w praktyce stale się rozwijają. W systemach użytkowych następuje ich przeplatanie i uzupełnianie. Przedstawiony w tabeli I.5 podział, wymaga komentarza. Generacja I. Systemy te, zwane też systemami transakcyjnymi, nie wymagają specjalnych komputerów i oprogramowania. W zasadzie cały dostępny na rynku współczesny sprzęt komputerowy może być użyty do ich realizacji. Bardziej rozbudowane systemy wymagają dużych i szybkich pamięci masowych. W ramach tej generacji można wydzielić systemy, które wspomagają organizację w realizacji między innymi następujących funkcji: ewidencyjno-sprawozdawczych, analizy ekonomicznej, w tym: rachunkowości, finansów, gospodarki kadrowej, logistyki. Systemy tej generacji pozwalają na przygotowanie decyzji przez dostarczanie użytkownikom odpowiednich danych. Szacuje się, że ok. 80% funkcjonujących w praktyce systemów wspomagających zarządzanie, to systemy tej generacji. Generacja II. Zaliczamy do niej te systemy, które pozwalają na: posługiwanie się bazami danych oraz pracują w trybie pytanie odpowiedź. W konsekwencji możemy powiedzieć, że system pracuje w trybie konwersacyjnym. Tę generację tworzą bardzo popularne systemy wyszukiwania informacji oraz systemy informowania kierownictwa. W terminologii angielskiej określa się je terminem MIS (Management Information System). Generacja III. W obecnym stanie wiedzy jest to generacja najbardziej złożona i rozwijająca się w ostatnich latach. Jej wyróżnikiem jest to, że wymaga ona sprzętu komputerowego pozwalającego na budowę i posługiwanie się: bazami i hurtowniami danych, bazami modeli, jak też sztuczną inteligencją, w tym bazą wiedzy. Stanowią one pewien konglomerat, na który składają się systemy określane w literaturze przedmiotu jako: SWD (System Wspomagania Decyzji) czyli DSS (Decision Support System), SE (System Ekspertowy), EIS (Executive Information Systems), BI (Business Inteligence) i ostatnio pojawiające się e-bi (są 76

77 Zarządzanie i informatyka cz. I to systemy klasy BI rozszerzone o portale internetowe i systemy wyszukiwania z nich potrzebnych informacji czyli tzw. Web mining). Wszystkie one, chociaż w różny sposób, wspomagają bezpośrednio proces podejmowanie decyzji. Tendencją rozwoju oprogramowania stosowanego w tej generacji systemów, jest integracja systemu zarządzania bazą danych i hurtowni danych z systemami zarządzania bazą modeli i z bazą wiedzy oraz z takimi narzędziami jak OLAP i techniki drążenia danych (data mining). Dzięki takim systemom możemy wykorzystać w praktyce osiągnięcia badań operacyjnych i analizy systemowej. Podstawową różnicą, z punktu widzenia użytkownika, w stosunku do innych generacji systemów jest to, że za ich pomocą można rozwiązać problemy źle albo niepełnie zdefiniowane. Pozwalają więc rozwiązać problem, dla którego identyfikacji brak jest danych, jak też umożliwiają wielowymiarową analizę danych, jak też wykrywanie nieznanych i niedostrzegalnych relacji zachodzących między danymi. W ramach tej generacji wydzielić można systemy, które pozwalają na korzystanie z bazy wiedzy oraz takie, które uczą się i same rozszerzają swoją wiedzę. Budowa i eksploatacja systemów samouczących jest obecnie rozwijana, natomiast praktyczne doświadczenia w tej dziedzinie są niewielkie. Każda generacja systemu informacyjnego może wspomagać określone typy decyzji. Przykłady ilustrujące zakresów wspomagania określonych typów decyzji przez systemy informacyjne przedstawiono w tabeli I.6. Tabela I.6. Możliwości wspomagania poszczególnych typów decyzji przez systemy informacyjne Typ decyzji Strategiczny Taktyczny jako dostarczyciel danych do prac prognostycznych na podstawie analizy historycznej do analizy szeregów czasowych GENERACJA SYSTEMU INFORMACYJNEGO I II III jako dostarczyciel danych z zestawu informacyjnego interesującego użytkownika w bardzo szybkim czasie co umożliwia podjęcie odpowiednich działań korygujących do wyszukiwania w zbiorach i zastosowanie wyników w pożądanym przez użytkownika układzie daje pełne informacje o problemie, jego otoczeniu, pozwala na określenie skutków i niezbędnych środków do realizowania różnych decyzji, analizuje różnego rodzaju związki, nawet trudne do uchwycenia tradycyjnymi metodami jw., a w tym m.in. umożliwianie planowania produkcji, określenia optymalnych wielkości zapasów czy też analizy rynku 77

78 Infrastruktura zarządzania Operacyjny analiza historyczna podjętych decyzji oraz kontrola ich wykonania jw. oraz do szybkiej analizy odchyleń od pożądanej lub istniejącej wielkości jw. umożliwia podejmowanie decyzji nawet w najbardziej złożonych sytuacjach awaryjnych w trakcie realizacji produkcji; na giełdzie papierów wartościowych W literaturze spotyka się również inne klasyfikacje systemów. Na przykład: system informacji sprawozdawczej, system informacji planistyczno-decyzyjnej, system informacji normatywno-parametrycznej. We współczesnym zarządzaniu dominuje podejście procesowe. Biorąc więc go za podstawę, mamy do czynienia z następującymi generalnymi typami systemów informacyjnych: systemy opisujące procesy określane tradycyjnie jako systemy transakcyjne, systemy monitorujące przebieg procesów, czyli często określane w literaturze jako systemy informowania kierownictwa i systemy wyszukiwania informacji, systemy wspomagające procesy, czyli m.in. systemy dla pracy biurowej, systemy raportowania, systemy dla poczty elektronicznej. Inne podziały systemów informacyjnych, przedstawione w literaturze przedmiotu, związane są też z funkcjami przez nie wykonywanymi. Powszechnie mówi się o systemach ewidencyjnych, planistycznych, czy też obsługujących określone działania, jak systemy informacyjne dla: sprzedaży, marketingu, produkcji, finansów, rachunkowości, księgowości, zarządzania zasobami ludzkimi. Ciekawe i zasadne było stwierdzenie T. Peche [1978], który uważał, że ze względu na ścisły związek procesów informacyjnych z procesem decydowania należy mówić nie o dwóch odrębnych procesach i systemach, tj. informacyjnym i decyzyjnym, lecz o procesie i systemie informacyjno-decyzyjnym. W procesie informacyjno-decyzyjnym, jak w soczewce, skupia się, syntetyzuje i przetwarza całość niezmiernie skomplikowanej problematyki funkcjonowania systemu zarządzania. Dla sfery informacyjnej wynika stąd konieczność szczegółowego ustalenia sposobu gromadzenia, przechowywania, aktualizacji, wyszukiwania, przetwarzania oraz transferu informacji stanowiących główne tworzywo sądów, decyzji i działań. Autor też nie zawsze jest konsekwentny i stosując mapę myśli przedstawia też inny zmodyfikowaną typologię systemów informatycznych [J. Kisielnicki w pracy zbiorowej: J. Zaiła-Niedźwiecki, K. Rostek, 2010]. Współczesne systemy informacyjne są narzędziem pozwalającym na stały przepływ informacji między otoczeniem a organizacją. Ich rozwój powinien zapewnić w przyszłości stałe badanie i analizowanie tzw. słabych sygnałów nadchodzących zmian. Generacja ze- 78

79 Zarządzanie i informatyka cz. I rowa, czyli pochodząca z okresu przed komputeryzowaniem organizacji, jak też pierwsza generacja systemów informacyjnych, odbierały tylko tzw. silne sygnały. Jeśli system informacyjny odbiera tylko silne sygnały, najczęściej jest już zbyt późno, aby można było zmienić strategię działania, albo też przeprowadzić zmiany strukturalne. Oczywiście pomijamy takie sytuacje, kiedy sygnały odbierze nie najlepiej przygotowana kadra. Organizacja powinna posiadać takie systemy informatyczne, aby jak najwcześniej odbierać nawet słabe sygnały, o ile mają lub będą miały wpływ na jej działanie i wyniki. Mówimy więc o tym, że współczesne systemy informacyjne pozwalają na realizację procesu monitoringu gospodarczego jako procesu odbierania i przekształcania wszelkiego typu sygnałów. Sygnały mają różnorodną wartość i znaczenie, a więc dotyczyć będą zarówno zagrożeń, jak i powstania pozytywnych warunków. Jak pisze H. T. Ansoff [1985], w ciągu dwudziestego wieku historycznie rozwinięte umiejętności przedsiębiorstwa znajdowały coraz mniejsze zastosowania do kluczowych zmian w otoczeniu. W rezultacie czas potrzebny na efektywną reakcję, coraz bardziej wydłużał się. Zastosowanie współczesnej generacji systemów informacyjnych pozwala skracać ten czas. Nie można unowocześnić mechanizmów funkcjonowania dowolnej organizacji bez zmiany i unowocześnienia systemów informacyjnych. Trzecia generacja systemów informacyjnych daje decydentom silne narzędzia. Postęp techniczny powoduje, że decydent, jeżeli jest odpowiednio przygotowany, może realizować nawet najbardziej złożone zadania i rozwiązywać skomplikowane problemy. W stosunku do poprzednich prac na ten temat [J. Kisielnicki, H. Sroka, 2005], nastąpiło połączenie w jedną generację Systemów Wspomagania Decyzji i Systemów Ekspertowych oraz rozszerzenie o systemy określane jako BI i e-bi. Postęp spowodował, że współczesne systemy wspomagające procesy decyzyjne zasymilowały SE i zostały dalej rozbudowane. Takie stanowisko jest zgodne z prezentowaną w książce tezą o integracji systemów informacyjnych na skutek rozwoju ICT a wcześniej IT (technologii informacyjnej). W zależności od sprawowanych przez system funkcji możemy powiedzieć, że każdy z systemów informacyjnych w organizacji składa się z następujących podstawowych modułów (patrz rys. I.20). Oczywiście w każdej generacji są przetwarzane informacje odpowiednie do potrzeb ich użytkowników, co przedstawiono w powołanej już wcześniej tabeli. 79

80 Infrastruktura zarządzania Rysunek I.20. Podstawowe moduły systemów informacyjnych organizacji Źródło: opracowanie własne. Obok przedstawionych trzech generacji systemów informacyjnych należy zwrócić uwagę na pakiet systemów współpracujących i wspomagających je, a mianowicie systemy tj.: Wspomagające Pracę Biurową Office Systems, pakiety graficzne, programy dla zapewnienia bezpieczeństwa przesyłania danych, w tym programy antywirusowe i antyspamowe, programy certyfikujące i szyfrujące, umożliwiające podpis elektroniczny. E Turban [1990, s. 21] powołując się na McLean, wydziela, z punktu widzenia szczebli zarządzania, dwa typy systemów (nie nazywa ich generacjami), a mianowicie EDP (Electronic Data Processing), czyli system transakcyjny obsługujący wykonawców i DSS (Decision Support System) czyli system wspomagający decyzje. Uważa, że oba te typy systemów tworzą łącznie MIS (Management Information System) czyli SIZ System Informacyjny dla Zarządzania. K. Laudon i J. Laudon [2005] przedstawiają ciekawą czteropoziomową topologię systemów informacyjnych. Przyjmują oni, podobnie jak i w tej książce, za podstawę szczeble zarządzania i wydzielają następujące typy systemów: 1. Systemy transakcyjne dla poziomu operacyjnego i wymieniają w tej klasie następujące moduły: realizacji zamówień, analizy kosztów, listy płac, analizy zapasów materiałowych, bezpieczeństwa transakcji. 2. Systemy dla tzw. pracowników wiedzy i biurowych (Knowledge Work Sytems i Office Systems) są to w zasadzie systemy informacyjne dla personelu administracyjnego 80

81 Zarządzanie i informatyka cz. I i obejmują moduły; edytor tekstów, elektroniczny kalendarz, programy graficzne, programy wspomagające działalność rutynową kierowników. 3. Systemy informowania kierownictwa i systemy wspomagania decyzji (obie kategorie MIS Management Information Systems i DSS Decision Support Systems traktowane są łącznie) i zawierają takie moduły, jak: zarządzanie zapasami, analizę sprzedaży, analizę kosztów, analizę kontraktów i ich kosztów, analizę efektywności działalności organizacji. 4. Systemy dla najwyższego kierownictwa czyli systemy wspomagające funkcjonowanie szczebla strategicznego (ESS Executive Support Systems), w których znajdują się moduły wspomagające planowanie 5-letnich trendów sprzedaży, jak i budżetu, planowanie zasobów ludzkich, jak i planowania profilu produkcji. W tej typologii następuje połączenie systemów informowania kierownictwa z systemami wspomagania decyzji, natomiast wydzielony zostaję poziom systemów informacyjnych dla najwyższego kierownictwa. Uważamy jednak, z punktu widzenia potrzeb współczesnego zarządzania [J. Kisielnicki, 2008], że trudno oddzielić ICT dla najwyższego szczebla i nieco niższego. W literaturze prezentowane są również inne podejścia, w których za podstawę podziału przyjmuje się realizowane przez system funkcje. Jednak dobry system informacyjny obsługuje wszystkie funkcję zarządzania, chyba że piszemy o systemach dla organów kontrolnych. Ciekawy podział systemów informacyjnych z pozycji makro-gospodarczej, dotyczących państwa, przestawia J. Oleński [2006] wieloletni i obecny Prezes Głównego Urzędu Statystycznego [kwiecień 2008]. W przedstawionym przez niego podziale systemy informacyjne należy grupować następująco: Poltokracyjne, w których dzięki informacji, wiedzy, obywatele mają realny wpływ na działanie aparatu państwowego. Elokracyjne, w którym gestie (zarządzanie) nad informacją sprawują zorganizowane, pod pewnym względem zamknięte, grupy interesów (elity). Biurokratyczne, w których monopol na informację posiada urzędniczy aparat wykonawczy państwa. Demagokracyjny tu z kolei monopol na informację mają odpowiedni dysponenci, w tym środki masowego przekazu, kształtujące zasoby wiedzy społeczeństwa, jak i przekazujące takie informacje, jakie uważają za zasadne. Ksenokracji, w którym informacje znajdują się w gestii instytucji zewnętrznych wobec społeczeństwa, a w tym w gestii innych państw, organizacji międzynarodowych lub też zagranicznych grup interesów. 81

82 Infrastruktura zarządzania Oczywiście nie mamy tu do czynienia z systemem w czystej postaci, ale w praktyce z ich mieszanką, gdzie jeden z typów jest dominujący. Ponieważ, jak wcześniej powiedziano system zarządzania organizacji jest zasilany informacjami o otoczeniu, zarówno dalszym jak i bliższym (konkurencyjnym, chociaż nie tylko), to w rzeczywistości mamy do czynienia z bardzo zróżnicowanym pakietem systemów informacyjnych funkcjonujących na zewnątrz organizacji, jak i w jej ramach. O doborze systemów i analizie ich rodzajów będzie mowa w następnych częściach książki 82

83 83 Część II Zastosowania

84 System informacyjny organizacji 5. Zasoby informacyjne 5.1. O zasobach informacyjnych 5.2. Baza danych oraz baza baz, czyli hurtownia danych 5.3. Baza modeli i procedur 5.4. Baza wiedzy 5.5. Baza tekstowa 5.6. Baza multimedialna 6. Zarządzanie zasobami informacyjnymi 6.1. Systemy komunikacji z zasobami informacyjnymi 6.2. Ochrona zasobów informacyjnych 7. Charakterystyka podstawowych systemów informacyjnych wspierających procesy zarządzania 7.1. Wspomaganie zarządzania wybór systemu informacyjnego 7.2. Systemy transakcyjne, czyli systemy informacyjne I generacji 7.3. Systemy wyszukiwania informacji i informowania kierownictwa systemy informacyjne II generacji 7.4. Systemy doradcze, czyli systemy informacyjne III generacji 7.5. Zintegrowane systemy informacyjne 84

85 Rozdział 5 Zasoby informacyjne 5.1. O zasobach informacyjnych W pierwszej części książki przedstawiono charakterystykę zasobów informacyjnych organizacji jako kapitał niematerialny. Zasób jest jednym z podstawowych pojęć ekonomii. Zasób reprezentuje poziom danej zmiennej w określonym momencie, czyli nie ma wymiaru czasowego. Odróżnia to od strumienia, który wyraża zmianę na jednostkę czasu [A. Samuelson 2004, s. 213]. Zasoby te są znaczącym elementem tworzenia wartości organizacji i wpływają na jej wartość. Tworzą bowiem kapitał intelektualny. Zasoby informacyjne rozumiane są szeroko i obejmują: dane, informacje, wiedzę, procedury, modele, grafikę, obrazy. Użyteczność ich zastosowania zależy od umiejętności ich przetworzenia i dostarczenia użytkownikowi w formie najlepiej zaspakajającej jego potrzeby. Zasoby informacyjne funkcjonują w systemach informacyjnych w postaci: baz danych i hurtowni danych, jak też w bardziej zawansowanych systemach informacyjnych jako bazy procedur, bazy modeli, bazy wiedzy, bazy tekstów (dokumentów), bazy multimedialne. Zarządzanie zasobami informacji to wielostopniowa procedura działań obejmująca czynności, takie jak: absorpcja zasobów informacyjnych do systemu, ich standaryzacja, kodowanie, klasyfikowanie, sortowanie, agregowanie, filtrowanie, selekcjonowanie, utrzymywanie, konserwowanie i usuwanie. Zależnie od konkretnej sytuacji łańcuch operacji jest zmienny i może nie obejmować wszystkich elementów przedstawionej procedury. Często kolejność wykonywania operacji zmienia się, a niekiedy znów mamy do czynienia z wielostopniową realizacją procedury. Na przykład wielostopniowa agregacja w kontekście potrzeb różnych użytkowników korzystających z tych samych źródłowych informacji. W procesie opracowywania i pozyskiwania danych powinniśmy być elastyczni i przygotowani do różnych sytuacji wynikających z zadań systemu informacyjnego. Zasoby danych utrzymywane są w systemach informacyjnych dzięki odpowiedniemu oprogramowaniu i za jego pośrednictwem udostępniane użytkownikowi. Zawsze należy przestrzegać podstawowej zasady (w książce wielokrotnie świadomie powtarzanej), użytkownik ma zawsze rację i najlepiej wie, jakie zasoby informacyjne są mu potrzebne. 85

86 Zasoby informacyjne 5.2. Baza danych oraz baza baz czyli hurtownia danych Podstawą współczesnych systemów informacyjnych zarządzania jest baza danych. Występuje ona we wszystkich systemach wspomagających zarządzanie i to niezależnie od zastosowanych rozwiązań technicznych i technologicznych. Termin baza danych został użyty po raz pierwszy w listopadzie 1963, na sympozjum pod nazwą Development and Management of a Computer-centered Data Base. Miejsce bazy danych w systemach informacyjnych można przedstawić schematycznie, jak na rysunku II.1. Administrator osoba lub zespół osób odpowiadająca za eksploatację bazy danych Rysunek II.1. Miejsce bazy danych w systemach informacyjnych wspomagających zarządzanie Źródło: opracowanie własne. Pojęcie bazy danych pojawiło się już w części pierwszej książki, tu chcemy je uszczegółowić. I tak J. Martin [1993], uważa, że baza danych to zbiór wystąpień różnych typów rekordów (elementarnych jednostek danych) oraz opisów powiązań między rekordami, danymi zagregowanymi i danymi elementarnymi. J. Martin zwraca uwagę na to, że w większości systemów, terminu baza danych nie używa się w odniesieniu do wszystkich typów rekordów, lecz do określonej ich części. Ukierunkowane na zastosowanie w zarządzaniu jest określenie podane przez C. J. Date [1981], według którego baza danych jest zbiorem danych operacyjnych wykorzystywanych przez systemy użytkowe organizacji. Pojęcie baza danych w literaturze przedmiotu bywa przedstawiane różnie, choć podobnie. Mówiąc o bazie danych, mówimy zarówno o zbiorach danych, jak i o oprogramowaniu zarządzającym bazą danych, czyli o Systemie Zarządzania Bazą Danych SZBD (Data Base Management System). Według komitetu CODASYL (COnferance of DAta SYstems Languages), który jest najbardziej kompetentną organizacją, jeśli chodzi o nazewnictwo i standaryzację oprogramowania: 86

87 Zarządzanie i informatyka cz. II Baza danych jest to zestaw zbiorów (kolekcja) utrzymywanych w określony sposób przez użytkowników w procesach zakładania, aktualizacji i obsługi zapytań [CODASYL, 1971]. Jest to więc zbiór danych zapisanych zgodnie z okreslonymi regułami. W węższym znaczeniu obejmuje dane cyfrowe, gromadzone zgodnie z zasadami przyjętymi dla danego programu komputerowego, specjalizowanego do gromadzenia i przetwarzania tych danych. W tym znaczeniu baza danych może być rozumiana jako zbiór danych organizowany przez pewien system (system baz danych), którego celem jest: gromadzenie, przechowywanie, przetwarzanie i wizualizacja informacji.schematycznie, elementy systemu baz danych: bazę danych (zbiór danych), System Zarządzania Bazą Danych i użytkowników przedstawiono na rysunku II 2. Rysunek II.2. Elementy systemu baz danych Źródło: opracowanie własne. W tym podejściu baza danych to zbiór danych, którego zadaniem jest reprezentowanie pewnego obszaru rzeczywistości wybranego dla analizy. Dane w bazie danych zorganizowane są w specyficzny sposób, zgodny z tzw. modelem danych i struktura ich powinna odzwierciedlać obiekty danej rzeczywistości, informacje o nich i związki między tymi obiektami. Odwzorowanie w bazie danych pewnego aspektu rzeczywistości powinno charakte- 87

88 Zasoby informacyjne ryzować się następującymi cechami: poprawnością rozumianą jako zgodność z rzeczywistością, istotnością każdy element odzwierciedlony w bazie danych powinien być istotny, ważny dla analizowanego obszaru rzeczywistości, pełnością żaden ważny element rzeczywistości nie może być pominięty. Bazy danych można podzielić według struktur organizacji danych na: Bazy proste: bazy kartotekowe i hierarchiczne bazy danych. Bazy złożone: bazy relacyjne, bazy obiektowe, bazy relacyjno-obiektowe, strumieniowe bazy danych, temporalne bazy danych. W dalszej części scharakteryzujemy wybrane struktury, a tym samym bazy danych. System Zarządzania Bazą Danych SZBD (Data Base Management System, DBMS) pełni rolę bufora między programami użytkowymi (aplikacjami), użytkownikami końcowymi i bazą danych zaprojektowaną z zachowaniem cech niezależności danych; uwalnia użytkowników od konieczności znajomości szczegółów technicznych. Z technologicznego punktu widzenia jest to moduł programowy, którego zadaniem jest zarządzanie całą bazą danych oraz realizowanie żądań aplikacji użytkowników. Podstawowa funkcjonalność SZBD obejmuje: wsparcie dla języka bazy danych, który umożliwia m.in. tworzenie (create) danych i struktur danych, wyszukiwanie (read), modyfikowanie (update) oraz usuwanie (delete) danych funkcje CRUD, wsparcie dla struktur danych zapewniających efektywne składowanie i przetwarzanie dużych wolumenów danych, optymalizację dostępu do danych, synchronizację współbieżnego dostępu do danych, zapewnienie bezpieczeństwa danych w przypadku awarii sprzętu lub oprogramowania, zapewnienie obsługi bazy danych przez uprawnionych użytkowników autoryzację dostępu do danych, zapewnienie dostępu do danych przez wielu użytkowników wielość interfejsów dostępu do bazy danych. Reasumując, cechami charakterystycznymi systemu zarządzania bazą danych jest zapewnienie efektywnego, jednoczesnego, bezpiecznego i wyłącznego dostępu do dużej ilości danych, dużej liczbie użytkowników. W skład systemu baz danych wchodzą także różne grupy użytkowników związane z użytkowaniem bazy danych na różnych etapach, wśród których wyróżniamy: użytkowników końcowych, programistów aplikacji, projektantów baz danych, 88

89 Zarządzanie i informatyka cz. II analityków systemowych, administratorów baz danych, administratora danych. Użytkownicy końcowi korzystają z bazy danych głównie za pomocą gotowych aplikacji. Ich wiedza zwykle ogranicza się do obsługi aplikacji i znajomości zagadnień, umożliwiająca przeprowadzenie analizy wybranego obszaru rzeczywistości. Zadaniem programistów jest implementowanie aplikacji dla użytkowników końcowych, którzy ustalają wymagania dotyczące ich funkcjonalności. Projektanci baz danych zajmują się projektowaniem struktury logicznej bazy danych, czyli struktur modelu danych i projektowaniem struktury fizycznej bazy danych, czyli doborem parametrów fizycznego składowania danych na nośnikach. Ich zadaniem jest przygotowanie działającej bazy danych. Analitycy systemowi zajmują się analizą wymagań systemu bazy danych i aplikacji. Wynik ich pracy jest podstawą opracowania struktury logicznej, a często także fizycznej bazy danych i wykorzystywany jest przez projektantów baz danych i programistów aplikacji. Administratorzy systemu bazy danych są odpowiedzialni m.in. za: przygotowanie systemu do pracy, zagwarantowanie ciągłości pracy systemu, określenie procedur archiwizowania i odzyskiwania danych, zarządzanie kontami użytkowników, śledzenie wydajności i reakcję na zmiany. Administrator danych podejmuje decyzje o przechowywaniu konkretnych danych, określa zasady utrzymywania i postępowania z danymi. Komunikacja programu użytkowego (aplikacji) z bazą danych odbywa się za pomocą języka SQL. Jest to jedyny sposób interakcji aplikacji z bazą danych. SQL jest językiem deklaratywnym, co oznacza, że posługując się nim, określamy zapytanie, ale nie specyfikujemy algorytmu, w jakim ma być ono zrealizowane. Optymalny sposób wykonania zadania jest automatycznie dobierany przez SZBD. SQL jest językiem standaryzowanym. Zajmuje się tym międzynarodowy komitet w skład, którego wchodzą przedstawiciele największych producentów SZBD (IBM, Microsoft, Oracle). Dotychczas opracowano trzy standardy języka SQL: SQL-92, SQL-99, SQL- 2003, kolejno rozszerzające jego funkcjonalność. Język SQL jest narzędziem dostępu do bazy danych stosowanym głównie przez projektantów aplikacji, projektantów baz danych i administratorów baz danych. Standardowym sposobem korzystania z bazy danych przez użytkowników końcowych są aplikacje. Na poziomie programistycznym aplikacje również komunikują się z bazą danych za pomocą poleceń SQL. 89

90 Zasoby informacyjne W obrębie jednego systemu baz danych może istnieć wiele baz danych. Ze względu na liczbę wykorzystywanych BD, wyróżnia się systemy scentralizowane z jedną bazą danych i systemy rozproszone z więcej niż jedną bazą wchodzącą w skład systemu. Jak przedstawimy dalej, zauważalną tendencją jest dążenie do ich integracji. Użytkownik stawia systemowi z bazami danych rozmaite wymagania, a najważniejsze to [J. Martin,1983, A. Senn, 1995 J&K Laudon, 2008]: Kontrolowana redundancja czyli nadmiarowość. Kontrolowana redundancja to celowe wprowadzenie jej do bazy danych. Stosuję się ją wtedy, gdy obliczenie określonej danej z innych danych jest możliwe, lecz skomplikowane i czasochłonne. Dlatego, ze względów ekonomicznych, lepiej świadomie dopuścić do redundancji. Kontrolowana redundancja jest wprowadzana po to, aby między innymi poprawić czas dostępu, umożliwić prostsze metody adresowania lub uzyskać lepszą jakość przetwarzanych danych. Różnorodne korzystanie z bazy. Użytkowników jest wielu, niekiedy liczba ich dochodzi do kilkudziesięciu i setek tysięcy (eksploatowane są bazy danych dla wielu milionów użytkowników). Użytkownicy postrzegają dane w rozmaity sposób i mogą z nich korzystać stosownie do swoich potrzeb. Możliwość szybkiej pracy konwersacyjnej. Użytkownik może otrzymać potrzebne mu dane w bardzo krótkim czasie. Nie musi w tym celu pisać specjalnych programów. Zadane pytanie może mieć rozmaitą postać i format. Jest to tak zwana obsługa nieprzewidzianych zapytań, w której przetwarza się dane w różnych ciągach logicznych, bez potrzeby wcześniejszego sortowania. Łatwość rozwoju i reorganizacji. Baza danych powiększa się o pozyskiwane nowe dane bez konieczności zmiany sposobu ich używania, a nowe zastosowania korzystają z danych już istniejących. Unika się w ten sposób konieczności posługiwania się różnymi wersjami oprogramowania (nowe vs stare wersje oprogramowania). Dostępność i wydajność. Użytkownik otrzymuje wszystkie potrzebne mu dane, o ile istnieją one w bazie danych i ma upoważnienie do korzystania z nich. Dostęp do nich realizowany jest z taką szybkością, jaka jest wymagana przez użytkownika. Poufność. Osoby nieupoważnione nie powinny mieć dostępu do danych. Dostęp do tych samych danych może być w różny sposób ograniczany dla różnych grup użytkowników. Zabezpieczenie przed zgubieniem, zniszczeniem, jak również możliwość szybkiego przywrócenia danych po awariach. Dane mogą być zabezpieczone przed 90

91 Zarządzanie i informatyka cz. II niepożądanymi działaniami człowieka lub klęsk żywiołowych. Szczególnie mogą być zabezpieczone przed przestępcami, wandalami, osobami niekompetentnymi oraz osobami, które mogłyby dokonać w nich szkodliwych zmian. Wówczas, w przypadku, gdy normalne zabezpieczenia zawiodą i zbiór danych zostanie zniszczony, jest możliwość automatycznego przywrócenia danych. Fizyczna i logiczna niezależność danych. Zmiany w sprzęcie i metodach organizacji nie wywołują zmian użytkowych także wówczas, kiedy dołączamy nowe dane oraz zmieniamy ich strukturę logiczną. Zbiory danych, które nie spełniają tych wymagań, nie powinny być uznawane za systemy z bazą danych. Mamy wtedy do czynienia ze zwykłym zbiorem danych typu kartoteka. Podstawowe korzyści użytkowania systemu informacyjnego z bazą danych są następujące: większa szybkość wyszukiwania danych, niż w systemach bez bazy danych, możliwość uzyskiwania potrzebnych zestawów danych, często w bardzo różnych formatach, możliwość szybkiej reorganizacji i aktualizacji zasobów danych, obniżenie kosztów eksploatacji systemu przez zminimalizowanie redundancji. Sposoby przedstawienia danych w bazie danych nazywamy modelami. W praktyce i teorii opisanych jest wiele rozmaitych modeli danych. Budując je, posługujemy się najczęściej następującymi określeniami 2 : dane elementarne, które składają się z nazwy i atrybutów (opisu) charakteryzujących wartość elementarną, tj. najmniejszą kombinację znaków, która ma sens, dane złożone tzw. segmenty, które są wystąpieniami nazwanego zbioru danych elementarnych w ramach rekordu; odmianami danych złożonych są: wektor i grupa powtarzalna (wektor jest jednorodnym strumieniem znaków, grupa powtarzalna obejmuje co najmniej dwa wektory), rekordy, które są wystąpieniami nazwanych zbiorów wymienionych obiektów informacyjnych; na przykład w rekordzie mieści się zapis operacji gospodarczej, sety, tj. kolekcja typów rekordów; kolekcja jest relacją (związkiem) co najmniej dwu typów rekordów (zawsze tylko jeden rekord jest nadrzędny właściciel (owner), a pozostałe są podporządkowane członek (member)). 2 Najczęściej posługujemy się terminami, które zaproponowała grupa do badania systemów baz danych Amerykańskiego Narodowego Instytutu Normalizacji. Stosowane są jednak inne pojęcia J. Martin [1983] zestawił je w odpowiednich tablicach. 91

92 Zasoby informacyjne Modele danych można podzielić według rozmaitych kryteriów. Powszechnie przyjmuje się podział na trzy kategorie: modele wysokiego poziomu zwanego często poziomem konceptualnym, modele użytkowe, modele wewnętrzne, niskiego poziomu. Model konceptualny jest to spojrzenie na dane jako na całość, wyrażony jest w postaci określonych wymagań dotyczących danych. Model taki powinien być najbardziej stabilny. Konceptualny model danych powinien być podstawą, na której opierać się będzie proces przetwarzania danych. Zmiana użytkowego (logicznego) modelu danych zastosowana przez projektantów i programistów lub zmiana w pamięci fizycznej nie wpływa na model konceptualny, który ewentualnie rozrasta się przez dołączanie nowych typów danych. Właśnie ten rodzaj modelu najbardziej interesuje użytkownika. Modele użytkowe (logiczne), które będą dalej prezentowane, stanowią podstawę do budowy systemu informacyjnego. Zalicza się do nich następujące rodzaje: hierarchiczny, sieciowy, relacyjny, obiektowy, często też wydziela się kategorię modeli relacyjnoobiektowych. Dwa pierwsze modele, a mianowicie hierarchiczne i sieciowe, są modelami tradycyjnymi i w zasadzie nie są już w czystej postaci stosowane w praktyce. Zależności hierarchiczne i sieciowe są przedstawiane za pomocą modeli relacyjnych i obiektowych. Większość komercyjnego oprogramowania obsługuje modele relacyjne. Coraz większą popularność zdobywają sobie jednak modele obiektowe i relacyjno-obiektowe. Model wewnętrzny (fizyczny), czyli niskiego poziomu, opisuje sposób przechowywania danych w pamięci komputerów i przedstawia formaty rekordów czy ścieżki dostępu. Takimi modelami są między innymi: metody adresowania, struktury łańcuchowe i pierścieniowe. Model wewnętrzny jest przedmiotem zainteresowania programistów systemów informatycznych i w dalszych rozważaniach nie będziemy się nim zajmowali. Każdy użytkowy (logiczny) model danych, reprezentujący w bazie danych obiekty ze świata rzeczywistego definiuje trzy podstawowe elementy: 1. strukturę danych, 2. operacje na danych zbiór reguł dotyczących procesu dostępu do danych i ich modyfikacji, 3. ograniczenia intergralnościowe nakładane na dane zbiór reguł określających, jakie dane są poprawne. Struktura hierarchiczna jest najstarszym stosowanym modelem struktury danych w bazie danych. W tym modelu struktura danych obejmuje dwa elementy: typ rekordu i związek podrzędno-nadrzędny. Typ rekordu to nazwana struktura danych, złożona ze zbioru nazwanych pól, z których każde przechowuje prosty atrybut i jest mu przyporząd- 92

93 Zarządzanie i informatyka cz. II kowany określony typ danych. Kluczem nazywamy jedno z pól wyróżnione jako unikalny identyfikator rekordu wśród rekordów danego typu. Każdy typ rekordu (z wyjątkiem najwyższego w hierarchii) jest związany z dokładnie jednym typem rekordu nadrzędnego, czyli każdy typ rekordu może uczestniczyć w roli podrzędnej, w co najwyżej jednym powiązaniu rekordów, w roli nadrzędnej w dowolnej liczbie takich powiązań. Strukturę hierarchiczną nazywamy również strukturą drzewiastą. Strukturę tą charakteryzuje konieczność istnienia jednego węzła, który nie jest podporządkowany żadnemu węzłowi struktury (najwyższemu w hierarchii). Węzeł taki nazywamy korzeniem drzewa. Przykład hierarchicznej struktury modelu danych jest pokazany na rysunku II.3. Rysunek II.3. Struktura hierarchiczna modelu danych Źródło: opracowanie własne. W strukturze hierarchicznej istotne jest, aby każde wystąpienie rekordu było analizowane w odpowiednim kontekście. Zgodnie z narzuconymi węzłami integralności rekord podrzędny nie może istnieć bez rekordu nadrzędnego: usunięcie rekordu nadrzędnego wiąże się z usunięciem wszystkich rekordów względem niego podrzędnych, a także nie można wstawić rekordu bez powiązania go z odpowiednim rekordem nadrzędnym. Zaletą metody hierarchicznej jest prostota, a wadą sztywność i to, że nie wszystkie zależności mają hierarchiczny charakter. Zatem zaleta tej metody jest jednocześnie jej wadą. Wiele rzeczywistych sytuacji nie może być modelowanych za pomocą metody hierarchicznej, a w niektórych przypadkach ewentualne jej użycie może powodować zbyt duże uproszczenia. 93

94 Zasoby informacyjne Strukturę hierarchiczną mają niekiedy struktury organizacyjne. Są to struktury liniowe typu jeden wódz. Przykładem hierarchicznej bazy danych jest opracowana przez IBM baza IMS (Information Management System). W modelu sieciowym struktura danych opisana jest przez dwa elementy: typ rekordu i typ kolekcji. Typ rekordu to także nazwana struktura danych, złożona ze zbioru nazwanych pól, ale inaczej niż w modelu hierarchicznym, pola mogą być używane do przechowywania wielu wartości lub reprezentowania złożonych wartości, które się powtarzają. Z kolei typ kolekcji zawiera opis związku typu jeden do wiele między dwoma typami rekordów: nadrzędnym (właścicielem) typ rekordu po stronie jeden i podrzędnym (członkiem) typem rekordu po stronie wiele. Typ kolekcji zdefiniowany jest przez podanie jego nazwy, typu rekordów właściciela, typu rekordów członka oraz sposobu porządkowania elementów kolekcji (członków). Typ rekord w modelu sieciowym może równocześnie i wielokrotnie wystąpić w nadrzędnej oraz w podrzędnej roli (rys. II.4). Rysunek II.4. Struktura sieciowa modelu danych Źródło: opracowanie własne. Integralność danych w modelu sieciowym dotyczy określania zasad członkostwa w kolekcji i trybu wstawiania typu rekordu do kolekcji, zgodności zawartości pól rekordu z określeniem typu rekordu i unikalności pól kluczowych. Struktura sieciowa modelu jest uważana za elastyczną i dość dobrze odwzorowującą rzeczywistość. Nie nakłada ona ograniczeń na konstruowanie powiązań między jednostkami. W porównaniu z modelem hierarchicznym struktura sieciowa jest ogólniejsza. Obok sformułowań typowych dla modelowania hierarchicznego, na przykład: jaki jest nadrzędny rekord dla..., pojawia się sformułowanie jakie są powiązania rekordu z.... Powiązania te mogą mieć różny charakter. 94

95 Zarządzanie i informatyka cz. II Opisując strukturę sieciową modelu danych, używa się dwóch specyficznych pojęć, a mianowicie: schemat, który zawiera definicję różnych typów rekordów w modelu danych oraz kolekcji grupującej typy rekordów, sub-schemat, który jest wydzielonym według określonego kryterium zwartym i logicznym podzbiorem schematu. Podział na schemat i sub-schematy jest wygodny dla użytkownika. Zwykle interesuje go tylko część, a nie cała baza danych. Taki podział jest również wygodny ze względów bezpieczeństwa. Użytkownik ma dostęp tylko do części zbiorów. Działania nieetyczne powodują nieograniczone szkody. Zarówno w modelu hierarchicznym jak i sieciowym typowe operacje na danych dotyczą wyszukiwania odpowiednio: typów rekordów lub typów kolekcji spełniających warunki dotyczące zawartości określonych pól, usuwania i dodawania rekordów lub kolekcji oraz edycji pól rekordów, a sposób realizacji tych operacji odbywa za pomocą wbudowanych funkcji lub procedur dostępu do bazy danych w wybranym języku programowania. O ile brak jest jednolitej teoretycznej podstawy modelu hierarchicznego i sieciowego, rozwinęły się one w wyniku istniejących implementacji, o tyle podstawy teoretyczne i charakterystykę modelu relacyjnego danych sformułował w latach siedemdziesiątych XX wieku E. E. Codd [1974]. Model relacyjny danych jest obecnie najbardziej popularną strukturą danych. Jedyną strukturą w modelu relacyjnym, która jest wykorzystywana do reprezentowania danych jest relacja. Każda relacja posiada swój schemat R(A 1, A 2,...A n ), który składa się z listy atrybutów, a każdy atrybut posiada swoją domenę (dom(a i )), definiującą zbiór wartości, jakie może przyjmować ten atrybut. Formalna definicja relacji jest następująca: Relacją o schemacie R(A 1, A 2,...A n ), oznaczoną symbolem r(r) nazywamy zbiór krotek postaci r = {t 1, t 2,...,t m }, gdzie pojedyncza krotka t jest uporządkowaną listą n wartości: t = <a 1, a 2,..., a n >, gdzie a i, dla 1<i<n, jest elementem dom(a i ) tzn. a i dom(a i ) lub specjalną wartością pustą NULL. Matematyczną definicję relacji można zatem sformułować następująco: relacja r(r) jest relacją matematyczną stopnia n zdefiniowaną na zbiorze domen dom(a 1 ), dom(a 2 ),..., dom(a n ) będącą podzbiorem iloczynu kartezjańskiego domen definiujących R, czyli: r(r) dom(a 1 ) dom(a 2 )... dom(a n ). Przykład iloczynu kartezjańskiego dwóch zbiorów A i B przedstawiony jest na rysunku II.5. Intuicyjnie relacje wygodnie jest przedstawić za pomocą tablic (prawa część rysunku) z kolumnami i wierszami: kolumny odpowiadają atrybutom relacji, a wiersze krotkom. Tablica odpowiadająca relacji charakteryzowana jest przez następujące cechy: każdy atrybut w relacji na jednoznaczną nazwę, nie ma znaczenia porządek atrybutów, 95

96 Zasoby informacyjne Rysunek II.5. Iloczyn kartezjański Źródło: opracowanie własne. nie ma znaczenia porządek krotek i nie jest on elementem definicji relacji, wartości atrybutów są atomowe, nie jest dozwolony zbiór wartości, nie ma powtarzających się krotek (z definicji relacja jest zbiorem krotek, a więc wszystkie krotki relacji muszą być unikalne). Na rysunku II.6 przedstawiono przykładową strukturę relacyjną modelu bazy danych. Rysunek II.6. Fragment struktury relacyjnej bazy danych Źródło: opracowanie własne. 96

97 Zarządzanie i informatyka cz. II Realna baza danych będzie na pewno zawierać dodatkowe tablice dotyczące kosztów transportu, warunków zakupu, jakości surowca, itd. W rozpatrywanym przypadku wartość NULL może być wprowadzona, jeżeli odbiorca piekarnia z tablicy B nie otrzymuje zaopatrzenia od dostawcy młyna z tablicy A. W relacyjnym modelu danych, inaczej niż w modelu hierarchicznym lub sieciowym, operacje na danych są precyzyjnie matematycznie zdefiniowane. Algebra relacyjna to zbiór ośmiu operatorów, procedur opisujących konstrukcję nowych wartości (relacji) z danych wartości (relacji) w skład, którego wchodzą: główne operatory (operujące tylko na relacjach) selekcja, rzut, złączenie, tradycyjne operatory teorii zbiorów, operacja przemianowania. Ograniczenia integralności w modelu relacyjnym definiuje się na poziomie pojedynczego atrybutu lub całej relacji i dotyczą one kluczy podstawowych (integralność encji), kluczy obcych (integralność referencyjna), unikalności zawężenia dziedziny, stosowania wartości NULL. Relacyjna baza danych wymaga większych objętości pamięci niż bazy hierarchiczne i sieciowe. Ponieważ obecnie zasoby pamięciowe nie są barierą, tego typu systemy rozwijają się dynamicznie. Cechą charakterystyczną bazy relacyjnej, która odróżnia ją od innych modeli baz danych, jest jednolite przedstawienie informacji w bazie za pomocą obiektu jednego typu tablic. Stosowanie jednej struktury dla danych i związków między nimi prowadzi do semantycznego przeładowania modelu relacyjnego i stanowi o jego słabości. Problemem jest również słaba reprezentacja świata rzeczywistego, wynikająca z podziału danych na liczne relacje, które wynikają z procesów normalizacji oraz trudności w zarządzaniu złożonymi obiektami. Te z kolei są spowodowane ograniczeniem relacyjnym do wartości atomowych, co wpływa na to, iż struktury hierarchiczne zagnieżdżone są słabo reprezentowane w modelu relacyjnym. Struktura obiektowa. Obecny okres nazywamy post relacyjnym. Jak pisze K. Subieta [1998], dzięki obiektowości zostały uchylone matematyczne ograniczenia relacyjnych baz danych. W obiektowej bazie danych podstawową jednostką struktury danych są obiekty powiązane za pomocą pewnej liczby mechanizmów abstrakcji w klasie obiektów. Podstawowe mechanizmy abstrakcji: uogólnienie i agregacja, umożliwiają konstruowanie hierarchii i struktury klas obiektów, co zapewnia możliwość tworzenia, przechowywania i przetwarzania informacji z dowolnie złożonych obiektów. W nowoczesnych bazach obiektowych będą to również dane zapisane w postaci graficznej lub dźwiękowej. Obiekty komunikują się ze sobą przez przesyłanie komunikatów do metod określonych na tych obiektach. Każdy obiekt posiada identyfikator, co umożliwia tworzenie powiązań między nimi, zwiększa szybkość i wydajność wyszukiwania potrzebnych informacji. 97

98 Zasoby informacyjne Przeprowadzone analizy porównawcze baz relacyjnych i obiektowych nie dają jednoznacznych wyników. Model obiektowy jest koncepcyjnie zbyt złożony, w stosunku do prostego, opisanego matematycznie modelu relacyjnego, co K. Subieta [1998, s. 29] wyraził słowami model obiektowy jest koncepcyjnie zbyt złożony, aby pasował do prostoty i elegancji wymaganej przez matematykę. Na niekorzyść baz obiektowych działa również to, że na rozwój modelu relacyjnego poniesiono duże nakłady i firmy tworzące oprogramowanie pragną je teraz odzyskać. Obecnie przewaga technologiczna jest po stronie baz relacyjnych, jednak czas i odpowiednie inwestycje mogą ją zniwelować. Nie bez znaczenia jest czynnik psychologiczny, a więc bezwładność rynku oprogramowania, który niechętnie zmienia swoje preferencje. Niektóre testy wydajnościowe wykazują, że systemy obiektowe są sprawniejsze od relacyjnych setki i tysiące razy [K. Subieta, 1998, s. 30]. Równocześnie w relacyjnym modelu coraz częściej stosowane są niektóre rozwiązania obiektowe, w konsekwencji powstają hybrydowe bazy relacyjno-obiektowe. Jak pisze A. Nowicki [2006, s. 158] są one stosowane po to, aby nie wprowadzać gwałtownych, a przy tym kosztownych zmian w całej organizacji, w tym celu można zastosować obiektowo-relacyjną bazę danych. Produkty handlowe to między innymi oprogramowanie do zarządzania takimi bazami danych jak: UniSQL, OpenODB/Odapter, Objective/DB. Należy w pełni zgodzić się z twierdzeniami, że nie daje się ustalić precyzyjnie granicy, gdzie kończy się relacyjność, a zaczyna obiektowość. Wynika to między innymi z tego, że określenie relacyjny jest rozciągane i zmieniane. Z tego też powodu, na co już zwracano uwagę, istnieją duże trudności w precyzyjnym sformułowaniu terminów dotyczących baz danych i odpowiadających im modeli danych, szczególnie w relacyjnym i obiektowym podejściu. W literaturze pojawia się nowy rodzaj baz danych tzw. bazy temporalne. Klasyczne bazy (hierarchiczne, sieciowe i relacyjne) modelują rzeczywistość statycznie. Bazy temporalne w jeszcze większym stopniu niż obiektowe kładą nacisk na dynamiczność modelowania rzeczywistości. Dlatego też bazy danych, które modelują historię zmian rzeczywistości określa się mianem temporalnych. Temporalna baza danych jest to baza danych zawierająca informację o czasie wprowadzenia lub czasie ważności zawartych w niej danych. Temporalne bazy danych są często administrowane automatycznie, przez usuwanie nieaktualnych danych lub ich archiwizowanie [K. Swanson, 2007]. Są one więc odmianą bazy relacyjnej, w której każdy rekord posiada stempel czasowy, określający czas w jakim wartość jest prawdziwa. Posiada także operatory algebry relacyjnej, które pozwalają operować na danych temporalnych (wyciągać historię). Rozwój systemów z bazą danych zdeterminowany jest rozwojem tzw. hurtowni danych (Data Warehouse). Termin Data Warehouse został wprowadzony pod koniec lat osiemdziesiątych przez Billa Inmona. Bill Inmon zaproponował następującą jej definicję: 98

99 Zarządzanie i informatyka cz. II Hurtownia danych to tematyczna, zintegrowana, zmienna w czasie składnica nieulotnych danych, przeznaczona do wspierania procesów podejmowania decyzji [M. Łakomy, 2012]. Celem gromadzenia danych w bazach danych jest z jednej strony wspomaganie bieżącego funkcjonowania organizacji, a z drugiej wspomaganie efektywnego zarządzania nią. W praktyce, hurtownie są bazami danych integrującymi dane z wszystkich pozostałych systemów bazodanowych w organizacji. Realizacja pierwszego celu możliwa jest dzięki zastosowaniu, przedstawionych poprzednio, systemów baz danych, tzw. transakcyjnych czy operacyjnych, zapewniających spójność danych, wielodostęp, łatwość modyfikacji. Bazy danych przetwarzania transakcyjnego (OLTP) stosuje się w typowych zastosowaniach ewidencyjnych, np. w rezerwacji i sprzedaży biletów, w bibliotekach i wypożyczalniach, w systemach ewidencji ludności, w bankowości w obsłudze bieżącej. Zastosowania takie charakteryzują się ogromną liczbą jednocześnie działających użytkowników. Interakcja pojedynczego użytkownika z bazą danych jest krótka i trwa do kilkunastu sekund. Bazy danych przetwarzania analitycznego (OLAP) stosuje się w systemach wspomagania zarządzania. Dla sprawnego zarządzanie organizacją istotne jest uzyskanie informacji zarządczej zapewniającej: wyciągnięcie z danych informacji o wzorcach możliwość wieloaspektowej przekrojowej analizy według złożonych kryteriów wyszukiwania, wyciągnięcie, z danych o dłuższym przedziale czasowym, informacji o trendach, wyszukanie ukrytych zależności i reguł.charakterystyczne dla OLAP są następujące operacje na danych [por. J. Surma 2009]: określenie zakresu analizy (scoping) ustalenie, jakie fakty i w jakich wymiarach będą raportowane, drążenie/zwijanie (drill up/down) jedne z najpopularniejszych operacji analitycznych, umożliwiające zmianę poziomu szczegółowości prezentowanych danych; na przykład, wykonując drążenie sprzedaży zagregowanej po latach, możemy wyświetlić dane sprzedażowe w rozbiciu na poszczególne miesiące interesującego nas roku, wycinanie i kawałkowanie (slice and dice) wycięcie z wielowymiarowej kostki wybranego agregatu danych i dalszy jego podział na mniejsze części, obracanie (pivot) zmiana perspektywy oglądanych danych, np. zamiana miejscami wymiarów w wierszach i kolumnach tabeli, działania na faktach sumowanie, uśrednianie, wartości najmniejsze/największe, rankingowanie etc. 99

100 Zasoby informacyjne W modelu OLAP dane są zorganizowane w wielowymiarowe kostki (cubes), w których fakty tj. dane ilościowe, odpowiadające na pytanie: ile?, za ile?, np. sprzedaż, stan magazynu itd. są zgrupowane w obrębie wymiarów tj. danych opisowych, odpowiadających na pytanie: kto?, kiedy?, co?, gdzie?, np. klient, czas, produkt, region etc. Taki sposób organizacji danych zapewnia wieloaspektową perspektywę (w odróżnieniu od prostych, dwuwymiarowych tablic oferowanych zwykle przez systemy transakcyjne) i możliwość dostarczania szybkich odpowiedzi na pytania biznesowe. Rysunek II.7. Kostka OLAP przykład budowy Źródło: [2011] Ze względu na zastosowaną technologię, OLAP można podzielić na: ROLAP (Relational OLAP) relacyjny OLAP pozwala na przeprowadzanie analiz wielowymiarowych na danych bezpośrednio składowanych w relacyjnej HD, MOLAP (Multidimensional OLAP) serwery MOLAP korzystają z wydzielonych, wielowymiarowych struktur danych, które mogą być przechowywane w obszarze dyskowym serwera (np. kostki MDX narzędzia Microsoft Analysis Services) lub w pamięci RAM (np. Intelligent Cubes narzędzia MicroStrategy), HOLAP (Hybrid OLAP) połączenie dwóch wymienionych architektur, zapewniające największą elastyczność, tj. bardzo wydajny dostęp i wielowymiarową prezentację danych zorganizowanych zarówno wymiarowo, jak i relacyjnie. 100

101 Zarządzanie i informatyka cz. II Geneza i rozwój hurtowni danych wynika z niemożności pozyskania informacji zarządczej niezbędnej dla zastosowań analitycznych bezpośrednio z systemów operacyjnych przetwarzania danych, co uwarunkowane jest: znormalizowaną strukturą danych (przechowywaniem informacji dotyczących poszczególnych faktów w wielu relacjach) uniemożliwiającą wydajne, złożone i wszechstronne raportowanie, niedostępnością długookresowych danych historycznych, zoptymalizowaniem narzędzi przetwarzania z uwagi na efektywność modyfikacji i wielodostępu nieistotnym w przetwarzaniu analitycznym. Dla rozwiązania tych trudności stosuje się hurtownię danych, którą można zdefiniować, jako: zorientowaną tematycznie, zintegrowaną przed umieszczeniem danych w hurtowni danych, dane są ujednolicone, nieulotną dane raz umieszczone w hurtowni danych pozostają niezmienione,wariantową w czasie (przechowywane dane dotyczą długich szeregów czasowych), kolekcję danych dla wspomagania procesów podejmowania decyzji zarządczych. Hurtownia danych jest zatem: informacyjna, a nie operacyjna, zorientowana na analizy i wspomaganie decyzji, a nie na przetwarzanie transakcji. W stosunku do systemu transakcyjnego obserwujemy następujące różnice dotyczące danych: dane są pozyskiwane z różnorodnych źródeł z zapewnieniem ich jednolitości, dane są utrzymywane przez dużo dłuższy czas, struktura danych jest optymalizowana pod kątem odpowiadania na złożone zapytania, a nie łatwość modyfikacji, brak normalizacji nie ma potrzeby zapewnienia trzeciej postaci normalnej (dane mogą być redundantne), aby uniknąć anomalii przy ich uaktualnianiu, dane nie podlegają zmianom. Z technologicznego punktu widzenia hurtownia danych to duża baza danych, ale dość specyficzna. Gromadzi ona dane ze wszystkich systemów informacyjnych działających w organizacji, zatem jest źródłem informacji dla analiz całej działalności organizacji. Głównymi użytkownikami hurtowni danych są kierownicy wszystkich szczebli zarządzania oraz analitycy i tzw. pracownicy sektora wiedzy. W systemie informacyjnym z hurtownią danych gromadzone są bardzo duże zbiory informacyjne, które zaspokajają potrzeby wielu użytkowników. Gorawski M. [2000] tak charakteryzuje hurtownię danych: 101

102 Zasoby informacyjne Hurtownia danych to scentralizowana, nietransakcyjna baza danych, przeznaczona do przechowywania informacji globalnie w skali instytucji w długim horyzoncie czasowym, w wielowymiarowych układach analitycznych i ukierunkowana na wyszukiwanie informacji bezpośrednio przez jej użytkowników. Podstawowymi cechami hurtowni danych są: uporządkowanie tematyczne różnych obszarów analitycznych, integracja danych z różnych systemów baz danych, trwałość zapisanych i przechowywanych danych, uwzględnienie wymiaru czasowego. Dane gromadzone dla celów podejmowania decyzji w bazie danych mierzone są w trzech wymiarach: głębokość odnosi się do liczby danych sumarycznych zagregowanych, szerokość danych odnosi się do dostępności danych w odniesieniu do liczby wymiarów i atrybutów, które mogą być analizowane przez użytkownika, szczegółowość danych ( atomowość ) określa liczbę wystąpień ziarnistość danych. Według raportu grupy Gartner, Hurtownia Danych (Data Warehouse, DWH) jest procesem i architekturą (wymagającą solidnego zaplanowania) służącą implementacji platformy, na którą składa się selekcja, konwersja, transformacja, konsolidacja, integracja, czyszczenie i mapowanie danych (bieżących i historycznych) z różnych źródeł danych operacyjnych. DWH wspomaga proces podejmowania decyzji w przedsiębiorstwie, jej architektura zapewnia elastyczność i rozszerzalność służąc aplikacjom, które pracują dzisiaj i tym, które będą pracowały w przyszłości. Jak pisze w swoich materiałach informacyjnych firma Comarch [2008], architektura DWH jest czymś więcej niż pojedynczym produktem i wymaga uwzględnienia następujących zasadniczych komponentów: źródła danych, narzędzi ekstrakcji, i transformacji danych, Systemu Zarządzania Bazą Danych (DBMS), narzędzi administracji oraz narzędzi BI. Hurtownia danych stanowi technologiczne zaplecze dla rozwiązań klasy business intelligence. Celem jej wdrożenia jest stworzenie wiarygodnego źródła informacji, na którym można oprzeć raportowanie firmy, i które może stanowić podstawę informacyjną dla podejmowania strategicznych dla firmy decyzji. Integracja informacji z wielu różnych systemów pozwala w analizach korzystających z hurtowni danych przedstawić pełny, wieloaspektowy obraz sytuacji przedsiębiorstwa. Części składowe hurtowni danych przedstawia rysunek II

103 Zarządzanie i informatyka cz. II Rysunek II.8. Części składowe i powiązania w Hurtowni Danych Źródło: Jednym z podstawowych elementów HD jest repozytorium metadanych (metadata MD). Metadane określa się jako dane o danych. HD przechowuje dane o organizacji i otoczeniu, które należy analizować w celu podejmowania decyzji, jak też posiada moduł MD, który zawiera informacje o tym, gdzie te dane się znajdują, jak są zorganizowane, jaki mają format etc. Przyczynami tworzenia hurtowni danych są potrzeby posiadania globalnych informacji w skali organizacji. Pełnią one rolę integracyjną. Do podstawowych efektów stosowania hurtowni danych zaliczyć należy: szybkie uzyskiwanie informacji przez penetrację danych tzw. data-drilling, obejmuje ona między innymi operacje uszczegółowiające zwane analizą wgłębną drill-down, agregującą drill-up, analizą wieloprzekrojową slicing & dicing, pozyskanie wiedzy z danych tzw. data-mining jest to technologia pozyskiwania wiedzy przez stosowanie modeli sieci neuronowych, algorytmów genetycznych, technik statystycznych, niekiedy jest też określana jako inteligentna eksploracja danych. Wiele firm informatycznych specjalizuje się w tworzeniu hurtowni danych, np. IBM, Oracle, SAS, Comarch. Jednak należy mieć na uwadze, że jej budowa to dość kosztowne przedsięwzięcie, które wymaga spełnienia szeregu warunków: posiadania odpowiednich środków finansowych i rzeczowych, ścisłej współpracy między projektantami a użytkownikami, precyzyjnego zdefiniowania architektury hurtowni danych w pierwszej fazie projektu, dostępności danych źródłowych. Jak wykazują dotychczasowe doświadczenia, pełny cykl od koncepcji do wdrożenia w przypadku hurtowni danych trwa od 6. do 12. miesięcy, chociaż istnieją w pojedynczych przypadkach pewne odstępstwa. 103

104 Zasoby informacyjne Wielość różnych zasobów informacyjnych, które zawiera hurtownia danych, wymaga przeprowadzenia szczegółowej analizy takich elementów, jak: potrzeby użytkownika, dostępne źródła danych, budowa programów pozyskiwania i czyszczenia danych oraz metody udostępnienia tych zasobów użytkownikom. Problemem jest dostosowywanie systemu hurtowni do stale zmieniających się wymagań użytkowników. Ten sposób budowy hurtowni oparty jest na schemacie z góry do dołu top down przepływu informacji (rys. II.9). Rysunek II.9. Schemat top down przepływu danych z baz źródłowych dla hurtowni danych i użytkowników. Źródło: Gorawski. M. Systemy DSS. Hurtownia Danych, Informatyka 2000, nr 3, s.32. Powszechnie przyjmuje się istnienie dwóch wariantów korzystania z hurtowni danych. Korzystanie wprost z centralnej (ogólnej) hurtowni danych DWH (Data Warehouse) lub z tematycznej hurtowni danych DM (Data Mart). Drugie podejście przewiduje budowę oddzielnych, niezależnych hurtowni tematycznych. Tu decydujące jest pojawiające się, często nieprzewidywane, zapotrzebowanie na zasoby informacyjne. W tej sytuacji wielkość oraz stopień złożoności poszczególnych systemów tematycznych jest znacznie mniejsza od wielkości i złożoności hurtowni centralnej. Konsekwencją jest wielowymiarowa analiza danych z poszczególnych dziedzin działalności organizacji w oddzielnych systemach. Niebezpieczeństwo stosowania takiego podejścia jest możliwość powstania niespójnego obrazu rzeczywistości. Różnice w terminologii stosowanej w hurtowniach tematycznych DM (Data Mart) mogą spowodować, że raporty uzyskane z jednego systemu będą niezgodne z danymi pochodzącymi z innego systemu. Dodatkowo może również 104

105 Zarządzanie i informatyka cz. II pojawić się problem jakościowej niezgodności systemów, wynikający z różnicy w strukturach danych oraz zastosowanego oprogramowania. Środkiem dla zapobieżenia tym problemom, jest stworzenie hurtowni centralnej, w której dane są gromadzone według schematu z dołu do góry bottom up (patrz rys. II.10). Rysunek II.10. Schemat bottom up przepływu danych z baz źródłowych dla hurtowni danych i użytkowników Źródło: Gorawski. M. Systemy DSS. Hurtownia Danych, Informatyka 2000, nr 3, s. 32. Każde z przedstawionych rozwiązań ma zalety, jak i kryje niebezpieczeństwa. Rekomendowane rozwiązanie powinno zawierać w sobie zarówno cechy hurtowni centralnej, jak i prostotę wdrożenia hurtowni tematycznych. Każda tematyczna hurtownia danych powinna być częścią centralnej hurtowni danych, a zbiór wszystkich dostępnych hurtowni tematycznych powinien tworzyć hurtownię centralną. Hurtownie danych stanowią zatem rozbudowaną bazę danych. Przechowującą olbrzymią ilość danych zbieranych przez długi czas. Przeprowadzane na nich operacje dotyczą wyszukiwania i analizy. Stosowane operacje najczęściej pozwalają na wyznaczanie trendów, zależności, wzorców, itp. Stosowana tu eksploracja danych (data mining), pozwala na wyszukanie niezbędnych danych z bardzo dużej ich ilości. Przeprowadzane wyszukiwania mają więc charakter wielowymiarowy. 105

106 Zasoby informacyjne 5.3. Baza modeli i procedur Baza danych występuje w każdym typie systemu informacyjnego wspomagającego proces zarządzania. Obecnie przedstawimy skrótowo inne rodzaje baz, które stosowane są w systemach informacyjnych wyszukujących informacje, jak i systemach doradczych. Ich istnienie determinuje potrzeba posługiwania się nie tylko prostymi zestawami informacji, ale też procedurami, modelami, wiedzą, tekstami. W procesie podejmowania decyzji dysponujemy zbiorem różnorodnych narzędzi. Można stwierdzić, że współczesny kierownik wyposażony jest w ogromny zestaw metod i technik wspomagających podejmowanie decyzji. Opis ich zawierają zarówno specjalistyczne monografie, jak i podręczniki z zakresu zarządzania. Niektóre z nich zostały podane w załączonej literaturze. Dlatego też przedstawiono tu tylko podstawową charakterystykę metod i technik, które są zapisane w bazach procedur i modeli. Jak pokazuje praktyka, są one bardzo użyteczne dla podejmowania decyzji. Narzędzia te mają charakter ilościowy, jakościowy, jak i mieszany tzw. hybrydowy. Przedstawione przykłady są bardzo różnorodne ze względu na stosowany model i rozwiązywania. W tym punkcie książki skoncentrowano się na zastosowaniom metod i modeli matematycznych w praktyce gospodarczej. W literaturze są również dostępne opracowania na temat bazy modeli dla zastosowań technicznych, na przykład bazy modeli architektonicznych, samochodów, mebli itd. Najbardziej popularne procedury i modele z zakresu zastosowania metod i modeli matematycznych w praktyce gospodarczej to: 1. Modele optymalizacyjne wywodzą się z matematycznej teorii decyzji i badań operacyjnych, mają na celu podpowiedzieć optymalną decyzję. Mając określone kryterium, tzw. funkcję celu oraz ograniczenia, dążymy do otrzymania takich wielkości, które pozwalają na optymalizację modelu. Konsekwencją działań zgodnych z rekomendacją jest uzyskanie najwyższych korzyści lub najmniejszych strat. W zależności od postaci modelu i zastosowań mamy do czynienia z takimi modelami zapisanymi w bazie, jak: liniowe, nieliniowe, jednokryterialne, wielokryterialne, całoliczbowe, transportowe itd. Jeżeli problem zostanie przedstawiony za pomocą modelu optymalizacyjnego, to dla jego rozwiązania stosujemy najczęściej metody programowania matematycznego z użyciem standardowego oprogramowania. W bazie modeli i procedur użytkownik może wybrać wiele różnych metod rozwiązania. Zwracamy uwagę na procedury pozwalające na wykonanie odpowiednich obliczeń wykonanych przy użyciu standardowego oprogramowania systemu Excel. 2. Modele symulacyjne. Za pomocą tych modeli można rozwiązać wiele problemów decyzyjnych. Proces symulacyjny polega na tym, że decydent stara się o jak najlepsze opisanie rzeczywistości za pomocą modeli. Modele tej klasy stosuje się dla złożonych sytuacji, kiedy zawodzą metody optymalizacyjne. 106

107 Zarządzanie i informatyka cz. II W najprostszych modelach symulacyjnych stosowane są następujące przykładowe schematy postępowania: Jakie efekty uzyskamy, jeżeli zaistnieje określona sytuacja? Jakie musimy ponieść nakłady, aby otworzyć restaurację? Jeżeli wygramy na loterii, to na co przeznaczymy wygraną? Itd. Przy użyciu bazy modeli i procedur możemy podjąć różne decyzje w modelowo zbudowanym świecie. W ten sposób, zanim będzie się eksperymentować na żywym organizmie, jakim jest przedsiębiorstwo, można eksperymentować na modelu. W rezultacie prowadzi to znacznego obniżenia kosztów i zmniejsza okres opanowania nowej techniki. Takie postępowanie powszechnie stosowane jest w technice, na przykład przy budowaniu nowych tras komunikacyjnych. I tak, jeżeli zbudujemy model komunikacji Warszawy i w nim uwzględnimy różne położenie autostrady Wschód Zachód, to możemy symulować różne czynniki i wpływ ich na wyniki, np. szkodliwości i uciążliwości autostrady z jednej strony, a uzyskane efekty z drugiej. W ten sposób można wybrać optymalny wariant. Modelowanie symulacyjne może być też stosowane, jako uzupełnienie modeli optymalizacyjnych. Wtedy możemy sprawdzić więcej elementów i określić skutki zmiany ograniczeń lub inne kształtowanie się współczynników zysku i kosztów. Jest to tzw. problem dualny. Do trudności, jakie mamy przy zastosowaniu takiego podejścia należy zaliczyć, między innymi, konieczność dysponowania odpowiednim modelem w bazie modeli i procedur. Baza modeli i procedur zawierająca narzędzia zastosowań symulacji, jako techniki wspomagającej podejmowanie decyzji planistycznych jest stosowana w dużych organizacjach, które dysponują odpowiednimi środkami. W praktyce gospodarczej w Polsce modelowanie symulacyjne stosowane jest między innymi przez Ministerstwo Finansów przy podejmowaniu makro decyzji. Modele takie stosuje się dla budowy budżetu państwa i jego elementów. W ten sposób możemy sprawdzić konsekwencje postulatów zgłaszanych przez parlamentarzystów, jak i realność obietnic wyborczych. Modele symulacyjne zawarte w bazach modeli i procedur systemów przedsiębiorstw są z kolei stosowane przy budowie ich biznes planów. 3. Modele prognozowania. Narzędzia prognozowania zawarte w bazie modeli i procedur obejmują różne techniki konieczne dla podejmowania podjęcia decyzji. Cechą wyróżniającą te narzędzia jest to, że służą one do podejmowania decyzji przyszłościowych. Podstawą tych decyzji jest określenie, czy w przyszłości badana wielkość będzie kształtować się korzystnie czy też nie. W tej drugiej sytuacji będziemy mieli do czynienia z tzw. prognozą ostrzegawczą. Prognozy są istotnym elementem podejmowania decyzji planistycznych i to zarówno krótkoterminowych, jak i długoterminowych. 107

108 Zasoby informacyjne Problematyka, która poddana jest analizie prognostycznej może być różna. Będzie to więc, na przykład: prognoza spożycia cukru, chleba, mięsa do roku 2020, jak też postęp naukowo-techniczny dotyczący zmian w technice i technologii oraz jak będzie wyglądała telewizja przyszłości. Modele prognozowania stosowane są nie tylko przez małe, lecz także duże organizacje. Powszechnie wykorzystywane są do planowania strategicznego, a szczególnie do budowy biznes planów. Dla przewidywania kształtowania się przyszłych interesujących wielkości stosowane są różnego typu narzędzia. Do najprostszych zaliczana jest analiza szeregów czasowych. Szeregi czasowe są szczególnie przydatne wtedy, gdy posiadamy dane historyczne, a sytuacja jest w miarę stabilna. Stosując różne metody statystyczne możemy doprowadzić do określenia linii najlepszego dopasowania i na jej podstawie przeprowadzić prognozę. Dla celów prognoz tworzy się model tendencji rozwojowej, w którym opisany i badany jest rozwój zjawiska w czasie. Do najbardziej złożonych ekonomicznych problemów stosuje się modele ekonometryczne. (Ekonometria jest nauką o metodach badania ilościowych zależności między zjawiskami ekonomicznymi). Zależności występujące między zjawiskami ekonomicznymi są bardzo złożone i wielokierunkowe. Na badany problem decyzyjny wpływa wiele zjawisk o charakterze ekonomicznym, jak też społecznym, demograficznym, przyrodniczym, itp. Z tego powodu dla stosowania tych modeli niezbędne jest powiązanie bazy modeli i procedur z bazą danych lub hurtownią danych. 4. Gry decyzyjne są procedurami zawartymi w bazie modeli i procedur, które pozwalają na przeprowadzenie analizy i przewidywanie racjonalnego zachowania się ludzi w sytuacjach konkurencyjnych. Uniwersalność procedur polega na tym, że prawie każdą sytuację możemy przedstawić, jako grę. Grą będzie nasza pozycja w organizacji, czy też zachowanie kierowcy na jezdni. Narzędzia zawarte w bazie modeli i procedur mają za zadanie określić relacje klientów i konkurencji na zmiany cen, jak i wprowadzenia na rynek nowego wyrobu, optymalnego poziomu zapasów, wyznaczenia polityki zmian cen, wybór trasy linii komunikacji miejskiej, wybór właściwego obszaru ziemi pod dom, uprawy rolne, wybór optymalnego wariantu inwestycyjnego, określenia polityki zakupu licencji na nową produkcję, eksploatację złóż mineralnych, itp. Procedury, w których posługujemy się teorią gier można stosować do analizy i badania wszystkich problemów zarządzania, które wymagają rozwiązania wtedy, kiedy istnieją niepewne, ryzykowne i konfliktowe warunki. 5. Modele graficzne ze względu na ich przejrzystość i komunikatywność stosowane są do podejmowania decyzji dotyczących organizacji pracy. Takimi metodami zawartymi w bazie modeli i procedur są wykresy Gantta i wykresy sieciowe. Ponieważ niezależnie od Gantta podobnego typu wykresy zostały opracowane przez K. Adamieckiego, dlatego też często ten sposób prezentacji nazywa się wykresami Gantta/Adamieckiego. 108

109 Zarządzanie i informatyka cz. II Najbardziej popularnymi modelami graficznym wspomagającymi procesy zarządzania, szczególnie zarządzania projektami (patrz rozdziały o zarządzaniu realizacją projektów informatycznych) są: PERT czyli technika oceny i kontroli programu (Program Evalution and Review Technique) CPM czyli metoda ścieżki krytycznej (Critical Path Method). Prawie każdy student zetknął się, w trakcie studiów, z bazami modeli do analizy statystycznej, czy też bazą modeli zawartą w dostępnym prawie w każdym laptopie systemie Excel [C. Dominiak, 2004] Baza wiedzy Punkt ten jest kontynuacja poprzednich rozważań o wiedzy i jej znaczeniu w zarządzaniu. Baza wiedzy jest to zbiór reguł, faktów, procedur zapisanych w określony sposób, który ma za zadanie sformułowanie i rozwiązanie określonego przez użytkownika problemu. Baza wiedzy (knowledge base) szczegółowy, rozległy zbiór powiązanych logicznie danych dotyczących danej dziedziny (obszaru tematycznego). Przechowywany w pamięci komputera wraz z regułami logicznymi (sformułowanymi przez fachowców z danej dziedziny) umożliwia efektywne wykorzystywanie bazy danych na wzór systemu ekspertowego. [Wikipedia] Reprezentacja wiedzy jest realizowana: Deklaratywnie w postaci zbioru reguł i faktów, gdzie reguły występują najczęściej w postaci (Jeżeli A [fakt], to wtedy B [fakt] i następuje określona akcja). Proceduralnie w postaci opisu określonych procesów charakteryzujących wiedzę. Bazy wiedzy tworzone są przez fachowców danej dyscypliny i stanowią podstawę, na której budowane są systemy ekspertowe. W kontekście systemów doradczych pojęcie baza wiedzy pojawia się w zarówno w literaturze przedmiotu, jak i konkretnych zastosowaniach pod następującymi postaciami: Baza wiedzy występująca jako element składowy tzw. Systemów Doradczych (Decision Support Systems), 109

110 Zasoby informacyjne Baza wiedzy, która z uwagi na powszechność Internetu, występuje najczęściej jako Webowa/Internetowa Baza Wiedzy (Web Knowledge Base). Najistotniejszym elementem Systemu Doradczego jest Baza Wiedzy (BW) to jest bowiem to miejsce, w którym przechowywana jest deklaratywna wiedza ekspertów z danej dziedziny. Baza wiedzy stanowi więc swoiste repozytorium wiedzy eksperckiej, zapisanej w formie wybranego sposobu reprezentacji wiedzy (najczęściej pod postacią tzw. reguł lub ram). Podstawową trudnością tworzenia bazy wiedzy jest zdolność konwersji, często nieusystematyzowanej wiedzy eksperta, do postaci wymaganej przez wybraną formę reprezentacji wiedzy. Trudność tego rodzaju konwersji okazała się w praktyce na tyle duża, iż konieczne było wykształcenie nowej klasy specjalistów tzw. inżynierów wiedzy, których podstawowym zadaniem jest właśnie skuteczna realizacja takiej konwersji. Rysunek II.11. Architektura Systemu Zarządzania Bazą Wiedzy Źródło: T. Gwiazda [2006] na podstawie: Tiwana A., The Knowledge Management Toolkit, Prentice Hall, Wiedzę ekspercką można bowiem uznać za, omawianą już wcześniej, wiedzę zewnętrzną kupowaną przez organizację. Organizacja dysponuje zawsze wiedzą ukrytą wewnętrzną wiedzą, czyli wiedzą posiadaną przez różne jej podmioty, do których można zaliczyć zarówno pracowników jak i wszelką istniejącą dokumentację opisującą procedury, regulaminy, przepisy itp. Wiedza taka jest zazwyczaj rozproszona między poszczególnymi podmiotami, a stąd w nierównym stopniu, a czasami wcale, dostępna jest dla całości organizacji. Dlatego też współczesne systemy posiadają bazy wiedzy, której podstawowym zadaniem jest gromadzenie, akumulowanie, przetwarzanie i udostępnianie całej organizacji całości posiadanej przez nią wiedzy. 110

111 Zarządzanie i informatyka cz. II Typowa struktura systemu komunikacji z bazą wiedzy przedstawiona jest na rysunku II.10. Podstawę całości systemu stanowi repozytorium wiedzy, czyli inaczej baza wiedzy. Jest ona sumą różnego typu zbiorów gromadzących, zależnie od ich domyślnego formatu, dane, informacje i wiedzę organizacji. Powszechne jest korzystanie z internetowych baz wiedzy. Wraz z szerokim upowszechnieniem się Internetu, organizacje dostrzegły możliwość budowy baz wiedzy powiązanych bardzo ściśle z tym medium komunikacji. I nie chodzi tu o zastosowanie Internetu jako zewnętrznego interfejsu do systemów informacyjnych zarządzania, ale o upowszechnienie dostępu do zasobów bazy wiedzy, dla otoczenia organizacji (czyli potencjalnych klientów lub kontrahentów). Współcześnie niemal każda organizacja udostępnia (oczywiście pod kontrolą) przez Internet swoje zasoby wiedzy otoczeniu. Jest to jeden z istotnych elementów kształtowania wizerunku organizacji. Powodów tego jest wiele, a do najistotniejszych można zaliczyć: dystrybucja bazy wiedzy w Internecie jest tańsza i łatwiejsza zarówno do implementacji, jak i kontrolowania; bazy wiedzy w Internecie są dostępne stale (24 godziny przez 7 dni w tygodniu); są to bazy wiedzy, o których użytkownik ma przekonanie, iż można im zapewnić stałą automatyczną aktualizację (co wynika z postrzeganej natury Internetu); mechanizmy przeszukiwania bazy wiedzy są zawsze dostępne bo wbudowane w przeglądarkę lub udostępniane przez serwisy wyszukujące; bazy wiedzy zastępują tradycyjne sposoby wspomagania użytkownika wiedzy, typu help desk czyli pomoc użytkownika. Baza wiedzy jest często wspomagana często technikami sztucznej inteligencji. Narzędzia te mogą być zorientowane problemowo i co więcej, mogą posiadać zdolność zdalnego dowiązywania wiedzy, czyli wiązania wiedzy z wielu źródeł rozproszonych w Internecie, a niekoniecznie będących we władaniu danej organizacji; Co więcej, wraz z rozwojem modelu semantycznego Internetu, czyli sposobu kodowania stron WWW zezwalającego na analizę kontekstu, BW danej organizacji może stać się, powiązaną z innymi, cząstką ogólnoświatowego repozytorium wiedzy z danej dziedziny tym samym konkretna organizacja może zaoferować swojemu otoczeniu nie tylko ilość rzeczywiście posiadanej wiedzy, ale całość ogólnie dostępnej wiedzy z danej dziedziny. 111

112 Zasoby informacyjne 5.5. Baza tekstowa Bazy te zawierają różnorodne informacje tekstowe, ale zapisane w postaci elektronicznej. Bazami tego typu, dostępnymi bezpośrednio (on-line), na CD lub innych nośnikach są rozmaite zasoby takie, jak: teksty aktów prawnych, słowniki, poradniki, zasoby teleadresowe, zasoby o firmach, o ofertach turystycznych, notowania giełdowe itp. Istnieją również specyficzne bazy tekstowe, które zawierają dane o publikacjach z wielu dziedzin nauki i szeroko rozumianej wiedzy. W bazach tych, oprócz podstawowych danych bibliograficznych dotyczących publikacji, są zawarte również streszczenia, utworzone przez autorów i wydawnictwa, pełne teksty artykułów (często za dodatkową opłatą). Niektóre gazety lub czasopisma oferują swoje archiwalne numery. W wielu organizacjach funkcjonują uproszczone bazy tekstowe, czyli bazy dokumentów. W takiej bazie istnieją różnorodnie zdefiniowane dokumenty. W konsekwencji pozwala to na bieżącą analizę realizowanych procesów oraz identyfikację osób wykonujących dany proces. Użytkownik uzyskuje, dzięki eksploatacji takiej bazy, możliwość łatwego wyszukanie aktualnych dokumentów oraz wszystkich innych im odpowiadających. Nie ma więc konieczności powielania dokumentów. W ten sposób tworzone jest biuro bez papieru. Oczywiście posiadanie takiej bazy wymaga dysponowania odpowiednim systemem zarządzania dokumentami, o którym będzie mowa w części poświęconej zagadnieniom zarządzania zasobami informacyjnymi. Analizując bazy informacji tekstowej, jak pisze A. Nowicki [2006], należy również zwrócić uwagę na stosowane w Internecie bazy XML. XML to zestaw reguł (można je traktować również jako wytyczne) do projektowania formatów, które wizualizują teksty. XML nie jest językiem programowania i nie trzeba być programistą, by z niego korzystać. Bazy tekstowe bardzo często zwane bazami danych XML, są stosowane do przechowywania tekstów (w tym specyficznych tekstów jakimi są wspomniane wcześniej dokumenty) o bardzo zróżnicowanej budowie. Przykładem bazy tekstowej jest Centralna Baza Orzeczeń Sądów Administracyjnych (CBO). Przechowywane są tam orzeczenia sądów administracyjnych pozbawione cech identyfikacyjnych (anonimizowane), a udostępnione są na stronie internetowej (WWW) agencji NSA. Baza CBO została startowo zasilona wybranymi orzeczeniami (dostępnymi testowo od początku 2007 na stronie cbo.nsa.gov.pl) i jest codziennie aktualizowana przyrostowymi danymi gromadzonymi na bieżąco w systemie komputerowym NSA i WSA, które nie zostały wykluczone z udostępniania w Internecie, oraz dla których utworzono wersję zanonimizowaną orzeczenia. Większość urzędów państwowych posiada również ogólnie dostępną bazę tekstową. 112

113 Zarządzanie i informatyka cz. II 5.6. Baza multimedialna Szerszą niż tekstowa baza zasobów informacyjnych jest baza mulimedialna, która zawiera oprócz tekstów, także informację graficzną i dźwiękową. Do baz tego typu, dostępnych przeważnie na CD, należą przede wszystkim encyklopedie, podręczniki czy też przewodniki po muzeach. Obiekt medialny to informacja zrozumiała dla komputera, która zakodowana jest w jednym medium. Stosowane media to media wizualne i akustyczne: tekst, obrazy nieruchome, audio i wideo. Systemy wykorzystujące w komunikacji z człowiekiem zapach, smak i dotyk są na razie przedmiotem prac badawczych i prototypowych. Z punktu widzenia prezentacji multimediów istotny jest podział na media dyskretne (niezmienne w czasie, statyczne), obejmujące tekst i obrazy nieruchome oraz media ciągłe (zmienne w czasie, dynamiczne), obejmujące audio i wideo. Obiekt multimedialny to informacja zrozumiała dla komputera, zakodowana w jednym lub więcej mediów. Znaczenie tych baz wciąż rośnie. Jednym z najbardziej powszechnych zastosowań multimedialnych baz danych jest nauka języków obcych oraz obsługa systemów nauczania na odległość. Na tworzenie tego typu baz wpływa fakt, iż postrzegana przez człowieka rzeczywistość ma charakter multimedialny. Na obraz rzeczywistości składają się informacje przekazywane za pomocą wielu mediów (obraz, dźwięk, itd.). Bazy takie imitują otaczającą człowieka rzeczywistość, jak też sposoby jej postrzegania. Symulacja postrzegania stanowi motywację dla rozwoju multimedialnych systemów informatycznych. Multimedialne bazy bardzo często są narzędziem wspomagającym różnego typu gry. Przykładem może być ulubiona gra autora: Cywilizacja. Civilization IV (pełna nazwa Sid Meier's Civilization IV) to komputerowa strategiczna gra turowa wyprodukowana przez amerykańskie studio Firaxis Games i wydana przez Take- Two Interactive. Jej premiera odbyła się w 2005 roku na platformach Microsoft Windows i OS X. Jest to czwarta część serii gier komputerowych Civilization. Obecnie dostępne są już dalsze jej wersje. W Civilization IV gracz przejmuje kontrolę nad wybraną przez siebie cywilizacją dążąc, na przestrzeni tysiącleci, do panowania nad losowo generowanym światem. Cel ten osiąga się przez zakładanie i rozbudowę miast, które wytwarzają technologie, kumulują przychody państwa oraz służą do produkcji jednostek i wznoszenia budowli. W miarę rozwoju rozgrywki gracz styka się z konkurencyjnymi cywilizacjami, z którymi może zawierać układy dyplomatyczne, ale też toczyć wojny. W stosunku do poprzednich części, seria Civilization IV została rozbudowana o całkiem nowe elementy, takie jak: system wielkich ludzi, możliwość szerzenia religii, czy też ustanawiania ustroju przez kombinację opcji obywatelskich. Oczywiście w grze stosowane są narzędzia multimedialne. 113

114 114

115 Rozdział 6 Zarządzanie zasobami informacyjnymi 6.1. Systemy komunikacji z zasobami informacyjnymi We współczesnych systemach informatycznych interfejs użytkownika, czyli system komunikacji z zasobami informacyjnymi ma silny wpływ na odbiór jakości systemu informatycznego przez użytkowników. Jak pisze M. Sikorski [2010] subiektywnie odczuwana jakość interakcji z systemem informatycznym w silnym stopniu kształtuje u klienta/użytkownika emocjonalne nastawienie do produktu informatycznego, wizerunku dostawcy i jego marki, a także wpływa na chęć dalszego podtrzymywania relacji, np. przez korzystanie z następnych wersji danego oprogramowania. Jakość produktu interaktywnego (w tym zwłaszcza ergonomia interfejsu użytkownika) ma wymierny aspekt rynkowy w różnych obszarach zastosowań, np.: praca: ergonomiczny interfejs użytkownika zwiększa wydajność pracy urzędnika, ekonomisty, projektanta czy menedżera, e-biznes: ergonomiczny interfejs użytkownika, np. w sklepie internetowym, jest dla klienta podstawowym warunkiem zapewnienia samoobsługi i płynnego przebiegu. Dostępność zasobów informacyjnych tylko do pewnego stopnia jest pochodną dobrej infrastruktury komputerowej. W równie dużym stopniu to także efekt zarządzania organizacją, procesami i zespołami [M. Stępień, 2007]. Stosowany system komunikacji z zasobami informacyjnymi zawartymi w bazach, tzw. interface, powinien spełniać następujące wymagania: 1. Oprogramowanie użytkowe powinno być tak skonstruowane, aby użytkownik końcowy mógł posługiwać się najbardziej złożonymi bazami: danych, modeli, wiedzy itd., bez pomocy informatyków. 2. System komunikacyjny, w postaci oprogramowania uniwersalnego, powinien być niezależny od środków technicznych systemu komputerowego, w którym te bazy są umieszczane, jak i systemu zastosowań. 3. Powinien umożliwiać operowanie w praktyce na nieograniczonych wielkością zbiorach danych, modeli, procedur, tekstów, wiedzy. 115

116 Zarządzanie zasobami informacyjnymi 4. Powinien wykorzystywać takie metody zarządzania zasobami informacyjnymi, jak m.in.: OLTP (On Line Transaction Processing), czyli zarządzanie danymi w czasie rzeczywistym zorientowane na transakcje, OLAP (On Line Analytical Processing), czyli analiza danych w czasie rzeczywistym, ta metoda zarządzania jest bardziej złożona od poprzedniej, MOLP (Multidimensional OLAP), czyli analiza wielowymiarowa danych w czasie rzeczywistym, która z kolei jest bardziej zaawansowana od dwóch poprzednich. Współczesny system komunikacji z bazami danych można przedstawić jak na rysunku II.12. Rysunek II.12. System komunikacji użytkownika ze zintegrowaną bazą Źródło: opracowanie własne. Systemy zarządzania stawiają wysokie wymagania systemom informacyjnym. Z punktu widzenia teorii zastosowań informatyki użytkownik może dysponować dość bogatym zestawem stale rozwijającego się oprogramowania dla zarządzania bazą danych. Jaki zestaw wybierze zależy od wielu czynników. Należy pamiętać, że decyzja taka rzutuje na efektywność funkcjonowania systemu zarządzania całej organizacji. Decydując się na wybór systemu, należy jednak brać pod uwagę opinię tych, którzy już go stosują. W tych samych badaniach użytkownicy stwierdzili, że najważniejszymi elementami systemów komunikacji, w tym zarządzania bazami danych są: 116

117 Zarządzanie i informatyka cz. II niezawodność, wsparcie producenta, w tym poziom oferowanej dokumentacji, serwis i szkolenie, koszty, a w tym relacja wartości do kosztu oraz cena produktu i obsługi, łatwość użycia, a szczególnie: łatwość tworzenia zapytań, łatwość programowania, dyspozycyjność i łatwość zastosowania narzędzi do budowy aplikacji, łatwość instalacji. Dla zarządzania zasobami informacyjnymi zawartymi w hurtowni danych stosowane jest tzw. data mining eksploracja danych (spotyka się również określenie drążenie danych, pozyskiwanie wiedzy, wydobywanie danych, ekstrakcja danych). Eksploracja danych, to jeden z etapów procesu pozyskiwania danych, najczęściej z hurtowni danych, ale też z baz wiedzy. Istnieje wiele technik stosowanych w procesie eksploracji danych. M. Nycz [2007, s. 138] wyróżnia miedzy innymi następujące techniki zarządzania zasobami informacyjnymi zawartymi w hurtowniach danych: odkrywanie zależności, klasyfikacja, grupowanie, odkrywanie podobieństw na podstawie wzorców. Zadaniem data mining jest automatyczne odkrywanie nietrywialnych, dotychczas nieznanych, zależności, związków, podobieństw lub trendów, ogólnie zwanych wzorcami (patterns) w dużych zasobach informacji. Odkrywane w tym procesie wzorce mają najczęściej postać reguł logicznych, klasyfikatorów (np. drzew decyzyjnych, zbiorów skupień, wykresów itd.). Takie rozwiązania umożliwiają formułowanie zapytań bardziej zaawansowanych niż przy stosowaniu tradycyjnego systemu komunikowania się z bazą danych za pomocą języka zapytań SQL. Analiza danych wspomagana wspomnianym wcześniej OLAP zakłada, że po pierwsze, użytkownik posiada pełną wiedzę o przedmiocie analizy i po drugie, potrafi sterować tym procesem [por.: T. Morzy, 2007]. Data mining pozwala na analizę zasobów informacyjnych dla tych problemów, które: ze względu, np. na swój rozmiar, są trudne do przeprowadzenia bezpośrednio przez użytkownika, są niepełne czyli nie dysponujemy pełną o nich wiedzą, co uniemożliwia sterowanie procesem analizy tych zasobów. Oprogramowanie używane dla metod eksploracji danych (data mining) nazywamy językiem zapytań eksploracyjnych lub językiem eksploracji danych [J. Han, M. Kamber, 2006]. 117

118 Zarządzanie zasobami informacyjnymi W przypadku baz tekstowych, zasoby informacyjne, które są w niej zawarte, obsługiwane są przez specjalne oprogramowanie nazywane Systemem Zarządzania Obiegiem Dokumentów (Electronic Dokument Managment System). System ten obsługuje bazę tekstową i na podstawie opisujących go parametrów takich, jak: nazwa, typ, słowa kluczowe, pozwala szybko wyszukać cały tekst lub jego fragment. Istotne jest zwłaszcza w tekstach prawnych przeszukanie historii powstania tekstu i analizy wszystkich tekstów z nim związanych. Dla zarządzania zasobami informacyjnymi firmy informatyczne oferują specjalistyczne oprogramowanie. Do jednych z najbardziej popularnych należy oprogramowanie Lotus Notes, które jest ukierunkowane na zarządzanie zasobami informacyjnymi w pracy grupowej. Takim systemem jest miedzy innymi pakiet Lotus Notes/Domino, polski produkt Office Objects. Problem ten jest tu tylko zasygnalizowany, a czytelnikowi można polecić opracowania różnych firm informatycznych. Według analizy firmy doradczej Gartner, na światowym rynku działa kilkuset producentów oprogramowania BPM (Business Process Management), w ramach którego oferowane są aplikacje do zarządzania dokumentami [E. Jaworska, 2007] Ochrona zasobów informacyjnych Ochrona zasobów informacyjnych jest przedmiotem troski wielu organizacji i osób fizycznych. Pod szczególnym nadzorem są dane osobowe. W roku 1997 został powołany Generalny Inspektor Ochrony Danych Osobowych (w skrócie GIODO) organ do spraw ochrony danych osobowych, który funkcjonuje na podstawie ustawy o ochronie danych osobowych. Do jego zadań należą takie działania, jak między innymi: kontrola zgodności przetwarzania danych z przepisami ustawy, wydawanie decyzji administracyjnych i rozpatrywanie skarg w sprawach wykonywania przepisów o ochronie danych osobowych, prowadzenie rejestru zbiorów danych, opiniowanie akt prawnych dotyczących ochrony danych osobowych. GIODO inicjuje również oraz podejmuje przedsięwzięcia dotyczące doskonalenia ochrony danych osobowych, uczestniczy w pracach międzynarodowych organizacji i instytucji zajmujących się problematyką ochrony danych osobowych. GIODO jest powoływany na 4-letnią kadencję (liczoną od dnia złożenia przysięgi) przez Sejm RP za zgodą Senatu. Swoje zadania wykonuje niezawiśle, kierując się jedynie ustawą przysługuje mu immunitet. Operacyjnie zadania wykonuje Biuro Generalnego Inspektora Ochrony Danych Osobowych, którego siedziba znajduje się w Warszawie. W proces ochrony zasobów informacyjnych zaangażowanych jest wiele dyscyplin naukowych, takich jak: matematyka, informatyka, optyka, kryptografia itp. 118

119 Zarządzanie i informatyka cz. II Również w tej książce o problemach ochrony zasobów informacyjnych piszemy w wielu miejscach. Tu pragniemy zwrócić uwagę na podstawowe problemy związane z ochroną zasobów informacyjnych, jak i z ich zabezpieczeniem. Obecnie, kiedy informacja jest bardzo cennym zasobem, wiele firm przyjęło, jako główny profil swojej działalności, zagadnienia ochrony zasobów informacyjnych. Odbywa się to, na przykład, na zasadzie prowadzenia procesów audytorskich lub tworzenia specjalnych narzędzi sprzętowych lub programowych. Ochrona zasobów informacyjnych przedsiębiorstwa obejmuje między innymi: system komputerowy, czyli sprzęt i oprogramowanie, ludzi zajmujących się tymi zasobami i realizujących procesy: zbierania, magazynowania, przetwarzania i udostępniania zasobów oraz same zasoby. System informacyjny składa się z wielu elementów, z których każdy ma wpływ na pojawiające się zagrożenia. Wymaga on odpowiedniego systemu ochrony znajdujących się w systemie zasobów informacyjnych. Zagrożenia można podzielić na zewnętrzne i wewnętrzne. I tak: zagrożeniem zewnętrznym dla zasobów informacyjnych są na przykład hackerzy. Natomiast zagrożenie wewnętrzne to na przykład pracownicy organizacji, którzy nieświadomie albo świadomie udostępniają zastrzeżone informacje osobom trzecim, często konkurencji. W konsekwencji, upowszechnienie informacji, które są tajemnicą lub własnością intelektualną i handlową firmy lub instytucji, może oznaczać utratę reputacji, zakończenie działalności na rynku lub nawet wywołać kłopoty natury prawnej [T. Polaczek, 2006]. Z tych powodów informację trzeba należycie chronić oraz odpowiednio nią zarządzać. W tym celu pomocne są specjalne procedury, których jest bardzo dużo. Możemy powiedzieć, że np. procedury zapobiegające zagrożeniom losowym, takim jak pożar, awarie systemu zasilania, zalanie pomieszczeń są niezmiernie istotne z punktu widzenia właściwej polityki zapewnienia bezpieczeństwa informacji. Wrogie działania przeciwko systemom informacyjnym określamy następującymi terminami: Hacking Cracking przełamywanie systemów ochrony, ale zazwyczaj te działania nie wyrządzają większych szkód. przełamywanie systemów ochrony zwykle związane z wyrządzaniem szkód. Phreaking, dialing podszywanie się pod numer dostępowy innego użytkownika i wykorzystanie go do własnych celów. Sniffing podsłuchiwanie systemu przesyłania informacji w celu przechwycenia haseł. 119

120 Zarządzanie zasobami informacyjnymi Phishing fałszywe e z żądaniem potwierdzenia danych, fałszywe strony (np. banków). Web.hijacking przekierowywanie klienta na strony fałszywych sklepów, banków. Pragniemy tu zwrócić uwagę na specjalistyczne procedury, które zawarte są w normach. Dla zapewnienia bezpieczeństwa informacji podstawą jest norma: System zarządzania bezpieczeństwem informacji [norma PN-ISO/IEC 27001:2007]. Stosowanie jej wymusza potrzebę zapewnienia wysokiego bezpieczeństwa informacji, szczególnie w kontaktach i transakcjach handlowych. Coraz częściej certyfikacja na zgodność z tą normą staje się wymogiem formalnym. I tak, przy zawieraniu kontraktów z partnerami handlowymi coraz powszechniejszy staje się wymóg potwierdzenia certyfikatem zgodności z wymaganiami norm serii ISO 9000, czy ISO [P. Makosa, 2007]. Coraz więcej organizacji działających na rynku jest przekonanych o konieczności certyfikacji swojego systemu zarządzania bezpieczeństwem informacji. Norma PN-ISO/IEC 27001:2007 jest normą międzynarodowa, standaryzującą systemy zarządzania bezpieczeństwem informacji. Została ona ogłoszona w roku 2005, na podstawie brytyjskiego standardu BS W Polsce normę ISO/IEC opublikowano w 2007 r. jako PN-ISO/IEC 27001:2007. ISO/IEC 27001:2005 [PN-ISO/IEC 27001:2007]. Jest to specyfikacja systemów zarządzania bezpieczeństwem informacji na zgodność, z którą mogą być prowadzone audyty, na podstawie których są wydawane certyfikaty: W normie ISO/IEC wyróżniono następujące obszary, które mają wpływ na bezpieczeństwo informacji w organizacji: polityka bezpieczeństwa; organizacja bezpieczeństwa informacji; zarządzanie aktywami; bezpieczeństwo zasobów ludzkich; bezpieczeństwo fizyczne i środowiskowe; zarządzanie systemami i sieciami; kontrola dostępu; zarządzanie ciągłością działania; pozyskiwanie, rozwój i utrzymanie systemów informatycznych; zarządzanie incydentami związanymi z bezpieczeństwem informacji; zgodność z wymaganiami prawnymi i własnymi standardami. Poza zdefiniowaniem modelu zarządzania bezpieczeństwem informacji, norma PN-ISO/IEC zawiera opis zabezpieczeń, które należy stosować dla ograniczenia ryzy- 120

121 Zarządzanie i informatyka cz. II ka. Norma PN-ISO/IEC 27001:2007 została przygotowana w celu przedstawienia modelu oraz ustanawiania, wdrożenia, eksploatacji, monitorowania, przeglądu, utrzymania i doskonalenia systemu zarządzania bezpieczeństwem informacji (SZBI). W opracowaniu normy, podobnie jak w innych normach ISO dotyczących systemów zarządzania w organizacjach, zastosowano podejście procesowe. Norma PN-ISO/IEC 27001:2007 stosuje cykl Deminga Planuj Wykonuj Sprawdzaj Działaj (PDCA). W ramach cyklu, w poszczególnych etapach podejmowane są następujące działania: Planuj Wykonuj Sprawdzaj Działaj ustanowienie SZBI ustanowienie polityki SZBI, celów, procesów i procedur istotnych dla zarządzania ryzykiem oraz doskonalenia bezpieczeństwa informacji tak, aby uzyskać wyniki zgodne z ogólnymi politykami i celami organizacji. wdrożenie i eksploatacja SZBI wdrożenie i eksploatacja polityki SZBI, zabezpieczeń, procesów i procedur. monitorowanie i przegląd SZBI pomiar wydajności procesów w odniesieniu do polityki SZBI, celów i doświadczenia praktycznego oraz dostarczania raportów kierownictwu do przeglądu. utrzymanie i doskonalenie SZBI podejmowanie działań korygujących i zapobiegawczych na podstawie wyników wewnętrznego audytu SZBI i przeglądu realizowanego przez kierownictwo lub innych istotnych informacji, w celu zapewnienia ciągłego doskonalenia SZBI. Zaletą normy jest kompleksowe podejście do bezpieczeństwa informacji. Norma analizuje obszary bezpieczeństwa fizycznego, osobowego, teleinformatycznego oraz prawnego. Nie określa jednak szczegółowych technicznych wymagań, a jedynie wskazuje na te obszary związane z polityką bezpieczeństwa informacji, które należy uregulować. Sposób zabezpieczenia tych obszarów zależy od użytkowników i powinien być oparty na przeprowadzonej analizie ryzyka. Ze względu na kompleksowe podejście do tematu bezpieczeństwa informacji oraz ogólny charakter wymagań, norma może być podstawą budowy SZBI w organizacjach małych, jak i wielkich koncernach oraz może dotyczyć różnych sektorów branżowych. Dla oceny stopnia zagrożenia bada się tzw. ryzyko zniszczenia całości lub części zasobów informacyjnych. Oczywiście im bardziej wykwalifikowany zespół administratora (bazy danych, sieci itd.) opiekującego się zasobami i im bardziej doskonała infrastruktura informatyczna, tym zagrożenie jest mniejsze. W określaniu ryzyka stosuje się różne metody oceny. W każdej z obowiązujących metodyk projektowania systemów informacyjnych istnieje specjalny rozdział, w którym podaje się metody obliczeń tego typu ryzyka. W zasadzie ryzyko podaje się stosując zdania wartościujące: np. małe, średnie, duże albo też przeprowadzając wyliczenia ilościowe jako prawdopodobieństwo liczone w procentach. W analizie jakościowej wypełnia się zbudowany kwestionariusz, w którym, w skali od 1 do 10, ocenia się skutki, jakie może pociągnąć dla organizacji, wystąpienie określonego ryzyka. 121

122 Zarządzanie zasobami informacyjnymi Każda organizacja stosuje dla ochrony zasobów informacyjnych odpowiednią politykę bezpieczeństwa. Obejmuje ona takie działania, które pozwalają na zachowanie integralności posiadanych zasobów informacyjnych. Braki w tej polityce powodują negatywne konsekwencje w funkcjonowaniu organizacji. W budowie procedur zarządzania zasobami informacyjnymi, jako elementu całości polityki bezpieczeństwa, pragniemy zwrócić uwagę na konieczność tworzenia procedur wskazujących sposób funkcjonowania w sytuacjach awaryjnych, a szczególnie jak należy postępować w sytuacji utraty całości lub części zasobów informacyjnych, i jak odtworzyć te zasoby. Należy zgodzić się ze stanowiskiem M. Pańkowskiej [2001], która mówi miedzy innymi o tym, że strategia zapewnienia bezpieczeństwa zasobów informacyjnych zmienia się i ewoluuje. W konsekwencji powinna ona być stale weryfikowana i modyfikowana. Polityka bezpieczeństwa powinna być formułowana oddzielnie dla każdej organizacji ze względu na odrębną ocenę ryzyka, kondycję finansową oraz kwalifikacje kadry kierowniczej i wykonawczej. Bezpieczeństwo jest więc procesem ciągłym i dynamicznym. Właściwe podejście do tego zagadnienia skutkuje tym, że możemy być przekonani o fakcie podjęcia wszelkich starań, aby nasze dane były odpowiednio zabezpieczone przed utratą, nieuprawnioną modyfikacją, czy też kradzieżą. Przy wyborze mechanizmów ochrony informacji w systemie lub sieci teleinformatycznej należy przyjąć następujące zasady: po pierwsze informacja powinna być chroniona od momentu jej powstania do momentu celowego zniszczenia po jej wykorzystaniu; po drugie, każda informacja opracowana, przechowywana oraz przesyłana w systemie teleinformatycznym powinna być zabezpieczona przed dekonspiracją i modyfikacją, ponieważ w wyniku świadomego lub nieświadomego ataku ze strony użytkowników lub celowej ingerencji przez intruza może wystąpić zmiana stanu systemów lub sposobu działania. Dlatego też szczególne znaczenie w elemencie bezpieczeństwa łączności odgrywają następujące komponenty: zabezpieczenia kryptograficzne, bezpieczeństwo transmisji. Termin kryptografia w szerokim znaczeniu odnosi się do całego spektrum zagadnień związanych z bezpieczeństwem łączności w czasie przesyłania i przechowywania informacji. Jednym z najefektywniejszych sposobów zabezpieczenia informacji przed dostępem osób nieupoważnionych jest wykorzystywanie technik kryptograficznych. Techniki kryptograficzne pozwalają chronić poufność i autentyczność informacji. Poufność oznacza, że informacja może być poprawnie odczytana jedynie przez upoważnione osoby (lub programy). Autentyczność oznacza, że informacja może (mogła) być wyge- 122

123 Zarządzanie i informatyka cz. II nerowana jedynie przez upoważnione osoby w sposób dający się później poprawnie odczytać. W celu ochrony informacji wykonuje się na niej proces maskowania w taki sposób, aby ukryć jej treść. To działanie nazywane jest szyfrowaniem. Proces odtworzenia informacji uzyskanej w wyniku szyfrowania, nazywamy deszyfrowaniem. Wiadomość przeznaczoną do szyfrowania nazywamy tekstem jawnym lub otwartym, po zaszyfrowaniu tekstem zaszyfrowanym lub kryptogramem. Szyfrowanie i odszyfrowanie odbywa się za pośrednictwem algorytmu kryptograficznego, zwanego szyfrem, który jest funkcją matematyczną. Dzięki postępowi w technikach komputerowych coraz częściej systemy dostępu do zasobów informacyjnych posługują się rozwiązaniami biometrycznymi takimi jak: analiza głosu, analiza linii papilarnych, siatka dna oka. Metody te są stosowane jako wspomagające w systemowej ochronie zasobów informacyjnych. Ochrona taka jest wielopoziomowa i dotyczy następujących rozwiązań: Ochrony dostępu do pomieszczeń gdzie przechowywane są zasoby informacyjne. Uważa się, że jest to bardzo dobre rozwiązanie, ponieważ osoba nieupoważniona nie ma styczności z zasobami informacyjnymi. Rozwiązaniem jest zastosowanie karty dostępu w postaci identyfikatora, albo też czytnika danych biometrycznych. Ochrona sprzętu komputerowego. Nieupoważniony użytkownik nie może uruchomić systemu, w którym blokowana jest klawiatura lub wymagane jest wypełnienie specjalnych procedur ekranu. Ochrona określonego systemu lub konkretnych aplikacji, gdzie administrator systemu albo ABD (Administrator Bazy Danych) ustala procedury identyfikujące i warunki niezbędne dla ich spełnienia w celu korzystania z danego systemu. Niezależnie od stosowanej metody, wspomagającym systemem ochrony zasobów informacyjnych jest proces stałego monitoringu. W systemie tym zbiera się dane identyfikacyjne osoby korzystającej z zasobów informacyjnych oraz czas dostępu. System bezpieczeństwa wykonuje też odpowiednie statystyki, jak i rejestruje wszelkie zmiany. Tak jak nie powinno się zostawiać otwartych drzwi do mieszkania, tak też nie powinno się przekazywać informacji w postaci jawnej (otwartej), szczególnie o znaczeniu biznesowym. Pewnym podsumowaniem tej części rozważań, może być stanowisko A. Stranowskiego z BRE Banku [2002]. Mimo, że ta wypowiedź dotyczy problemów bezpiecznego banku, to prezentowane stanowisko jest też zasadne w stosunku do bezpieczeństwa zasobów informacyjnych dowolnej organizacji. Uważa on bowiem, że: na pojęcie bezpieczeństwa składa się wiele aspektów. Jednym z nich jest bezpieczeństwo samego dostępowego kanału dystrybucyjnego, czyli drogi od komputera klienta do banku. Stosowane są mechanizmy zabezpieczające, które powodują, że nie można się podszyć pod klienta i oszukać systemu: proste i silne uwierzytelnianie, szyfrowanie, podpis elektroniczny. Są też środki techniczne, 123

124 Zarządzanie zasobami informacyjnymi które chronią sam bank przed zewnętrznym dostępem osób nieupoważnionych: odpowiednie konfiguracje routerów, firewalle, sondy monitorujące ataki z zewnątrz. W ten sposób zabezpiecza się przed nieuprawnioną modyfikacją, usunięciem lub przeczytaniem informacji. Ponadto należy natychmiast wdrażać nowe wersje oprogramowania systemowego, usuwające zauważone tzw. dziury w systemie. Niezbędne jest także bieżące monitorowanie z zewnątrz bezpieczeństwa przez specjalistyczne firmy, które codziennie sprawdzają, czy pojawiają się jakieś luki w systemie. Bezpieczeństwo zasobów informacyjnych może być też rozumiane jako zabezpieczenie się przed utratą danych na skutek zniszczenia ośrodka komputerowego w wyniku katastrofy, czy ataku terrorystycznego. Organizacje, a zwłaszcza banki, budują na taką okoliczność ośrodki zapasowe, które w przypadku zniszczenia głównego centrum komputerowego, są w stanie podjąć natychmiastową pracę. Przy okazji tych rozważań należy również wspomnieć o bezpieczeństwie organizacyjnym, czyli odpowiedniej polityce bezpieczeństwa w organizacji, która określa zasady ochrony informacji i realizowanie tej polityki. Niezależnie od przyjętych rozwiązań należy pamiętać o tym, że najsłabszym ogniwem w systemie ochrony zasobów informacyjnych jest człowiek, a wyznania hackerów pełne są przykładów naiwności użytkowników, którzy sami przesyłają hasła dostępu i udostępniają informacje osobom do tego niepowołanym. 124

125 Rozdział 7 Charakterystyka podstawowych systemów informacyjnych wspierających procesy zarządzania 7.1. Wspomaganie zarządzania wybór systemu informacyjnego W pierwszej części książki przedstawione zostały najbardziej rozpowszechnione klasyfikacje systemów informacyjnych wspierających procesy zarządzania. Kontynuacją rozważań tam zawartych jest rozdział, w którym zostaną przedstawione charakterystyki określonych wcześniej, najbardziej typowych generacji systemów informacyjnych. W rozdziale tym konsekwentnie stosujemy proponowany podział na trzy generacje. Jako dodatkową generację przyjęto systemy wspomagające, takie jak, na przykład, Systemy Wspomagania Pracy Biurowej. Wzajemne powiązanie generacji systemów przedstawia rysunek II.13. Niekiedy do generacji systemów wspomagających zarządzanie zalicza się też takie systemy, jak: komputerowe wspomaganie projektowania CAD (Computer Aided Design), komputerowe wspomaganie planowania CAP (Computer Aided Planning), komputerowe wspomaganie wytwarzania CAM (Computer Aided Manufakturing), komputerowe zarządzanie jakością CAQ (Computer Aided Quality). Wszystkie stanowią zintegrowany system wspomagania wytwarzania CIM (Computer Integrated Manufacturing). W prezentacji powiązań systemów wspomagających zarządzanie zwraca uwagę rola systemów transakcyjnych (generacja I), które stanowią fundament funkcjonowania pozostałych systemów. ST po przez różnorodne narzędzia informatyczne dostarczają danych innym generacjom stosującym nawet bardzo wyrafinowane rozwiązania. Fakt ten został zaznaczony na rysunku pogrubioną ramką. Generacja III, jak już wspomniano wcześniej, stanowi konglomerat różnych systemów, które łączy fakt, iż bezpośrednio wpływają na proces podejmowania decyzji w organizacjach. 125

126 Charakterystyka podstawowych systemów informacyjnych Rysunek II.13. Powiązania między generacjami systemów informacyjnych i systemami wspomagającymi Źródło: opracowanie własne. Ze względu na tematykę książki, przedstawimy systemy wspomagania pracy biurowej. Znaczenie niektórych typów systemów wspomagających zarządzanie rośnie. Za przykład mogą posłużyć systemy szyfrujące, jako elementy łańcucha bezpiecznego przesyłania informacji. Niekiedy też brak analizy systemu diagnozującego naładowanie baterii w laptopie może spowodować, iż w pewnym momencie zobaczymy czarny ekran, albo też nie zdążymy zapisać na dysku właśnie tworzonego tekstu. Większość personalnych komputerów wyposażonych jest w specjalny pakiet ułatwiający codzienną pracę biurową. Dzięki temu systemowi nie stosuje się, w obecnej dobie, tradycyjnych maszyn do pisania. System Wspomagania Pracy Biurowej SWPB usprawnia rutynowe prace. Prawie każda osoba w organizacji korzysta z tej klasy systemów. Generacje systemów informacyjnych, które zostaną omówione w dalszej kolejności posiadają jako jeden z modułów SWPB. Plusem tego systemu jest fakt, iż w zależności od potrzeb i woli użytkownika może on być zastosowany samodzielnie lub w powiązaniu z innymi systemami informacyjnymi. Dla każdego użytkownika personalnego komputera szczególnie pomocne są: edytory tekstów, które pozwalają na automatyzację korespondencji biurowej, 126

127 Zarządzanie i informatyka cz. II arkusze kalkulacyjne pozwalające na przeprowadzenia rozmaitych obliczeń, w tym z rachunkowości i finansów, pakiety graficzne, które umożliwiają sporządzanie prezentacji ilustracji, np. wykresów, schematów, bazy danych, które umożliwiają przechowywanie i operowanie na dużych zbiorach danych, jak też sporządzanie różnych zestawień w wymaganej przez użytkownika postaci. Najbardziej popularny jest tu system opracowany przez firmę Microsoft pakiet MS Office. Na podstawie dotychczasowych doświadczeń w jego użytkowaniu można stwierdzić, iż wersja systemu oferowana obecnie przez firmę Microsoft jest bardzo łatwa do przyswojenia przez użytkownika, nawet nie najbardziej doświadczonego w posługiwaniu się systemem informatycznym. Jest to system bardzo pomocny ogólnie, jak i dla realizacji poszczególnych sfer działania polityki personalnej. Pakiet w wersji standardowej j zawiera: arkusz kalkulacyjny (Microsoft Excel), edytor tekstów (Microsoft Word), program tworzenia prezentacji (Microsoft Power Point), elektroniczny kalendarz/organizator, który pozwala na gromadzenie i zarządzanie kontaktami, zadaniami do wykonania (Microsoft One Note), system zarządzania relacyjnymi bazami danych (Microsoft Access), programy pozwalające na wykorzystanie możliwości Internetu (poczta elektroniczna, wyszukiwarka internetowa). Zastosowanie współczesnego oprogramowania pozwala na dostęp do wszystkich zaawansowanych narzędzi, które oferuje system. Użytkownik doświadcza nowej technologii korzystając z aplikacji. Za przykład niech posłuży edytor tekstu Microsoft Word w trakcie pisania tekst jest on automatycznie sprawdzany pod względem ortograficznym, a błędnie napisane wyrazy są zaznaczane, na przykład, czerwonym podkreśleniem. Obecne wersje systemu wyszukują też błędy stylistyczne, jak również pozwalają na równoczesną pracę nad tekstem wielu osobom. Zastosowanie specjalnej technologii powiązań, tak zwanego OfficeLinks (program Spinacz), pozwala na łączenie takich dokumentów, jak: listy, raporty, arkusze czy bazy danych w wygodną formę. Tak połączone dokumenty przechowywane są jako jeden nowy dokument. Dzięki takiemu rozwiązaniu jest możliwe, na przykład, połączenie raportu dotyczącego polityki wynagrodzenia z innymi raportami, takimi jak np. raport dotyczący polityki rozwoju firmy. 127

128 Charakterystyka podstawowych systemów informacyjnych Dodatkowy program Microsoft Exchange pozwala na wysłanie z jednego miejsca faksu i poczty elektronicznej. Wszystkie programy tworzące pakiet Office są zaprojektowane tak, aby było możliwe przemieszczanie w nim informacji z dowolnych źródeł. Na rynku są oferowane też pakiety innych firm, ale nie mają one takiej popularności jak MS Office. Powiązane z SWPB są już wcześniej przedstawione Systemy Zarządzania Obiegiem Dokumentów (Electronic Dokument Management System). Jak czytelnik może się przekonać, wciąż mówimy o wzajemnie powiązanych systemach różnych klas, a więc wszelkie typologie są umowne Systemy transakcyjne czyli systemy informacyjne I generacji Systemy transakcyjne (transaction-oriented system) są najbardziej powszechne i stosowane w większości organizacji. Są stosowane do wspierania dokonywanych w organizacji transakcji, a odbywa się to dzięki przetwarzaniu danych związanych z tymi procesami. Można szacować, że około 80% zastosowań infrastruktury informatycznej w zarządzaniu jest obsługiwana przez ten typ systemów. Wszystkie systemy transakcyjne zawierają bazę danych, a niektóre hurtownię danych. Nawet w miejscach, gdzie jest eksploatowany jeden personalny komputer z zainstalowanym na nim najbardziej popularnym na świecie programem MS Office mamy możliwość korzystania z systemu zarządzania bazą danych SZBD MS Access. Jednym z pierwszych systemów przetwarzania transakcji był American Airlines SABRE system, który rozpoczął działalność w 1960 roku. Przeznaczony był do obróbki maksymalnie transakcji dziennie. Najpierw jako produkt IBM, SABRE stał się programem stosowanym przez kontrolę linii lotniczych (AKP). System ten stale się rozwijał i obecnie jest stosowany między innymi przez duże banki, firmy obsługujące karty kredytowe i sieci hotelowe, sieci handlowe. Do ciekawych rozwiązań należał Hewlett-Packard NonStop System (dawniej Tandem NonStop), który był systemem sprzętu i oprogramowania, zaprojektowanym z przeznaczeniem do przetwarzania transakcji online (OLTP). Systemy te zapewniają pełny poziom dostępności i integralności danych. Systemy transakcyjne mają dość nieskomplikowaną architekturę. Najprostsza została przedstawiona na rysunku II.14. Z systemami tego typu spotykamy się codziennie i możemy powiedzieć, że są one powszechnie stosowane. Z takim systemem możemy mieć do czynienia w sklepie, robiąc zakupy. 128

129 Zarządzanie i informatyka cz. II Rysunek II.14. Architektura prostego systemu transakcyjnego Źródło: opracowanie własne. Klient dokonuje określonych zakupów i wkłada je do koszyka. Z koszykiem idzie do kasy. Kasjerka wprowadza do komputera kod towaru i jego ilość. W komputerze następuje obliczenie należności. Klient otrzymuje rachunek, który może być również podstawą zgłoszenia przez niego ewentualnej reklamacji. Kierownictwo sklepu otrzymuje nie tylko raport zbiorczy mówiący o wpływach finansowych, ale też strukturę tych wpływów w dowolnym układzie, np. czasowym, grup asortymentowych, dostawców. Przy określeniu normatywów ilościowych system jest w stanie podać stany magazynowe, jak również samodzielnie wygenerować zamówienia. Często system transakcyjny sklepu powiązany jest z systemem transakcyjnym banku. Ma to miejsce choćby wówczas, gdy klient płaci kartą płatniczą, np. kredytową. Bardziej rozbudowane systemy transakcyjne pozwalają na analizę tzw. koszyka zakupu. Jest to informacja o towarach, które nabywa jednorazowo klient. Informacje te można wykorzystać w celu dogodniejszego dla klienta rozmieszczenia towarów. Analiza taka pozwala również na określenie efektywności prowadzonej akcji marketingowej. Bardziej złożone systemy transakcyjne, jak systemy o którym wspomniano uprzednio, posługują się rozproszonymi bazami danych oraz hurtowniami danych. Systemy transakcyjne powszechnie stosuje się również w działalności: ewidencyjnosprawozdawczej, analityczno-ekonomicznej, rachunkowości, finansach, gospodarce kadrowej, logistyce. Systemy tego typu obsługują takie transakcje, jak: rozliczenia na kontach bankowych, rezerwacje miejsc w hotelu, wydawanie towarów z magazynów, zakupy w supermarkecie, zakupy w sklepach internetowych, aukcje. Systemy transakcyjne są stale udoskonalane. I już niedługo pasażer samolotu nie będzie musiał pokazywać paszportu ani przedstawiać biletu, a tylko na podstawie identyfikacji jego osoby, np. przez czytnik siatkówki lub obrazu linii papilarnych, dokona odprawy paszportowej i biletowej. Podobnie w sklepie przyszłości każdy towar mający mini chip 129

130 Charakterystyka podstawowych systemów informacyjnych będzie komunikował kasjerce, co jest w koszyku, a jej praca ograniczy się do przyjęcia zapłaty gotówką bądź kartą kredytową. Oczywiście już dziś pasażer nie musi mieć papierowego biletu lotniczego dla dokonania formalności wystarczy dowód tożsamości (dowód osobisty, paszport). Pasażer tradycjonalista może otrzymać zamiast biletu elektronicznego bilet papierowy, ale ponosi za tę usługę dodatkowe koszty. Elementami sytemu tradycyjnego są, oprócz opisanych wcześniej zasobów informacyjnych, również modele i procedury. Procedury te bazują w zasadzie na czterech podstawowych działaniach arytmetycznych. Niekiedy procedury te wzbogacone są o procedurę naliczania procentów. Ma to miejsce szczególnie wtedy, kiedy należy przyznać klientowi określoną zniżkę lub też naliczyć kary za niedotrzymanie warunków danej transakcji. Wyliczenia procentowe dokonuje się również w naliczaniu podatków lub procentowych składek, np. na ZUS, KRUS itd. Klasycznym systemem transakcyjnym jest na przykład system naliczania indywidualnych podatków. System ten będzie eksploatowany od roku 2015 przez Urzędy Skarbowe (w chwili pisania książki było to działanie zapowiedziane przez Prezesa Rady Ministrów). Systemy transakcyjne wymagają określonej konfiguracji sprzętu. Bez wymieniania szczegółów dotyczących rozwiązań sprzętowo-programowych, można przyjąć, że systemy tej generacji potrzebują: środków technicznych: komputerów o dużych pamięciach i co jest niezmiernie istotne szybkich urządzeń do wprowadzania i wyprowadzania danych, w tym skanerów oraz szybkich drukarek, oprogramowania zorientowanego problemowo oraz translatory i kompilatory języków pozwalające na przetwarzanie danych ekonomicznych. Systemy informacyjne przetwarzają rozmaite informacje w organizacji. Więc obok wspomnianych i podstawowych funkcji obsługi transakcji realizują dostarczanie elementów do podejmowania decyzji osobom zarządzającym firmą. W konsekwencji możliwe jest wspomaganie procesu podejmowania decyzji zarówno strategicznych, jak i operacyjnych Systemy wyszukiwania informacji i informowania kierownictwa systemy informacyjne II generacji Systemy wyszukiwania informacji, jak i systemy informowania klientów, pracowników i kierownictwa, nazywane są też niekiedy pieszczotliwie systemami policjant, donosiciel. Patrząc na rolę tych systemów w zarządzaniu można je określić precyzyjnie jako systemy monitorowania: organizacji i jej części, otoczenia albo też monitorowania działalności poszczególnych osób fizycznych. W porównaniu z systemami transakcyjnymi systemy tej generacji są już bardziej złożone. 130

131 Zarządzanie i informatyka cz. II Systemy tej generacji w porównaniu z systemami transakcyjnymi są już bardziej złożone. Obok bazy danych lub hurtowni danych posiadają one specjalistyczne oprogramowanie, którego zadaniem jest umożliwienie szybkiej pracy w trybie konwersacyjnym: pytanie odpowiedź. Systemy wyszukiwania informacji, jak i systemy informowania kierownictwa tzw. MIS (Management Information System) muszą być wyposażone w specjalne oprogramowanie i środki techniczne, które pozwalają na bardzo szybkie wyszukiwanie potrzebnej informacji. Informacje normatywne zapisane w bazie danych mogą zostać wykorzystane, na przykład, w momencie regulowania należności za określoną transakcję system może wygenerować nam przypomnienie o płatności, dzięki czemu unikniemy opłat za opóźnienie. Procedury funkcjonowania systemu wyszukiwania informacji (SWI), jak i informowania kierownictwa (SIK) polegają one na tym, że użytkownik zadaje pytanie, a na monitorze komputera lub przez inne urządzania otrzymuje odpowiedź. Jednak nie zawsze użytkownik musi zadać pytanie, aby otrzymać komunikat. W określonych sytuacjach system sam wysyła informację, np. o zagrożeniach albo odwrotnie, uzyskuje informacje, że wszystko przebiega zgodnie z planem. Jeżeli z jakichś względów użytkownik pragnie otrzymać odpowiedź na tradycyjnych nośnikach informacji (druk), to również jest to możliwe. Do II generacji systemów, ze względu na pełnione funkcje, zaliczamy: Systemy Informowania Kierownictwa SIK. Systemy Wyszukiwania Informacji SWI. System MOnitorowania Kierownictwa SMoK. System generacji II funkcjonuje jak przedstawiono na rysunku II.15. Rysunek II.15. Funkcjonowanie Systemu Informowania Kierownictwa Źródło: opracowanie własne. 131

132 Charakterystyka podstawowych systemów informacyjnych Proces komunikacji użytkownika z systemem może być iteracyjny. Użytkownika nie zawsze satysfakcjonuje pierwsza odpowiedź, dla uściślenia jej zadaje dodatkowe pytania. Również z podobnym sposobem działania spotykamy się, jeżeli pytanie użytkownika jest nieprecyzyjne lub wieloznaczne. W takim przypadku system, który najczęściej jest przyjacielski, a więc wyposażony w rozmaite podpowiedzi tzw. helpy, stara się ułatwić użytkownikowi precyzyjne sformułowanie pytania. Zakres działania takich systemów jest bardzo szeroki. Jedynymi ograniczeniami są: zawartość bazy danych i stopień uprawnienia użytkownika do korzystania z systemu. W tej klasie systemów rozwijają się systemy wyposażone w hurtownie danych (patrz: poprzednie rozdziały). Wymienione w tym punkcie systemy stosują podobne procedury. Różnice polegają na zaspokajaniu różnych potrzeb użytkowników i stąd odmienne wymagania, co do szybkości działania i przestrzegania standardów bezpieczeństwa. I tak System Wyszukiwania Informacji ma bardzo uniwersalny charakter. Jest on ukierunkowany zarówno na studenta, ucznia, jak i urzędnika wysokiego szczebla. Nie trzeba być kierownikiem biblioteki, jeśli poszukujemy określonej publikacji. Do takich systemów możemy zaliczyć oferowany na rynku system informatyczny Lex. Jest to system o aktualnych przepisach i aktach prawnych. System jest narzędziem przeznaczonym dla prawników oraz dla pracowników pionu ZZL (zarządzanie zasobami ludzkimi), którzy podejmują decyzję na podstawie obowiązującego prawa. System wykorzystuje bazę danych, która zawiera: teksty jednolite i ujednolicone aktów prawnych, orzecznictwo Sądu Najwyższego i Naczelnego Sądu Administracyjnego oraz bibliografię. Zakres tematyczny obejmuje prawo cywilne, administracyjne, finansowe i gospodarcze. Podstawowym celem programu jest kompletność, łatwość i szybkość dostępu do informacji zawartej w bazie. Lex posiada inteligentny program wyszukiwań, który przyjmuje zapytania w języku naturalnym. Mogą one być wprowadzone w formie pojedynczego słowa, grupy słów definiujących problem, całego zdania lub jego fragmentu. Użytkownik może wpisać w polu zapytań nawet najbardziej zawiłe pytanie. System ma wbudowany tezaurus asocjacyjny, który jest pomocny, gdy użytkownik nie wie dokładnie, czego szuka. Program jest prosty w obsłudze, może z niego korzystać każdy, kto posiada podstawową znajomość posługiwania się komputerem. Wymagania sprzętowe i systemowe nie są trudne do spełnienia, wystarczy bowiem standardowy personalny komputer. Z kolei użytkownik Systemu Informowania Kierownictwa najczęściej spełnia funkcje kierownicze. Jego zainteresowania dotyczą informacji potrzebnych do podjęcia decyzji na różnych szczeblach decyzyjnych. Na przykład potrzebne będą informacje dotyczące kosztów, kształtowania się wskaźników finansowych, czy też stanu zapasów. System ten powinien zapewnić wysoką jakość dostarczanych użytkownikom informacji. Pewne specyficzne cechy posiada natomiast System MOnitorowania Kierownictwa. Jest to również system zaliczany do II. generacji. W systemie SMoK kluczowe miejsce zajmuje baza danych normatywnych. I tak, jeżeli wprowadzimy, na przykład, informacje do- 132

133 Zarządzanie i informatyka cz. II tyczące planowanego funduszu płac, to otrzymamy analizę porównawczą dotyczącą planowanego i wykonanego funduszu. Jeżeli wprowadzimy czasy normatywne na realizację odpowiednich zadań, to możemy na bieżąco śledzić postęp w ich wykonaniu. Monitorowanie polega na jak najszybszym powiadomieniu kierownictwa o możliwych zagrożeniach i zmuszeniu go do interwencji, zanim nastąpią straty [J. Kisielnicki, 1995, 1996]. System Monitorowania Kierownictwa (SMoK) jest systemem informacyjnym wspomagającym kierownika w podjęciu decyzji interwencyjnych: Czy stać na czele pracowników i wraz z nimi rozwiązywać pojawiający się problem? Czy jedynie czujnie obserwować problem, ale jeszcze nie interweniować? Zadaniem SMoK jest wspomaganie kierownictwa w nadzorowaniu najbardziej istotnych składników funkcjonowania organizacji i przygotowania decyzji interwencyjnych. SMoK pozwala na praktyczne stosowanie technik zarządzania, takich jak: zarządzanie przez wyjątki czy zarządzanie przez cele, a więc, po prostu, na dobre kierowanie organizacją. Zakłada się, że mniej kosztuje zapobieganie niż leczenie. Kierownik, mając informacje o nadciągającej burzy, przystąpi do działań osłonowych i minimalizujących jej negatywne skutki. Miejsce Systemu Monitorowania Kierownictwa w systemie informacyjnym organizacji przedstawiono schematycznie na rysunku II.16. Rysunek II.16. Miejsce Systemu Monitorowania Kierownictwa w Systemie Informacyjnym Organizacji 133

134 Charakterystyka podstawowych systemów informacyjnych Informacje o funkcjonowaniu organizacji i jej otoczeniu są dostarczane do bazy danych przez układ zasilania. Część informacji z bazy danych zasila subbazę, która na rysunku została przedstawiona jako Normatywna Baza Danych. W normatywnej bazie danych istnieją wzorce i normy. Porównywane są one w module Analizator z informacjami otrzymanymi w wyniku działalności organizacji. Jeżeli istnieją różnice między informacjami pożądanymi a uzyskanymi, wysłane jest zestawienie porównawcze do kierownictwa organizacji. System może być tak zaprojektowany, że informacja znajduje się u kierownictwa organizacji tylko wtedy, gdy różnica przekroczy założoną wartość graniczną. Zadaniem systemu SMoK jest jak najwcześniejsze dostarczenie informacji o zagrożeniach, aby umożliwić szybkie podjęcie decyzji interwencyjnych. Funkcjonowanie systemu można porównać do działania systemów wczesnego ostrzegania, stosowanych w rozwiązaniach militarnych. Podstawowe trudności w projektowaniu systemu są następujące: określenie podstawowego atomu przedsięwzięcia, czyli działania, które poddane jest analizie, określenie kryterium analizy, np. może nim być czas realizacji działania; często sytuacja decyzyjna uwzględnia takie kryteria, jak: zysk, koszty, pracochłonność itd., przyjęcie dla poszczególnych atomów wielkości normatywnych; wielkości te przyjmowane są zgodnie z wiedzą, normami lub oczekiwanymi rezultatami. Filozofia budowy systemu jest dość prosta. Niebezpieczeństwa, jak w każdym systemie wspomagającym zarządzanie, tkwią w przyjętych założeniach. Nieprawidłowe zasady funkcjonowania systemu, jak i błędy projektowe mogą spowodować ogromne straty. Błędnie zaprojektowany system, który dostarcza mylących informacji, przytępia wrażliwość kierownictwa na istniejące zagrożenia. Dobry system SMoK oddaje kierownictwu ogromne usługi. Pozwala na bieżący wgląd w funkcjonowanie organizacji, zarówno w całości, jak i jej poszczególnych parametrów. Zastosowanie systemu przyczynia się także do oszczędności czasu przy wsparciu ze strony systemu SMoK kierownictwo organizacji potrzebuje mnie czasu na budowanie i realizację strategii rozwoju organizacji. Tam, gdzie funkcjonuje system informacyjny II generacji, koszt stanowi jedynie zaprojektowanie normatywnej bazy danych. 134

135 Zarządzanie i informatyka cz. II 7.3. Systemy doradcze, czyli systemy informacyjne III generacji Systemy doradcze są najbardziej dynamicznie rozwijającą się generacją systemów informatycznych dla wspomagania zarządzania. Dzięki rozwojowi ośrodków informatycznych i w wyniku wzrostu potrzeb kadry zarządzającej powstają wciąż nowe rozwiązania, które są coraz to bardziej doskonałe i obejmują swoim działaniem wszystkie funkcje procesu zarządzania. O podstawowych typach systemów tej generacji pisaliśmy w pierwszej części książki. Historycznie ujmując, możemy przyjąć, że rozwijały się one w następującej kolejności: Systemy Wspomagania Decyzji SWD, Systemy Ekspertowe SE, Systemy dla Kadry Kierowniczej EES, Systemy Business Intelligence BI i e-bi. Systemy III. generacji związane są z najbardziej zaawansowaną technologią informatyczną. Niekiedy nazywa się je systemami ze sztuczną inteligencją. Rysunek II.17. Rozwój systemów wspomagania decyzji Źródło: por.: C. M. Olszak [2007] Na rysunku II.17 przedstawiono, jak w czasie zmieniała się złożoność systemów doradczych. Zgodnie z definicją jednego z twórców zasad teorii tych systemów [Turban, 1990]: System doradczy to inteligentny program komputerowy, korzystający z wiedzy i procedur wnioskowania na tyle trudnych, że wymagających znacznej wiedzy specjalistów (ekspertów). 135

136 Charakterystyka podstawowych systemów informacyjnych We współczesnych systemach doradczych bardzo trudno jest oddzielić warstwę modeli algorytmicznych od innych typów modeli używanych dla wspomagania decyzji. Występuje wzajemnie przenikanie się warstwy algorytmicznej i heurystycznej. Systemy II. generacji rozwijają się dynamicznie i potwierdzają tezę o integracji narzędzi wspomagających procesy decyzyjne. Typową strukturę systemu doradczego przedstawia rysunek II.18. Rysunek II.18. Typowa architektura Systemu Doradczego Źródło: opracowanie własne. U podstaw zastosowania systemów doradczych leży przekonanie, iż wielu problemów zarządzania nie można rozwiązać rutynowo. Rutynowy sposób, zwany algorytmicznym, oznacza, że istnieje ściśle określona metoda rozwiązania. Jeżeli nie można problemu rozwiązać jednoznacznie, wtedy sięgamy do metod heurystycznych. Przy zastosowaniu tego typu metod wykorzystuje się wiedzę ekspertów oraz dotychczasowe doświadczenia zdobyte w rozwiązywaniu złożonych problemów, w tym doświadczenie uzyskane w zarządzaniu wiedzą. W takich systemach jednym z najtrudniejszych zadań jest uzyskanie danych i szacowanie ryzyka zaistnienia określonej sytuacji i uzyskania określonego wyniku. Współczesny system doradczy można określić też jako program komputerowy, który wykorzystuje zarówno modele z bazy modeli, jak również wiedzę i reguły wnioskowania zawarte w bazie wiedzy dla rozwiązania problemów tak złożonych, że wymagane są umiejętności profesjonalisty z danej dziedziny, czyli eksperta. System ten może być też wsparty narzędziami klasy OLAP i drążenia danych, dla pozyskania potrzebnych informacji z hurtowni danych. Dzięki tego typu systemom możemy w praktyce wykorzystać osiągnięcia badań operacyjnych, ekonometrii i analizy systemowej. 136

137 Zarządzanie i informatyka cz. II Projektanta takiego typu systemu określamy jako inżyniera wiedzy, a dziedzina, która się tą problematyką zajmuje nazywana jest inżynierią wiedzy. System doradczy budowany jest w dialogu z ekspertami, od których pozyskiwane są procedury i wiedza. I tak, systemy dla problematyki doradztwa personalnego będą tworzone z udziałem specjalistów ZZL (zarządzania zasobami ludzkimi). Skonsolidowana (zintegrowana) baza powstaje w procesie integracji różnych baz (danych, modeli, wiedzy) i narzędzi (OLAP) rysunek II.19. W trakcie posługiwania się nią, użytkownik może konsultować swoje propozycje działań i domagać się od systemu, aby ocenił je. W ten sposób użytkownik może wcześniej poznać ewentualne zagrożenia, jakie niesie proponowane przez niego rozwiązanie. Uzyskuje przy tym opinię niezależnego eksperta, jakim jest komputer. Takie właśnie opinie są bardzo potrzebne w zarządzaniu. Komputerowego doradcy nie można przekupić. Jest on także odporny na naciski zewnętrzne. Rysunek II.19. Skonsolidowana baza i jej elementy Źródło: opracowanie własne. Diagnostyczne systemy informatyczne, które poprzedzały współczesne systemy doradcze, zakładały pewność i niezmienność informacji. W obecnych systemach doradczych to założenie jest uchylone i proces wnioskowania odbywa się z zastosowaniem analizy ryzyka (zarządzanie ryzykiem). Takie podejście jest bardziej odpowiednie dla problematyki zarządzania, gdzie obserwacje są niekiedy nieliczne i trudno porównywalne. Sytuacje decyzyjne w organizacji są analizowane i rozwiązywane przy użyciu takiego oprogramowanie, które pozwala na generowanie i weryfikowanie hipotez. Każda uzyskana diagnoza jest indywidu- 137

138 Charakterystyka podstawowych systemów informacyjnych alnie sprawdzana, a następnie oceniana pod kątem, czy jest prawdziwa lub fałszywa z określonym stopniem niepewności. Ponieważ diagnoza stawiana jest z użyciem różnorodnych form weryfikacji i zastosowaniem wielu modeli wnioskowania, możemy otrzymać różne rekomendacje. Do podjęcia właściwej decyzji niezbędne jest dostarczanie użytkownikowi wyjaśnień. Wyjaśnianie określamy jako umotywowanie poszczególnej diagnozy, czyli określenie, jak i dlaczego wnioskowanie przebiegało w określony sposób. Najczęściej uzyskuje się wyjaśnienia retrospektywne. W takich wyjaśnieniach otrzymuje się informacje, jak poszczególne diagnozy i rekomendacje zostały osiągnięte, a więc jaki zestaw danych i metod został zastosowany. Na pytanie użytkownika i żądanie wyjaśnienia, system podaje cały łańcuch reguł, które były zaangażowane dla przedstawienia tej rekomendacji. W trakcie procesu rozwiązywania problemu przez komputer użytkownik systemu może zadawać pytania i w każdej chwili może otrzymać odpowiedzi i wyjaśnienia, dlaczego właśnie takie odpowiedzi zostały udzielone. Specjalną rolę odgrywa moduł współpracy z użytkownikiem (interface). Moduł współpracy powinien zapewnić komunikację z użytkownikiem w trybie dialogu. Podstawową zasadą jest, aby interface był dla użytkownika przyjazny. Jedną z dróg realizacji tej zasady jest zastosowanie języka naturalnego. Inną drogą są rozbudowane programy podpowiedzi, tzw. helpy. Interface jest szczególnie istotny dla użytkownika nieprzygotowanego do korzystania z ICT, a właśnie takim może być kierownik, który ma dobre przygotowanie specjalistyczne, ale brak mu kultury informatycznej. Podstawowym elementem systemu doradczego jest wspomniana wcześniej skonsolidowana baza. Właśnie ona wyróżnia system doradczy od systemów I i II generacji. Szczególnie zwracamy uwagę na fakt zapisania w skonsolidowanej bazie wiedzy o faktach i regułach wnioskowania. Na nich bowiem operuje mechanizm wnioskowania. Moduł uzasadniania wyjaśnia użytkownikowi przebieg procesu i podstawy reguł wnioskowania. Wiedza wynikająca z doświadczenia ekspertów jest wprowadzona do odpowiedniego segmentu bazy za pomocą moduły pozyskiwania wiedzy. System stale musi być zasilany nowymi danymi, modelami i wiedzą. Uzyskiwane są między innymi poprzez ćwiczenia, doświadczenia, badania i szkolenia oraz przy pomocy 138

139 Zarządzanie i informatyka cz. II takich narzędzi, jak wspomniane wcześniej OLAP i narzędzia pochodne. Zasilane to odbywa się z użyciem specjalistycznych modułów. Szczególnie ważna w systemach doradczych jest wiedza praktyczna, która jest stale uzupełniana wiedzą teoretyczną. Wiedza służy zdefiniowaniu problemu, rozwiązaniu go, wdrożeniu rozwiązania, a następnie uruchomieniu procesu uczenia. Bazy wiedzy pozwalają na realizację zasad zarządzania wiedzą opisanych już uprzednio. Przypominamy, iż baza wiedzy składa się między innymi z: opisu obiektów i występujących między nimi zależności, opisu metod i technik rozwiązywania problemów, heurystyk, zbioru faktów itd. W bazie wiedzy istnieją dwa rodzaje wiedzy, a mianowicie: opisy obiektów i zależności oraz opisy rozwiązania problemu. Obydwa te rodzaje wiedzy muszą występować w systemie, aby mógł on funkcjonować. Systemy doradcze tej generacji służą rozwiązywaniu różnych zadań, wykorzystując do tego odpowiednie obszary wiedzy. Niezależnie od problemu, sekwencja działań jest jednak zawsze następująca: Jeżeli czyli IF (WARUNEK) To wtedy, czyli THEN (KONKLUZJA), Zasadę tę interpretujemy następująco: Jeśli zaistnieje sytuacja A, to powinniśmy podjąć decyzję B. Na przykład w procedurze przyjmowania pracownika do pracy, a więc w fazie naboru i selekcji, system doradczy pomaga w podjęciu decyzji w następujących etapach procesu: Etap I sprawdzamy czy kandydat charakteryzuje się pożądanymi cechami, czyli spełnia warunki, które stawia pracodawca. Czyli: Jeżeli (IF) pracownik spełnia określone cechy to wtedy (THEN) podejmujemy decyzję o wpisaniu go jako kandydata do pracy. W krańcowych przypadkach możemy, jeżeli nie mamy innych kandydatów, przyjąć go do pracy. Wtedy procedura przyjęcia jest jednoetapowa. Etap II selekcja. Najczęściej jednak mamy wielu kandydatów do pracy i wielu z nich spełnia określone przez nas warunki nie możemy więc poprzestać na etapie pierwszym. Kandydatów, których traktujemy jako obiekt naszych badań, opisujemy za pomocą określonych cech, a mianowicie kwalifikacji formalnych oraz wyników przeprowadzonych testów (często z użyciem komputera). Na podstawie dotychczasowej wiedzy, zawartej w odpowiednich bazach nowej wiedzy o kandydatach do pracy, system zbuduje listę rankingową z wyliczonymi prawdopodobieństwami, w jakim stopniu kandydaci sprawdzą się w firmie. Z pomocą systemu możemy przeprowadzić analizę ryzyka (risk management) przyjęcia danego kandydata. 139

140 Charakterystyka podstawowych systemów informacyjnych Etap III wybór. Za pomocą systemu doradczego można określić przypuszczalny przebieg kariery zawodowej pracownika. Jeśli poszukujemy wielu pracowników, możemy przypisać konkretną osobę do określonego stanowiska. Natomiast w przypadku dłuższej nieobecności pracownika w pracy, możemy dobrać na zastępstwo takiego pracownika, który cechami charakteru najbardziej odpowiada osobie nieobecnej. Wybieramy pracownika stosując modele wielokryterialne i prognostyczne. System doradczy, w opisanym przypadku, działa w dwóch kierunkach. W pierwszym służy pracownikom pionu ZZL, podpowiadając i ułatwiając decyzję w sprawie przyjęcia pracownika. W drugim zaś pozwala kandydatowi ocenić, czy firma spełni jego aspiracje, i czy naprawdę chce w niej pracować. Aby system był sprawny i mógł spełniać wymagania użytkownika, powinien być stale aktualizowany. Źródłami zasilającymi skonsolidowaną bazę są zbiory dokumentów i wiedzy zawarte w takich materiałach, jak opracowania naukowo-badawcze i ekspertyzy oraz książki i artykuły zamieszczane w profesjonalnej prasie. Obecnie coraz częściej zasilanie informacyjne odbywa się przy korzystaniu z zasobów internetowych. Bardzo cennym źródłem wiedzy są opinie ekspertów. Opinie te nie zawsze podawane są w jednoznacznej formie i dlatego muszą być poddane wstępnej obróbce. Pozyskiwaniem wiedzy od ekspertów dla systemu doradczego zajmuje się wspomniany już wcześniej inżynier wiedzy. Jest on więc pośrednikiem między ekspertem a systemem doradczym. W trakcie pracy z ekspertem inżynier wiedzy musi umieć uzyskać od niego wiedzę specjalistyczną i przedstawić ją w formie przyswajalnej dla systemu. Dążymy do tego, aby w procesie pozyskiwania wiedzy od eksperta eliminować szczeble pośrednie. Realizowana jest tu jedna z podstawowych zasad reengineeringu, aby w miarę możności minimalizować pośrednictwo. Dla realizacji tego celu zawansowane są prace nad inteligentnymi interfejsami, za pomocą których eksperci bezpośrednio wprowadzają do systemu wiedzę. Mechanizmy zawarte w systemie pozwalają na sprawdzanie wiedzy pod względem kompletności i zgodności z już zgromadzoną wiedzą. W wspomaganiu decyzji systemy doradcze mogą znaleźć bardzo duże zastosowanie. Analiza obecnych zastosowań nie jest jednak satysfakcjonująca. Trzeba przyznać, iż obecnie systemy doradcze wykorzystywane są do rozwiązywania względnie małych problemów. Barierę psychologiczną użytkowników, którzy nie zawsze rozumieją metody wyznaczania optymalnych lub rekomendowanych decyzji. Firmy konsultingowe wykorzystują zaawansowane systemy doradcze jako narzędzie pracy i nie chcą go rozprzestrzeniać. Cenę systemów i koszty ich eksploatacji. Systemy doradcze można stosować do rozwiązania problemów zarządzania zarówno w ujęciu statycznym, jak i dynamicznym. Na przykład w ujęciu statycznym system umożli- 140

141 Zarządzanie i informatyka cz. II wia ocenę z punktu widzenia wielu kryteriów osób starających się o pracę lub już pracujących. Z kolei w ujęciu dynamicznym system umożliwia przewidywanie ich ścieżki kariery zawodowej i dostosowanie do niej systemu szkoleń. Podobną procedurę można stosować dla kandydatów przewidywanych do awansu w firmie lub też dla osób, które powinny być zwolnione. System może być też pomocny przy diagnozie pracownika, który pragnie dowiedzieć się, jakie powinien uzyskać nowe umiejętności dla podwyższenia swoich kwalifikacji i co powinien robić, aby realizować wymarzoną ścieżkę kariery. Prosty system doradczy to, na przykład taki, który określi z jakiego młyna powinna być dostarczona mąka do piekarni, aby zminimalizować koszty transportu. System taki wykorzystuje procedury i modele tzw. systemu transportowego, a metodą rozwiązania może być algorytm kąta północno-zachodniego. W ujęciu dynamicznym, stosowany jest dla określenia kierunków transportu, kiedy przewidujemy przebudowę drogi lub też remont mostu, po którym ma przejechać samochód dostawczy. Dla wspomagania menedżera personalnego, w przykładach wcześniej prezentowanych, system doradczy generuje różnego typu sytuacje problemowe. Rozwiązując je, oceniamy pracownika, który podejmuje decyzje. Trafność decyzji może być też analizowana przez moduły oceniające systemu doradczego. W ten sposób można ocenić styl zarządzania i trafność podjętych decyzji. Mając szereg wyników działań ocenianej osoby/osób możemy dość precyzyjnie podjąć decyzję o powierzeniu jej/im określanych stanowisk. Analiza taka jest jednak bardzo kosztowna i wymaga przygotowania odpowiednich przykładów do testowania. System doradczy jest i w tym względzie bardzo pomocny i tańszy niż eksperyment w realnej organizacji. Uważamy, że dzięki systemowi stosunkowo wcześnie można dostrzec wady i zalety kandydata do pracy, a tym samym zminimalizować koszty podjęcia nietrafnej decyzji personalnej. Mechanizm wnioskowania jest elementem sterującym systemem. Jest aktywowany, gdy użytkownik formułuje problem. Decyduje on, które reguły uruchomić i w jakiej kolejności. Przegląda bazę, gdzie przechowywane są informacje o stanie początkowym i gdzie wywnioskowane rezultaty są przechowywane podczas procesu wnioskowania [H. Sroka, 1994]. Mechanizm wnioskowania wykorzystuje logikę formalną do reguł wnioskowania. System analizując bazę reguł rekomenduje decyzję w postaci konkluzji. Nowy uzyskany rezultat jest umieszczany z powrotem w bazie i tworzony jest nowy wzorzec danych, który może być porównywany z innymi regułami. Kolejny raz mogą być wydedukowane nowe rezultaty, itd., aż zostanie osiągnięta ostateczna konkluzja. W systemach doradczych stosowane są podstawowe typy wnioskowania: wnioskowanie wprzód. wnioskowanie wstecz. 141

142 Charakterystyka podstawowych systemów informacyjnych Odnoszą się one do sposobu sprawdzania reguł przez mechanizm wnioskowania, a mianowicie, czy rozpoczyna on od przesłanek, czy od konkluzji. Przyjmijmy, że w bazie są zapisane następujące reguły: R1: IF A AND B THEN D (Reguła 1 jeśli jest A i B wtedy sytuacja D) R2: IF B THEN C (Reguła 2 jeśli sytuacja B wtedy nastąpi sytuacja C) R3: IF C AND D THEN E (Reguła 3 jeśli sytuacja C i D wtedy nastąpi sytuacja E) Wnioskowanie wprzód można wyrazić następująco: Fakty Reguły wnioskowania Cel Wnioskowanie wprzód zakłada, że mechanizm wnioskowania znajdzie reguły mające warunki (przesłanki) pasujące do danych w przestrzeni roboczej. W prezentowanym przykładzie są to reguły Rl i R2. Mechanizm wnioskowania wie, którą z nich wykonać lub też w jakiej kolejności uruchamiać odpowiednie reguły. Jeżeli chcemy wybrać jedną nich, to mamy problem wyboru: Rl lub R2. Podczas wyboru stosujemy następujące procedury: uruchamiaj pierwszą napotkaną regułę, lub też regułę o najniższym numerze. Jeżeli wybraliśmy regułę Rl., to po wykonaniu Rl do przestrzeni roboczej dodany jest nowy rezultat i zawiera ona teraz A.B.D. Następny krok to porównywanie, które daje jedną regułę R2, która po uruchomieniu doda C do bazy. Ostatecznie może być wykonana reguła R3 dając konkluzję E. Ten sposób wnioskowania określany jest również jako sterowany danymi, gdyż nowe rezultaty, dodawane do przestrzeni roboczej sterują mechanizmem porównywania reguł. Wnioskowanie można ilustrować za pomocą drzewa wnioskowania, co przedstawia rysunek II.20, gdzie strzałki reprezentują zastosowane reguły, a wierzchołki stany przestrzeni roboczej. Ciągłe linie reprezentują reguły wykonane, a kropkowane linie reprezentują reguły alternatywne, które pominięto w procesie wnioskowania. Legenda: R reguły, A,B... E sytuacje Rysunek II.20. Drzewo wnioskowania wprzód Źródło: Klein M., Mathile L. B. [1990]. 142

143 Zarządzanie i informatyka cz. II We wnioskowaniu wprzód cykl wygląda następująco [H. Sroka, 2005]: poszukiwanie reguł, których warunki pasują do danych w przestrzeni roboczej, wybór jednej z reguł zgodnie z zastosowaną strategią wyszukiwania, dodanie do przestrzeni roboczej rezultatów, będących wynikiem konkluzji. Cykl ten jest powtarzany dotąd, aż rezultat zdefiniowany jako cel jest dodany do przestrzeni roboczej. Jednym z problemów wnioskowania wprzód jest, jak koncentrować się na celu, skoro normalnie nie ma żadnych informacji, w jakim kierunku pójdzie wnioskowanie. Wnioskowanie wstecz można wyrazić następująco: Cel Reguły wnioskowania Fakty We wnioskowaniu wstecz, cykl ten wygląda następująco [H. Sroka, 2005]: We wnioskowaniu wstecz cykl wygląda następująco [H. Sroka, 2005]: poszukiwanie reguł, których konkluzje odpowiadają bieżącym podcelom, wybór jednej z tych reguł wg zastosowanej strategii, zastąpienie podcelu koniunkcją konkluzji tych reguł, które stanowić będą nowe podlece. Cykl ten jest powtarzany dotąd, aż początkowy cel zostanie rozłożony na zbiór podcelów. Zaleta wnioskowania wstecz polega na tym, że pytania do użytkownika są zależne od kontekstu, tzn., że ścieżka rozwiązania jest zależna od podanych danych i wynikających stąd zależności. Tak więc kolejność pytań może być różna w dwóch odmiennych konsultacjach. Często korzystne jest użycie połączenia obu form wnioskowania. Wnioskowanie wprzód może być zastosowane do analizy poszczególnych zbiorów reguł. Wewnątrz natomiast reguł wnioskowanie może przebiegać przy użyciu odmiennej procedury, czyli wnioskowania wstecz (zakładamy wynik i chcemy zobaczyć, jakie należy przyjąć działania początkowe). Rozwój systemów doradczych jest wielokierunkowy. Jednym z nich jest powstanie specjalnej klasy systemów wspomagających najwyższe kierownictwo, jakimi są systemy informacyjne najwyższego kierownictwa określane w literaturze przedmiotu terminami: Executive Information Systems (EIS) lub Executive Support Systems (ESS). W literaturze [J. L Salmeron, I. Herrero, 2003 i 2005] określa się, że Executive Information System (EIS) jest to system informacyjny przeznaczony dla kierownictwa najwyższego 143

144 Charakterystyka podstawowych systemów informacyjnych szczebla zarządzania (senior managers). Jego zadaniem jest ułatwianie i wspomaganie zbierania informacji pomocnej przy podejmowaniu decyzji. EIS udostępnia potrzebne informacje z wewnętrznych i zewnętrznych źródeł, która jest istotna ze względu na cele i oczekiwania kierownictwa organizacji. Jak piszą K. & J. Laudon [2006], w proponowanych dla kadry kierowniczej narzędziach są takie, które zawierają bardzo zaawansowaną grafikę i pozwalają na wizualizację, pozyskiwanie multimedialnych informacji. System EIS jest niekiedy określany jako specjalizowana forma, a nawet nakładka na tradycyjny SWD. Obecnie powstają nowe odmiany systemów doradczych czyli Business Intelligence (BI). Termin Business Intelligence pojawił się w literaturze po raz pierwszy już w roku 1958, ale w dzisiejszym rozumieniu został on zdefiniowany znacznie później (w roku 1989) przez pracownika Gartner Group, H. Dresnera [cyt za J. Surma, 2009, s. 13.]. W 1989 roku określił Business Intelligence jako: zespół koncepcji i metod służących do polepszania procesu podejmowania decyzji przez użycie opartych na faktach systemów wspierających (fact-based support systems). BI jest systemem, który za pośrednictwem technologii OLAP i analizy danych dostarcza użytkownikom odpowiedzi na ważne pytania biznesowe i umożliwia identyfikację znaczących trendów lub wzorców [za B. Smok, 2008, s. 177]. Od tego czasu, wraz z rozwojem technologii rozwijała się mnogość ujęć i definicji BI. Zasadniczo, definicje te można za A. Januszewskim [2011, s. 11, 12] podzielić na cztery grupy: 1. BI jako koncepcja zarządzania, mająca na celu zapewnienie menedżerom informacji o odpowiedniej jakości w odpowiednim czasie; 2. BI jako zbiór metod oraz procesów mających na celu ulepszanie decyzji biznesowych, które wykorzystują dane zawarte we wszystkich zasobach przedsiębiorstwa oraz doświadczenie i wiedzę uczestników biznesu, a także obejmują zbieranie danych i zarządzanie nimi oraz analizowanie i dystrybuowanie informacji; 3. BI jako rozwiązanie informatyczne w wąskim znaczeniu, oznaczające narzędzia programowe i aplikacje służące raportowaniu i prezentowaniu wyników przedsiębiorstwa, a także umożliwiające analizę danych (prostą i wielowymiarową OLAP) oraz eksplorację danych i tekstu; 4. BI jako rozwiązanie informatyczne w szerokim znaczeniu, obejmujące obok rozwiązań programowych służących raportowaniu, analizie danych oraz eksploracji danych i tekstu też rozwiązania technologiczno-programowe, obejmujące hurtownie danych i wielowymiarowe serwery OLAP wraz z odpowiednimi narzędziami programowymi służącymi do zbierania danych oraz zarządzania i administrowania poszczególnymi elementami systemu BI. Jednakże, mimo takiej różnorodności pojęciowej, analiza literatury przedmiotu wskazuje, że niemal wszyscy autorzy, w mniejszym lub większym stopniu, wzorują swoje definicje na osiągnięciach przedstawicieli Gartner Group formułowaną we wstępie do raportu Magic Quadrant for Business Intelligence Platforms 2012 [Hagerty, R. L. Sallam R., J. Richardson, 2012, s. 1 3.]. Zdaniem autorów tego raportu, systemem klasy BI można nazwać system informatyczny, który odznacza się szeregiem 14 cech uporządkowanych w 3 grupach (warstwach): integracji, dostarczania informacji oraz analizy. 144

145 Zarządzanie i informatyka cz. II Cechy te to m.in.: Raportowanie raportowanie oznacza tworzenie sformatowanych i interaktywnych raportów, sparametryzowanych lub nie, z możliwością ich automatycznego subskrybowania i dystrybuowania do wielu użytkowników; Tworzenie kokpitów menedżerskich kokpity menedżerskie jako specyficzna odmiana raportów, wykorzystująca narzędzia wizualizacji danych (wykresy, mierniki, grafy) do zobrazowania bieżącego stanu kluczowych dla przedsiębiorstwa wskaźników wydajności (KPI key performance indicators); Generowanie zapytań ad hoc co oznacza umożliwienie użytkownikom samodzielnego odpytywania danych, bez udziału specjalistów informatyków. W tym celu narzędzia BI powinny charakteryzować się rozbudowaną warstwą semantyczną, zrozumiałą dla użytkownika biznesowego, która pozwoli mu nawigować po dostępnych źródłach danych; Wyszukiwanie możliwość przeszukiwania zarówno ustrukturyzowanych, jak i nieustrukturyzowanych źródeł danych; Integracja z pakietem Microsoft Office w niektórych przypadkach platformy BI są wykorzystywane jako warstwa pośrednia służąca do zarządzania, zabezpieczania i wykonywania zadań analitycznych, ale ostatecznie dane prezentowane są w aplikacjach MS Office (np. arkuszu kalkulacyjnym Excel); Dostęp do środowiska raportującego za pomocą urządzeń mobilnych pozwala to na dostarczanie raportów oraz kokpitów menedżerskich do urządzeń mobilnych. BI stanowi narzędzie wspomagające zarówno kierowników, jak i specjalistów zajmujących się analizami i strategią organizacji. Dla kierowników operacyjnych, którzy oczekują informacji o aktualnym stanie realizowanych procesów zarządzania, przeznaczone są rozwiązania problemów, które noszą w literaturze nazwę business activity monitoring (BAM). System taki pozwala na wielokryterialne przetwarzanie napływających bieżąco danych. Korzystając z zawansowanych metod grafiki, techniki prezentacyjne dobierane są odpowiednio do potrzeb użytkownika, proponując szerokie możliwości wizualizacji. Właśnie BI jest podstawą zastosowań przedstawionego wcześniej kokpitu zarządzania (management dashboard). Jak pisze W. Zalech [2004], w przeszło czternastoletniej historii, business intelligence doczekało się wielu definicji. Pisze on dalej, że korzystając z portalu whatis.com, śledził ewolucję tej definicji, jaka dokonała się w przeciągu tych lat. I tak BI można zdefiniować jako: Business Intelligence (BI) to szeroki wachlarz aplikacji i technologii służących do zbierania, analizowania i udostępniania danych po to, aby pomóc pracownikom organizacji w podejmowaniu lepszych decyzji gospodarczych. Do aplikacji BI możemy zaliczyć systemy wspomagania decyzji (DSS), systemy raportująco-pytające (Q&R), Online analytical processing (OLAP), analizy statystyczne, prognozowanie i eksplorację danych. 145

146 Charakterystyka podstawowych systemów informacyjnych Można wyróżnić dwa wymiary zastosowań BI: w organizacji jako całości i pojedynczych, konkretnych przypadkach. We wspomnianym wcześniej raporcie Gartner Group [1998] na temat BI zawarta jest następująca treść [tłumaczenie wg W. Zelacha, 2004]: Już do 2000 roku na rynku będą działały patrzące w przyszłość przedsiębiorstwa, posiadające narzędzia BI i informacje dostarczane przez te narzędzia, dostępne dla szerokiego grona pracowników, konsultantów, klientów, dostawców i społeczności. Kluczem do przetrwania na konkurencyjnym rynku jest bycie o krok przed konkurencją. Podejmowanie dobrych decyzji biznesowych na bazie bieżących i pewnych informacji daje dużo więcej niż sama intuicja. Analiza danych, raportowanie i narzędzia zapytań mogą pomóc użytkownikom biznesu przebrnąć przez ogrom danych w celu wydobycia najistotniejszych informacji. Dziś te narzędzia razem zaliczane są do kategorii zwanej «Business Intelligence». Co różni BI od wcześniejszych rozwiązań systemów doradczych? To kompleksowe ujęcie wszystkich zjawisk związanych z wykorzystaniem narzędzi, jakie dostarcza BI we wspomaganiu procesów decyzyjnych. W wizji Gartner Group, organizacje, które będą wdrażały i wykorzystywały narzędzia BI jedynie częściowo, mogą mieć poważne problemy we współczesnym zarządzaniu. Relacje zachodzące między: BI, TI, a zarządzaniem przedstawia rysunek II.21. Rysunek II.21. Miejsce BI w TI i zarządzaniu Źródło: [2008]. 146

147 Zarządzanie i informatyka cz. II Rysunek II.21 wskazuje, iż BI to nie tylko TI, a coś więcej i spina on działalność różnych podmiotów w sferze zarządzania. Uzupełnieniem jest rysunek II.22 z elementami systemu. 147

148 Charakterystyka podstawowych systemów informacyjnych Rysunek II.22. Elementy sytemu Business Intelligence Źródło: Źródło: (2010) 148

149 Zarządzanie i informatyka cz. II Rozwiązania Business Intelligence zdobywają coraz większą popularność. Pozwala on na integrację danych pochodzących z dowolnych źródeł, jak też zarządzanie nimi oraz dostarczanie ich użytkownikowi w formie i czasie przez niego pożądanym. Jak pokazuje rysunek II.23 jednym z najważniejszych elementów BI jest moduł integracji danych. Jego zadaniem jest integrowanie danych z wielu różnych źródeł w jeden, podstawowy i spójny magazyn. Za tę konsolidację danych odpowiada proces ETL (Extraction, Transformation, Loading ekstrakcja, transformacja, ładowanie), zachodzący w warstwie integracji i składowania. W drodze procesu ETL dane są pobierane z rozmaitych źródeł danych baz transakcyjnych systemów CRM czy ERP, arkuszy kalkulacyjnych, dokumentów tekstowych, fotografii etc. ujednolicane i ładowane do korporacyjnej hurtowni danych (enterprise data warehouse). Proces ujednolicania i oczyszczania danych jest niezbędny, gdyż mogą one pochodzić ze źródeł o różnej strukturze fizycznej (bazy relacyjne vs XML), różnych nośników (plik tekstowy vs zdjęcie RTG), danych o odmiennym formacie (np. format daty), czy konwencjach nazewniczych (np. w danej organizacji przyjęte jest oznaczać kolor czerwony kodem C, ale koncern, który dokonuje przejęcia fabryki konkurencji, oznacza tym kodem kolor czarny). Aby umożliwić raportowanie na poziomie całej organizacji, dane pochodzące z różnych źródeł muszą zostać zunifikowane i zgromadzone w jednym miejscu. Rysunek II.23. Funkcjonowanie systemu klasy Business Intelligence i e-business Intelligence Źródło: Oferta firmy Business Objects [2008]. W literaturze często spotyka się zdanie, że w zasadzie Business Intelligence to wszystkie systemy informacyjne stosowane w zarządzaniu. Jednak jest to zbyt rozszerzająca definicja. Na BI można spojrzeć dwojako: 149

150 Charakterystyka podstawowych systemów informacyjnych 1. wąsko kiedy jest on identyfikowany tylko z zastosowaniami, których celem jest zaawansowana analiza danych, 2. szeroko kiedy obok zaawansowanej analizy danych potrzebne jest również korzystanie z takich narzędzi, jak: hurtownie danych, data mining, portal korporacyjny. W metodyce firmy IBM uważa się, że dzięki Business Intelligence można tak wykorzystać zasoby informacyjne znajdujące się w organizacji, że uzyska się znaczne polepszanie jakości podejmowanych decyzji biznesowych. Bazując na tym M. Nycz [2007, s. 48] określa, że Business Intelligence jest to zestaw: koncepcji, metod, technik i narzędzi mających na celu ulepszenie sytuacji biznesowych dzięki dostępnym zasobom danych, informacji i wiedzy pochodzącej z samej organizacji, jak i spoza niej, wykorzystujące najnowsze rozwiązania informacyjno-komunikacyjne. Dzięki BI bada się i analizuje stan firmy oraz sytuację rynkową, gdzie ilość danych jest niepełna (dotyczy to zwłaszcza przyszłości). Jak pisze H. Dudycz [2008] BI opłaca się użytkować, wtedy gdy: występuje bardzo duża złożoność prowadzonej przez firmę działalności; istnieje potrzeba częstego wykonywania prognoz oraz planów, a dane dotyczące przyszłości są niepełne; występuje trudność w zbieraniu danych pochodzących z wielu baz danych i na ich podstawie podejmowaniu trafnych decyzji; dostarczane raporty przez istniejące w firmie systemy informatyczne są niesatysfakcjonujące pod względem analizowania właściwych danych i informacji; istnieje brak czytelnych relacji przyczynowo-skutkowych oraz spójności między poszczególnymi elementami raportów; występuje szeroki zakres wykorzystywanych w przedsiębiorstwie baz danych i rozwiązań pochodzących od różnych dostawców. Dalszym rozwinięciem rozwiązań Business Intelligence jest e-business Intelligence. Możemy określić, że: Dzięki wykorzystaniu Internetu oraz technologii intra- i ekstranetowych powstają systemy e-business Intelligence (e-bi), które mają jeszcze większy zakres funkcjonalności 150

151 Zarządzanie i informatyka cz. II [G. J. Miller, D. Brautigam, S. V. Gerlach, 2006, B. Liautaud, 2001]. Rozwiązania e-bi mogą przybierać różne formy i w różny sposób wykorzystują możliwości Internetu, zwłaszcza portali. Będą one przedstawione bardziej szczegółowo w części poświęconej e-zarządzaniu. Dla ilustracji systemów III. generacji przedstawimy problemy oraz podstawowe zasady funkcjonowania takiego systemu na przykładzie procesu podejmowania decyzji dotyczących polityki cenowej w pasażerskich liniach lotniczych. Analizujemy tu następujący przykład: Dana firma lotnicza pragnąc zaistnieć na rynku musi realizować następujące koherentne strategie cenowo-kosztowe: 1. obniżać koszty i zmniejszać ryzyko działania, przejawiające się między innymi w tym, że propozycja (KM): przyjmując zbyt wysokie taryfy naraża się na utratę klientów przyjmując za wysokie taryfy naraża się na nie sprzedanie biletów, 2. stawać się atrakcyjna dla klientów pod kątem oferowanych na rynku cen biletów, Te dość proste założenia wymagają zarówno pozyskania bardzo dużej ilości danych, jak również implikują konieczność wykonania na zgromadzonych danych ogromnej ilości operacji, z których niektóre są operacjami bardzo złożonymi. W konsekwencji wpływa to na konieczność budowy systemów doradczych. Przedstawiony fragment systemu doradczego powstał na podstawie pracy i badań autora E. Gwiazdy w projektowaniu systemów informacyjnych dla takich przedsiębiorstw lotniczych, jak: British Airlines, KLM, LOT, SvietAero. Dla osiągnięcia znaczących efektów z nakładów ponoszonych na tej klasy systemy, powinny być one zaprojektowane tak, aby było możliwe stosowanie elastycznej polityki cenowej. System doradczy, obok rozwiązań typowych dla tej klasy systemów (BI i e-bi), ma elementy systemu transakcyjnego, jak i systemu informowania kierownictwa (chodzi o monitorowanie procesu sprzedaży). Podstawowym jego zadaniem jest wspomaganie całości procesu decyzyjnego dla stosowania odpowiedniej polityki cenowej w przedsiębiorstwie lotniczym. System informacyjny dla wspomagania decyzji cenowych korzysta z zasobów informacyjnych zawartych w: hurtowni danych, gdzie znajdują się między innymi informacje o taryfach, regułach stosowanych przy zakupie biletów, preferencjach klientów, warunkach przelotu, miejscach nabycia biletów (są to zarówno dane aktualne, jak i historyczne); bazie modeli i procedur, gdzie znajdują się algorytmy, użyte do podejmowania decyzji o rezerwacji miejsc. Z punktu widzenia formalnego, algorytmy łączą w sobie elementy rachunku marginalnego (za ile można sprzedać następne wolne miejsce) oraz metody optymalizacji i symulacji, (przy jakiej kombinacji cen zysk lub dochód firmy będzie naj- 151

152 Charakterystyka podstawowych systemów informacyjnych wyższy). Dodatkowym elementem bazy modeli są procedury używane dla oceny ryzyka zwrotu biletów; bazie wiedzy, w której znajduje się m.in. wiedza o konkurencyjnych liniach lotniczych, o pracownikach i ich umiejętnościach, o rezultatach poprzednich akcji promocyjnych. Baza modeli i baza wiedzy są dostępne tylko analitykom firmy. Oni bowiem, na podstawie zawartych tam modeli, informacji i wiedzy, przygotowują i rekomendują decyzje cenowe. Linie lotnicze muszą reagować zarówno na małe, jak i na duże i nagłe zmiany na rynku. Reakcje muszą być szybkie i precyzyjne. Dlatego powinny one stosować wspomagające systemy doradcze oraz mechanizmy szybkiego wyszukiwania danych (data mining i OLAP). Zastosowanie narzędzi OLAP pozwala na wielowymiarową analizę danych, podczas gdy narzędzia drążenia danych mają za zadanie znalezienie nieznanych dotąd zależności zachodzących między danymi. Do konsekwencji braku odpowiedniego systemu doradczego należą między innymi: utrata potencjalnych dochodów w przypadku, gdy linie lotnicze proponują wyższą cenę niż konkurencja, a rezultatem są niewykorzystane zasoby (miejsca w samolocie), utrata potencjalnych zysków w przypadku, gdy linie lotnicze proponują niższą cenę niż konkurencja, a rezultatem jest koszt niewykorzystanej szansy. Dobrze zaprojektowany system doradczy dla wspomagania zarządzania cenami pozwala decydentom na szybką i semi optymalną decyzję jako reakcję na zmiany sytuacji na rynku. Parametry szybkość decyzji i jej poprawność są bardzo ważne. Obejmują one zarówno decyzje (czy zmieniamy cenę, a jeśli tak, to jaka jest nowa cena), jak i realizację (czyli powiadomienie o nowej cenie wszystkich zainteresowanych). Podstawowe zadania systemu informacyjnego doradczego dla linii lotniczych związane są: na wejściu z koniecznością analizy zmieniających się cen i reguł; na wyjściu z podawaniem aktualnej taryfy (w zależności od strategii firmy). Systemami wspomagającymi decyzje dotyczące polityki cenowej są zarówno systemy monitorujące czyli systemy SMoK (II generacja), jak i wspomagające proces podejmowania decyzji przez stosowanie narzędzi prognoz i symulacji (III generacji). Opóźnienie podjęcia decyzji powoduje, że w czasie, kiedy analitycy firmy przygotowują własne zmiany cen (jako reakcję na zmiany konkurenta), konkurenci mogą dokonać następnych zmian. Dlatego istotne jest zapewnienie odpowiedniego poziomu bezpieczeństwa przetwarzania danych w systemie. W procedurze ustalania taryf informacja cenowa spełnia specjalną rolę.. Jest ona bowiem zarówno informacją wchodzącą do systemu, jak i informacją transformowaną na informacje wychodzące i stanowiące o efektywności przyjętej strategii funkcjonowania linii. 152

153 Zarządzanie i informatyka cz. II Czy moja cena jest konkurencyjna? To jest kluczowe pytanie, które zadaje sobie nieomal codziennie każdy menedżer zarządzający cenami. Dzięki Internetowi ceny biletów prawie wszystkich linii lotniczych są dostępne dla każdego klienta. W tak funkcjonującym środowisku te linie lotnicze, które nie reagują na zmiany sytuacji na rynku wystarczająco szybko i precyzyjnie, tracą potencjalnych klientów. Gdyby nie istniały systemy III. generacji, linie lotnicze musiałyby mieć bardzo liczną grupę analityków, aby być w stanie reagować na duże, a niekiedy nagłe zmiany na rynku z odpowiednią szybkością oraz dokładnością. Takie rozwiązanie nie jest ani praktycznie, ani ekonomicznie uzasadnione. W efekcie, firmy stosują kompromis i zatrudniają mniej analityków cen godząc się na późniejszą i nie tak dokładną reakcję jakby tego wymagała efektywna konkurencja. Rozwój i doskonalenie systemu doradczego może znacząco zmniejszyć opóźnienia w reakcji na zachowania rynku. Dla takich sytuacji rekomendowany jest system e-bi. Jaki natomiast czynnik utrudnia zastosowanie systemu doradczego w analizowanym przykładzie jednej z największych linii lotniczych świata? Powszechnie sądzi się, iż decyzje dotyczące ustalenia poziomu cen wymagają kreatywności. Zwłaszcza, jeśli ustalane ceny dotyczą produktów i usług. Wraz ze zmianą zachowań konsumentów i wahaniami rynku, analityk cen musi stale monitorować efektywność struktury cen i je odpowiednio adaptować. Stałe utrzymywanie efektywnej struktury cen nie jest łatwe. Może to prowadzić do prostej konkurencji cenowej, która polega na tym, że dane przedsiębiorstwo stara się jedynie o to, aby mieć niższe ceny niż u konkurencji. Nie jest to korzystne ani dla poszczególnych linii lotniczych, ani dla całego sektora tych usług. Analityk cen jest również zobligowany do sprawdzania około kilkuset dziennych wahań cen przy użyciu systemów transakcyjnych, czyli systemów niskiej generacji (I generacji). Zdaniem analityków, rozwiązania, które stosowane są obecnie w badanej linii lotniczej, nie zawierają wymaganej specjalistycznej wiedzy i odpowiedniej znajomości sektora (brak jest bazy wiedzy). Konieczność przetwarzania ogromnej ilości danych wymaga zatrudnienia wielu osób, które zajmowałyby się ich wprowadzaniem do systemu. W konsekwencji, ze względu na różnice w płacach, takie linie, jak na przykład BA, stosują outsoursing i zlecają wprowadzanie danych do systemów firmom zewnętrznym w Indiach. Płace tam są o wiele niższe niż na przykład w Wielkiej Brytanii, a pracownicy posługują się na co dzień językiem angielskim (cześć pracowników jest wykształcona w Wielkiej Brytanii). Różnice stref czasowych umożliwiają kontynuowanie pracy, gdy dzień roboczy w Europie się kończy. Dlatego, aby reakcja na zmiany cen była szybka (czasem praktycznie natychmiastowa), potrzebne jest stosowanie zawansowanych systemów III. generacji. Bez takiego systemu 153

154 Charakterystyka podstawowych systemów informacyjnych trudno, aby linie lotnicze zajmowały pozycję konkurencyjną na rynku usług lotniczych. Intuicyjne zmiany cen, nie poparte odpowiednimi analizami rynku, mogą prowadzić do poniesienia strat przez daną firmę lotniczą. Architektura systemu doradczego stosowanego dla wspomagania procesu ustalania cen przedstawiona jest na rysunku II.24. Jądrem systemu doradczego jest podsystem analizy cen. Legenda: ATPCo (Airline Tariff Publishing Company) zajmuje się (m.in.) dystrybucją taryf od wszystkich linii lotniczych do wszystkich organizacji, które skupia ATPCo-subskrypcje. ATPCo przesyła osobno ceny, restrykcje i rozmaite dane pomocnicze (np. kody państw, strefy czasowe). Stąd właśnie wiemy, jakie są ceny konkurencyjnych linii lotniczych. ATPCo wysyła odpowiednie kalkulacje cen pięć razy dziennie w ciągu tygodnia i dwa razy dziennie w ciągu weekendu. Proces ekstrakcji, przetwarzania, i ładowania danych źródłowych do bazy danych odbywa się przy pomocy kilkunastu programów, które czytają dane źródłowe, formatują i zasilają odpowiednie bazy danych. Rysunek II.24. Moduły systemu doradczego stosowanego w pasażerskich liniach lotniczych Źródło opracowanie własne. Jedną z najbardziej istotnych przyczyn stosowania narzędzi informatycznych w procesie określania optymalnych cen biletów w danych warunkach jest konieczność gospodarowania bardzo dużymi zbiorami danych. Jak wielka jest to ilość danych? Organizacja, która zajmuje się dystrybucją cen (Airline Tariff Publishing Company, ATPCo) ma około 50 mln. taryf. Do tego należy dodać taryfy rozprowadzane przez SITA, które są przekazywane bezpośrednio do Global Distribution System (GDS). Można oszacować, że w każdym momencie istnieje około 200 mln taryf, natomiast w ciągu roku dokonuje się około 1 bilion zmian w ciągu roku [Loew 2004]. Obok 154

155 Zarządzanie i informatyka cz. II informacji o taryfach, w analizie cen należy uwzględnić reguły/restrykcje. Są to najróżniejsze atrybuty uzupełniające taryfy, które decydują o elementach wpływających na proces podejmowania decyzji przez klienta. Należą do nich: koszt zmiany lub zwrotu biletu, zależności między ceną a długością pobytu, wpływ dnia wylotu i powrotu, itp. Ilość zmian warunków nabywania biletów lotniczych w ciągu roku szacuj się na 1,5 mln. Każda linia lotnicza praktycznie może zmieniać ceny wiele razy dziennie, na każdym odcinku i w każdym przedziale czasowym. Zdarza się, że linie lotnicze są w stanie, w jednym momencie, zmienić 30% swoich cen. Zdarza się również, że linie lotnicze przez długi czas przeprowadzają jedynie niewielkie korekty cen, aby niespodziewanie przeprowadzić drastyczne ich zmiany. Ponieważ ceny mogą zostać zmienione w dowolnym momencie w przyszłości, nie istnieje reguła, która pozwoliłaby przewidzieć, kiedy firmy zaczną zmieniać oferowane ceny. Należy również dodać, że nie wszystkie zmiany są równie istotne. Analitycy linii lotniczych szacują, że 20% rodzajów taryf przynosi 80% dochodu. Dlatego ustalanie priorytetów zarówno dla rynków, jak i dla rodzajów taryf jest bardzo ważne. Na produkt oferowany przez daną linię lotniczą przy ustalonej cenie składają się cena biletu na ustaloną trasę wraz z warunkami nabycia danego biletu (rules). Tabela II.1 przedstawia przykład. Tabela II.1. Zestaw danych przekazywanych przez firmę do dystrybutorów biletów Nazwa linii... Trasa... Data wylotu... Data przylotu... Miejsce zakupu. Forma zakupu Taryfa Cena biletu Reguły Rules Biznesowa Ekonomiczna Specjalna C (1) C (N) C (N+1) RmC (M) C(M+!) Rk C(K) Legenda: C jest to cena konkretnego biletu w danej klasie, R jest to konkretna reguła obowiązująca przy danej cenie. R1 Rs R1 Rw R1 Rp Występuje tu relacja implikacji, gdzie przy danej cenie mamy określone reguły. Reakcja na zachowanie rynku, a co się na to składa: analiza zmian taryfy i reguł oraz przygotowanie decyzji o zmianie cen, to analiza relacji jakie zachodzą między cenami a warunkami, jak też pomiędzy warunkami. 155

156 Charakterystyka podstawowych systemów informacyjnych Sama taryfa nie jest jednoznaczna (jeden warunek może być połączony z wieloma taryfami i odwrotnie). Analiza zamian jest dość złożona. Dla przykładu, załóżmy, że BA (British Airways) oferuje przejazd z Londynu do Nowego Yorku za $1050 pod warunkiem, że pasażer nie będzie nocował w Nowym Yorku w sobotę. Dla pasażerów, którzy nocują w NY w sobotę ten sam bilet będzie kosztował $850. Różnica dotycząca ceny biletów wynika z faktu, iż warunek dotyczący nocowania w sobotę w Nowym Jorku jest metodą segmentacji klientów na rekreacyjnych oraz podróżujących służbowo. Większość pasażerów, którzy jadą na wakacje, spędza w tym miejscu co najmniej jedną sobotę i niedzielę, podczas gdy służbowy wyjazd na ogół trwa dwa trzy dni i delegowany stara się być na weekend w domu. Mamy więc jeden przelot i różne ceny biletów zależne od tego, jaka jest różnica czasu miedzy wylotem a powrotem oraz, i czy w trakcie tego czasu jest zawarty weekend. Jeżeli więc firma zmieni warunki, a taryfa London NY będzie wynosiła tylko $850 niezależnie od długości pobytu, służbowe wyjazdy stanieją o $300. Dla analityka cen zmiany warunków są tak samo ważne, jak zmiany samych taryf. Dokument przedstawiony w tabeli II.1 jest uzupełniany o komentarze dotyczące badania ryzyka wprowadzenia proponowanych taryf i oszacowanie odpowiednich skutków ekonomicznych. Sposób postępowania analityka przedstawia procedura (patrz rys. II.25). Rysunek II.25. Procedura wymiany danych między systemami dla aktualizacji ceny Źródło: opracowanie własne. 156

157 Zarządzanie i informatyka cz. II Linie lotnicze mają kilkanaście rożnych kanałów dystrybucji (głównymi dystrybutorami są organizacje: ATPCo lub SITA). Linie lotnicze używają jednej lub drugiej organizacji. Inną metodą jest sprzedaż biletów bezpośrednio przez Internet. Również same linie lotnicze bezpośrednio sprzedają swoje bilety przez Internet. I tak, na przykład BA, znaczną liczbę biletów sprzedaje za pomocą swojej witryny internetowej. BA, jak większość linii, sprzedaje bilety za pomocą własnych lokalnych ośrodków sprzedaży. Oprócz tego, bilety prawie każdej linii lotniczej można kupić za pośrednictwem stron internetowych typu travelocity.com, jak również u milionów niezależnych agencji turystycznych na całym świecie. Należy dodać, iż cena biletu na trasie NY-Johannesburg zakupionego w NY może różnić się od ceny biletu zakupionego w Johannesburgu. Bilety kupione przez Internet są wyceniane według miejsca wylotu. Dystrybucja zmiany cen jest również złożonym procesem. Proces ten powinien przebiegać tak, aby ośrodki sprzedaży uzyskały nową cenę w tym samym czasie. Proces dystrybucji musi uwzględnić zależność ceny od miejsca zakupu. Analityk powinien też zrobić korektę ceny ze względu na: lokalne podatki, opłaty lotniskowe, narzuty agentów itp. Uzupełnieniem przesyłania nowych taryf przez sieć komputerową jest wysyłanie zmiany cen do agentów przez inne media, jak: faks, rozmowa telefoniczna. Niezawodny i szybki system komunikacji jest potrzebny, aby linie mogły szybko reagować na lokalne sytuacje rynkowe. Zmiany są często inicjowane przez agenta podroży, który komunikuje się z linią lotniczą, przedstawia lokalną sytuację i sugeruje zmianę. Ewentualne błędy analityków dotyczące ustalonych cen mogą być korygowane właściwą alokacją miejsc. Na przykład postępowanie dla samolotów ze 100. miejscami jest następujące. Te 100 miejsc w pierwszym etapie ustalania ceny może być równo podzielone na pięć klas: bardzo drogie, drogie, średnie, tanie, bardzo tanie. Analityk alokacji zajmuje się dzienną oceną rezerwacji i modyfikuje procent każdej klasy cenowej w zależności od popytu i ryzyka. Przykładem są bilety grupowe na ogół albo cała grupa wykorzystuje bilety, albo też cała grupa rezygnuje z wyjazdu. Gdy w jednym samolocie ma polecić kilka grup to istnieje duże ryzyko, ponieważ bilety zwrócone w ostatniej chwili trudno jest sprzedać po dobrej cenie. Podsystem do optymalizacji alokacji miejsc bada dzienne rezerwacje i buduje dzienne prognozy sprzedaży. Zanim dzienne raporty rezerwacji wykażą spadek popytu, to często jest już za późno i linie lotnicze poniosą straty. Tu pomocna jest zarazem baza wiedzy i doświadczenie analityka. W naszym przykładzie mimo, że zaczynamy z 20% alokacją biletów w każdej grupie cenowej, relacja zmienia się codziennie, zależnie od stanu rezerwacji. Jeżeli najtańsze bilety sprzedają się bardzo szybko, analityk alokacji zamyka najtańszą klasę i zwiększa przydział w klasach droższych. Na przykład klasa najtańsza może być zamknięta po sprzedaniu 12% biletów, a niewykorzystane 8% jest dodane do klas droższych. Właściwa alokacja cen 157

158 Charakterystyka podstawowych systemów informacyjnych w poszczególnych segmentach cenowych dokonywana z wykorzystaniem narzędzi ICT niewątpliwie pomaga w prowadzeniu całościowej polityki cenowej. 158

159 Zarządzanie i informatyka cz. II 7.5. Zintegrowane systemy informacyjne Praktyka gospodarcza pokazuje tendencje do tworzenia zintegrowanych systemów, które łączą wymienione uprzednio generacje. Ta koncepcja rozwija się stale i dynamicznie. Systemy stopniowo obejmują wszystkie podstawowe funkcje zarządzania w organizacji, czyli: planowanie, organizowanie, motywowanie i kontrolowanie. System zintegrowany składa się z modułów przeznaczonych do obsługi wszelkich procesów przetwarzania danych wspomagających funkcjonowanie organizacji. Istotna integracja systemów rozpoczęła się w latach dziewięćdziesiątych XX wieku. Stanowiło to znaczący krok w rozwoju systemów informatycznych. W konsekwencji otrzymano narzędzia zaspokajające nawet najbardziej złożone potrzeby użytkowników. ICT integruje ludzi, dane, wiedzę i procesy, a dowodem na to są systemy określane jako MRP II (Manufacturing Resource Planning Planowanie Zapotrzebowań Materiałowych) oraz ERP (Enterprise Resource Planning Planowanie Zasobów Przedsiębiorstwa). Jak pisze S. Wrycza [2010] system ERP jest zorganizowany modułowo lub kompleksowo i obsługuje wszystkie obszary zarządzania. W wielu podręcznikach jest prezentowana teza, że jest to najbardziej merytorycznie i technologicznie zaawansowana klasa systemów informatycznych wspomagających zarządzanie w organizacjach zarówno gospodarczych, jak i w administracji. Umożliwia optymalizację procesów wewnętrznych organizacji niezależnie od ich wielkości, jak i procesów zachodzących w otoczeniu, przez oferowanie gotowych narzędzi. Narzędzia te służą do wymiany danych między działami organizacji oraz organizacją a jej otoczeniem (np. kooperantami, dostawcami, odbiorcami, bankami, urzędami skarbowymi, organami samorządowymi i administracją państwową). Głównymi cechami systemu są: kompleksowość funkcjonalna, integracja danych i procedur, elastyczność funkcjonalna i strukturalna, zaawansowanie merytoryczne i technologiczne oraz otwartość. Wśród tendencji rozwojowych należy wskazać: szerszy zakres usług biznesowych (np. ERP, CRM, ERM, PRM, SCM), pełne wykorzystanie technologii internetowych w realizacji idei e-biznesu, rozwój aplikacji na platformy mobilne, systemy wspomagające zarządzanie informacja, wiedzą i w niedalekiej przyszłości mądrością. System MRP II jest systemem informacyjnym, który zawiera sprawdzone zasady i algorytmy umożliwiające zarządzanie organizacją w warunkach gospodarki rynkowej. Prekursorami były systemy gospodarki materiałowej i planowania produkcji. Jest to też system, który zawiera systemy transakcyjne (I generacja), systemy informowania (II generacja), jak i systemy doradcze z rozwiązaniami Business Intelligence (III generacja). Około 1960 roku, drogą ewolucji, z systemu sterującego stanami zapasów powstał system MRP. 159

160 Charakterystyka podstawowych systemów informacyjnych Następnie system ten, w wyniku uzupełnienia o pętlę sprzężenia zwrotnego dotyczącą realizacji produkcji oraz rozszerzenia zakresu systemu o planowanie takich zasobów, jak: ludzie, maszyny, środki finansowe, przekształcił się w system MRP II. W literaturze wyróżnia się jeszcze system ERP, który uwzględnia m.in. logistykę. Systemy MRP II zdobyły popularność w latach 90. W Polsce najbardziej popularnymi systemami komercyjnymi są systemy firm: SAP, Oracle, Comarch, IFS, QAD [wg. analizy rynku informatycznego, 2007]. MRP II jako system składa się z realizowanych funkcji wspomagających zarządzanie oraz relacji między nimi. Każda z funkcji jest związana z odmiennym zakresem symulacji rzeczywistości produkcyjnej. Standard funkcji MRP II został opracowany przez stowarzyszenie APICS (American Production and Inventory Control Society), gdzie wyróżnia się następujące z nich: planowanie biznesowe (Business Planning), planowanie produkcji i sprzedaży (Sales and Operation Planning SOP), harmonogramowanie planu produkcji (Master Production Scheduling MPS), zarządzanie popytem (Demand Management DEM), planowanie potrzeb materiałowych (Material Requirement Planning MRP), podsystem struktur wyrobów (Bill of Material Subsystem), podsystem transakcji materiałowych (Inventory Transaction Subsystem INV), podsystem harmonogramu spływu (Schedule Receipts Subsystem SRS) sterowanie produkcją (Shop Floor Control SFC), planowanie zdolności produkcyjnych (Capacity Requirements Planning CRP), zarządzanie stanowiskiem roboczym (Input/Output Control), zaopatrzenie (Purchasing PUR), planowanie dystrybucji (Distribution Resource Planning DRP), pomoce warsztatowe (Tooling), interfejs do planowania finansowego (Financial Planning Interfaces), symulacje (Simulation), pomiar działania systemu (Performance Measurement). Wszystkie funkcje są ze sobą powiązane sprzężeniami zwrotnymi i realizowane są w sposób synchronizowany i zbilansowany. W konsekwencji system MRP II pracuje w zamkniętej pętli planowania (closed loop). Jak pisał M. Greniewski [1997], system MRP II 160

161 Zarządzanie i informatyka cz. II pomaga w rozwiązaniu tzw. uniwersalnego równania produkcji, które sprowadza się do odpowiedzi na cztery pytania: Co mamy wyprodukować (jakie wyroby i w jakim terminie), aby wyznaczony popyt został zaspokojony? Czym musimy dysponować i w jakim czasie (zdolności produkcyjne, surowce itd.), aby ją wykonać? Jakich, z posiadanych zasobów, potrzebujemy obecnie (jakimi dysponujemy zdolnościami produkcyjnymi w kolejnych okresach, jakie mamy zapasy produkcji w toku, półfabrykatów, surowców)? Co musimy jeszcze kupić (usługi i surowce), aby wykonać tę produkcję? W końcu lat 90. ubiegłego wieku przeprowadzone badania Amerykańskiego Towarzystwa Sterowania Produkcją wykazały, że użytkownicy MRP II zredukowali poziom zapasów od 20% do 35%. Inni zredukowali koszty produkcji, ograniczyli zakupy, czy też ulepszyli serwis dostaw. Jednak nie wszystkie zastosowania zakończyły się sukcesem. W pełni pomyślne zastosowania ocenia się na 20% 50%. Przyczyn takiego stanu jest wiele, ale do najczęstszych zalicza się nieprzygotowane użytkownika i oczekiwanie na zbyt wiele w bardzo krótkim czasie [I. Durlik 1998]. Systemy klasy MRP II powiązane są z innymi systemami informacyjnymi zarządzania oraz z systemami informacyjnymi wytwarzania, tzw. systemami inżynierskimi typu CAD/CAM. Ich zastosowanie umożliwia posługiwanie się rozmaitymi technikami usprawniającymi zarządzanie, jak: reengineering, Kanban czy JiT (just in time). MRP II zapewnia możliwość prowadzenia rachunku dla przedsięwzięć gospodarczych w przekroju ilościowym. Jest systemem ilościowym wyposażonym w interfejs do modułów finansowych (np. księga główna, należności, zobowiązania), jednak tych funkcji nie obsługuje. System ERP jest obecnie uważany za najwyższą formę systemu zintegrowanego. Biorąc pod uwagę dominujące we współczesnym zarządzaniu podejście dla zapewnienia racjonalności, oparte na tzw. rachunku ekonomicznym, naturalnym jest wzbogacanie systemu MRP II o procedury finansowe typu rachunek kosztów, rachunkowość zarządcza, controlling itd. System MRP II uzupełniony o takie procedury określany jest jako MRP II+ lub MRP III (Money Resource Planning), czyli Planowanie Zasobów Finansowych, czy też ERP. W systemie ERP rozszerzono zakres MRP II o problematykę wartościową oraz dodano obsługę innych procesów niezwiązanych z produkcją i jej rozliczaniem (np. dystrybucję, zaopatrzenie, zarządzanie zasobami ludzkimi itd.). System ten stanowi najwyższą formę systemu zintegrowanego (por. rys. II.25). Ten właśnie termin jest powszechnie stosowany dla określania takiego systemu. Nie istnieje jednak oficjalny, formalny opis standardu przygotowany przez APICS. W odróżnieniu od MRP II nie ma jego formalnej definicji. Według materiałów towarzystwa użytkowników systemu ERP 2000 Germany, PAC, [2000, s. 10] jest to zespół standardowych modułów funkcjonalnych połączonych do pojedynczej bazy danych, gdzie co najmniej dwa moduły (włączając planowanie wytwarzania, logistykę 161

162 Charakterystyka podstawowych systemów informacyjnych lub finanse/księgowość) są zintegrowane w jednym systemie. ERP obejmuje całościowo wewnętrzne procesy przedsiębiorstwa dotyczące m.in. zakupów, produkcji, dystrybucji, szeroko rozumianych finansów oraz kadr i płac; optymalizuje procesy, poprawia przepływ i dostępność informacji. Prócz tego posiada mechanizmy służące symulowaniu pewnych zdarzeń biznesowych i analizę ich skutków. ERP są rozwijane dalej w stronę obszarów dotyczących inżynierii, finansów, zarządzania kadrami, zarządzania przedsięwzięciami [M. Atherton, 2001]. Mimo braku formalnego standardu, producenci systemów wspomagających zarządzanie opracowali podejście ilościowo-wartościowe, które stało się niepisanym standardem przemysłowym. System, który powstał w wyniku uzupełnienia procedur ilościowych o procedury wartościowe znany jest dziś pod nazwą ERP. Brak zdefiniowania formalnego standardu dla systemu ERP nie przeszkadza mu w zdobywaniu coraz większej popularności i liczby zwolenników. Podsumowując, należy zauważyć, że najistotniejszą cechą, odróżniającą go od MRP II, jest wprowadzenie do niego procedur wspierających działalność finansową przedsiębiorstwa. Pozwoliło to na planowanie, sterowanie oraz kontrolę procesu produkcyjnego, nie tylko przez pryzmat wskaźników ilościowych (tak jak w MRP II), ale także i wartościowych. Oprócz tego system ERP zawiera w sobie wspomaganie dodatkowych funkcji (często realizowanych przez oddzielne aplikacje), np.: kontakty z dostawcami, dystrybutorami i klientami, jak również zarządzanie serwisem. Rysunek II.26. Ewolucja systemu ERP Źródło: Materiały firmy SAP 162

163 Zarządzanie i informatyka cz. II Jądrem całego systemu jest jedna baza danych, a coraz częściej hurtownia danych, z którą poszczególne moduły wymieniają dane. Baza danych gromadzi i przechowuje dane pochodzące z różnych obszarów działalności przedsiębiorstwa. Użycie jednej bazy danych usprawnia przepływ informacji między wszystkimi obszarami działalności biznesowej przedsiębiorstwa. Źródłem danych dla bazy są komórki organizacyjne (działające w nich aplikacje) w różnych pionach funkcjonalnych przedsiębiorstwa. W bazie danych ERP wprowadzenie nowych danych następuje tylko raz, w jednym miejscu. Ich wprowadzenie powoduje automatyczne uaktualnienie wszystkich powiązanych z nimi danych. Zbudowanie uniwersalnej bazy danych, integrującej dane z różnych aplikacji jest trudne, szczególnie w przypadku dużego przedsiębiorstwa. Wynika to w znacznej mierze ze znacznego stopnia defragmentacji informacji generowanej w przedsiębiorstwie oraz różnego stopnia jej szczegółowości. Dlatego też w systemach ERP duży nacisk położono na właściwe zdefiniowanie powiązań (interfejsów wymiany informacji) między aplikacjami a bazą danych. W ramach systemu ERP mogą działać aplikacje niezależnych producentów, które zostają powiązane z innymi elementami systemu. Producenci systemów tej klasy coraz częściej wprowadzają do swoich systemów rozwiązania innych firm, np. aplikacje automatyzujące wymianę informacji z bezpośrednim otoczeniem przedsiębiorstwa (dostawcy, klienci), zaawansowane moduły finansowo-księgowe, jak również systemy kadrowo-płacowe. Także serwis oraz zapewnienie jakości coraz częściej są wspierane przez wyspecjalizowane aplikacje. Producenci systemów klasy ERP w celu lepszej integracji poszczególnych rozwiązań oraz bardziej kompleksowej obsługi przedsiębiorstw przejmują innych, zazwyczaj mniejszych, producentów oferujących aplikacje obsługujące dane systemy. Zakup mniejszych producentów ERP to raczej kupno udziału w rynku, zainstalowanej bazy klientów. Kupno mniejszej firmy ERP raczej niewiele wnosi merytorycznie (tak jak wiedza ucznia niższej klasy niewiele pomoże temu z wyższej). Jak pisze Adamczewski [2004] system ERP ulega ewolucji i od pewnego czasu stosuje się termin systemy ERP II dla podkreślenia znaczenia jego powiązań z technologią internetową Oznacza to otwarcie się systemu na otoczenie nie tylko przez eksport/import danych, lecz prawdziwą wymianę danych on-line za pośrednictwem specjalnego języka programowania XML. W ten sposób zamówienie zakupu w jednym systemie będzie automatycznie pojawiać się jako zlecenie sprzedaży w systemie dostawcy. Wraz ze zmianą technologii rośnie funkcjonalność obecnego rozwiązania oraz możliwości tworzenia nowych modułów systemów różnych producentów. Pewnym zagrożeniem realizacji systemów ERP II może być połączenie ich wdrażania z restrukturyzacją procesów biznesowych firm czyli wspomniany wcześniej reenginerring i x-einginering. Systemy klasy ERP II pozwalają na taki dostęp do systemu, który nie jest bezpośrednio przypisany do określonego stanowiska pracy. Użytkownik uzyskuje dostęp do koniecznych danych z dowolnego miejsca. Oznacza to przypisanie pracownika do zadania, a nie do konkretnego stanowiska pracy. Rozwiązanie takie traktuje Internet jako sposób przekazy- 163

164 Charakterystyka podstawowych systemów informacyjnych wania danych wewnątrz firmy, osiągając jednocześnie dwa cele: pozwala na obniżenie kosztów transmisji danych, a także daje uprawnionym pracownikom stały dostęp do procesów biznesowych. Sieć globalna służy zarazem do komunikacji z otoczeniem zewnętrznym, dając podwójną korzyść: z jednej strony pozwala na bieżąco monitorować rynek, a z drugiej umożliwia ciągłą komunikacje z kontrahentami. Znajduje to pełne odzwierciedlenie w ewolucji rozwiązań informatycznych, np. powstały systemy klasy SRM (Supplier Relationship Management) zarządzania kontaktami z dostawcami, jak też SCM (Supply Chain Managament) zarządzanie łańcuchem dostaw. Systemy ERP II, prócz bieżącego zarządzania procesami biznesowymi, pozwalają także na budowanie organizacji w przestrzeni wirtualnej. Użytkownik ma możliwość tworzenia portali korporacyjnych. W przypadku systemu mysap.com moduł Workplace przekształcający się w system mysap Enterprise Portal, daje dostęp do informacji pochodzących z różnych źródeł. Systemy ERP ewoluują m.in. pod wpływem nowych wymagań biznesu, zmian technologii rozwiązań informatycznych oraz infrastruktury technicznej. Charakteryzują się one silną orientacją na budowanie związków z klientami i partnerami biznesowymi oraz tzw. inteligencję systemową. Oznacza to, że moduły Sprzedaży i Dystrybucji rozbudowane są do poziomu zarządzania relacjami z klientami (CRM), a logistyka produkcyjno-zaopatrzeniowa zintegrowana zostaje w ramach zarządzania łańcuchem dostaw (SCM Supply Chain Management), który obejmuje m.in.: planowanie łańcucha dostaw, planowanie popytu, koordynowanie zamówień, planowanie wytwarzania, dystrybucję. Funkcjonalności i rozwój ERP; przedstawia rysunek II.27. Ze względu na kluczową rolę produktu we współczesnej gospodarce oraz konieczność śledzenia i szybkiej zmiany asortymentu wyrobów, wydzielony zostaje nowy podsystem zarządzania cyklem życia produktu (PLM Product Life Management), w ramach którego zgrupowane zostają i realizowane funkcje szczegółowe: projektowanie produktu, wytwarzanie, zarządzanie jakością, rynkowa ocena produktu. Rozwój systemów klasy ERP stymulowany jest, opisanym wcześniej w tym rozdziale, rynkiem elektronicznym. Architekturę systemu ERP II, na przykładzie produktów firmy SAP, przedstawia rysunek II.28. Systemy ERP II cechuje orientacja na integrację i to zarówno wewnętrzną, jak i zewnętrzną. Wykorzystywane są najnowsze rozwiązania technologii informatycznej, jak między innymi, wielowymiarowe analizy danych w hurtowniach danych. Jako przykład prezentacji modułów zintegrowanego systemu informacyjnego, wybrano jedno z najbardziej popularnych w Polsce rozwiązań system IFS Applications. Wybór systemu wynika również z faktu bardzo dobrej współpracy kierownictwa firmy z Wydziałem Zarządzania Uniwersytetu Warszawskiego na polu kształcenia studentów. Ta wieloletnia współpraca pozwoliła na dobrą analizę systemu z punktu jego przydatności dla gospodarki. System jest przeznaczony dla dużych, jak i średniej wielkości przedsiębiorstw. 164

165 Zarządzanie i informatyka cz. II Rysunek III.27. Funkcjonalność sytemu klasy ERP Źródło: Materiały szkoleniowe firmy SAP Rysunek II.28. Architektura systemu ERP na przykładzie oprogramowania oferowanego przez firmę SAP Źródło P. Adamczewski [2004]. 165

166 Charakterystyka podstawowych systemów informacyjnych IFS Applications to rodzina zintegrowanych systemów informatycznych, w skład której wchodzi ponad 70 komponentów funkcjonalnych. Ich celem jest usprawnianie zarządzania informacją w przedsiębiorstwach. Modułowa budowa systemu pozwala na elastyczne wdrażanie poszczególnych elementów w przedsiębiorstwach. Moduły pracują na wspólnej bazie danych współpracują ze sobą i jednocześnie mogą działać niezależnie. Pozwala to klientom IFS na instalowanie kolejnych modułów w zależności od pojawiających się potrzeb oraz możliwości. IFS Applications dostarcza rozwiązania obejmujące praktycznie wszelkie aspekty działania przedsiębiorstwa, jak na przykład: zarządzania gospodarką magazynową, łańcuchem dostaw (SCM) i produkcją, zarządzanie finansami, zasobami ludzkimi (moduły HRM), relacjami z klientami (CRM). Rysunek II.28. Rodzina produktów IFS Applications Źródło: Czytelnikowi zainteresowanemu przeglądem systemów kompleksowych oferowanych na polskim rynku rekomendujemy analizę porównawczą przeprowadzoną przez firmę konsultingową MSI. [ stan na 18 kwietnia 2012]. 166

167 167 Część III E-zarządzanie

168 Charakterystyka podstawowych systemów informacyjnych 8. E-zarządzanie pojęcie i elementy 8.1. E-zarządzenie pojęcia, modele, zadania 8.2. E-zarządzanie w elektronicznej gospodarce 8.3. Sieć komputerowa jako infrastruktura e-zarządzania 9. Wirtualizacja i jej elementy 9.1. Wirtualizacja i wirtualne organizacje 9.2. Technologie wirtualne - TW 9.3. Efekty i bariery wirtualizacji 10. O niektórych zastosowaniach procedur e-zarządzania w gospodarce E-administracja 10.2 Handel elektroniczny Bankowość elektroniczna E-logistyka E-nauczanie 168

169 Rozdział 8 E-zarządzanie - pojęcia i elementy 8.1. E-zarządzanie - pojęcia, modele, zadania Wdrożenie do zarządzania narzędzi informatycznych spowodowało zmiany w metodach i technikach stosowanych przez kierownictwo organizacji. Zmiany w systemie zarządzania dotyczą zarówno skali mikro, jak i makro. W tej części książki przedstawimy takie rozwiązania, które związane są z zastosowaniem sieci komputerowych jako narzędzi ICT przedstawionych w II części podręcznika. Rozwój sieci komputerowych, w tym sieci bezprzewodowych, spowodował powstanie nowej jakości procesu zarządzania. W praktyce każde z prezentowanych rozwiązań wspomagających zarządzanie z zastosowaniem ICT istnieje w dwóch formach: stacjonarnej i sieciowej. Uzupełnieniem zawartych w tej części rozważań będzie część piąta gdzie przedstawimy wybrane problemy środków oddziaływania TI na społeczeństwo, w tym rolę e-edukacji i portali. Taki układ odpowiada prezentowanej w książce logice, w myśl której pragniemy w końcowej jej części analizować narzędzia informatyczne w szerszym społecznym kontekście. Współczesne zarządzanie, wzbogacone o nowe możliwości zastosowania sieci komputerowych, realizowane jest bardzo często w cyberprzestrzeni. W przestrzeni tej, zarówno czas przesyłania informacji, jak i sam proces podejmowania decyzji są bardzo krótkie i wyrażają się nawet ułamkami sekundy. W konsekwencji podstawowe zagadnienia zarządzania i funkcjonowania organizacji mogą być rozwiązywane na rynku elektronicznym w nowej formie organizacji, czyli w organizacji wirtualnej. Dość często mówimy o organizacjach rynkowych teraz powinniśmy zmodyfikować to stwierdzenie i powiedzieć o organizacjach funkcjonujących na rynku elektronicznym i w cyberświecie. Powstają też zupełnie nowe narzędzia wspomagające proces zarządzania, jakimi są, opisane dalej, wirtualne technologie. Termin e-zarządzanie obejmuje zarówno tę część zarządzania, która dotyczy problematyki makro zarządzania (np. tworzenia organizacji sieciowych, w tym organizacji globalnych, współpracy międzynarodowej, realizacji takich projektów jak Wrota Europy czy Wro- 169

170 E-zarządzanie pojęcia i elementy ta Polski) oraz mikro zarządzania (np. tworzenie organizacji wirtualnej, zdalnej pracy, systemu elektronicznych zamówień publicznych). E-zarządzanie (electronic management) można określić jako tę część zarządzania, która wspomagana jest przez zastosowanie sieci komputerowych. Najczęściej taką siecią jest Internet, chociaż nie zawsze jest to konieczne. Coraz częściej mamy już dzieci Internetu, jak systemy agentowe, czy też rozwiązania wykorzystujące filozofię Web 2.0 (opiera się na wykorzystywaniu i rozwijaniu zasobów dostępnych w sieci Internet przez interakcję użytkowników, tworzenie społeczności oraz wirtualną współpracę Internautów), o której będziemy pisać dalej. Konsekwencją e-zarządzania jest również stosowanie innych, niż w metodach tradycyjnych, stylów i metod zarządzania. E-zarządzanie jest rozwiązaniem, w którym w większym stopniu stosujemy zasady decentralizacji i zarządzania projektowego, a podstawową metodą wspomagania decyzji jest zarządzanie przez cele. Decyzje podejmowane są również bardzo szybko, na podstawie dostarczonej szerokiej gamy informacji patrz opisany w pierwszej części kokpit zarządzania. Oczywiście można również stosować tradycyjne metody zarządzania, ale wymaga to innych rozwiązań technicznych i technologicznych. E-zarządzanie obejmuje między innymi: E-biznes (electronic business), czyli prowadzenie działań określanych mianem biznesu z wykorzystaniem sieci komputerowych. [A. Hartman, J. Sifonis, J. Kadar, 2001; E. Turban, 2010]. Jest to zarówno działalność globalna, jak i lokalna. E-biznes w odróżnieniu od biznesu tradycyjnego kładzie nacisk na EDI, czyli elektroniczną wymianę dokumentów oraz na system komunikacji uczestników procesów biznesowych przez elektroniczne media. Systemy powiązań sieciowych zastępują bezpośrednie kontakty. Jednak należy zaznaczyć, iż w ostatnim okresie nastąpił powrót do bezpośrednich kontaktów, mimo że często obie strony są od siebie bardzo odległe. Na przykład negocjacje między biznesmenami z Polski i z Nowej Zelandii, które odbywają się przy zastosowaniu kamer internetowych. W ten sposób następuje powrót do tradycyjnych form bezpośredniego kontaktu. Negocjujący widzą siebie i mogą odczytać tzw. body language. Ze względu na ogromne możliwości TI możemy zawsze powiedzieć: tam gdzie jest mój laptop tam jest mój biznes, tam jest moje biuro. W skład e-biznesu wchodzi między innymi e-handel, e-bankowość, często określana terminem bankowości internetowej, e-logistyka, e-usługi itp. Oczywiście jest to pewnego rodzaju typologia i poszczególne wymienione strefy działań nakładają się na siebie. Najbardziej istotnym elementem e-biznesu jest e-handel (electronic commerce). Związany jest on z działalnością zewnętrzną organizacji. Można również powiedzieć, że jest to podsystem e-biznesu. Jednak czy jest on tylko podsystemem to zależy od zdefiniowania słowa biznes. Można stwierdzić, że e-handel jest w zasadzie pojęciem węższym niż e-biznes i odnosi się do wyspecjalizowanej działalności związanej z transakcjami dokonywanymi przez firmy lub poszczególne fizyczne osoby i dotyczy obsługi procesów wymiany towarów i usług. Dzięki e-handlowi powstał największy rynek 170

171 Zarządzanie i informatyka cz. III w czasach współczesnej cywilizacji. Problemy e-handlu będą przedmiotem dalszej części książki. E-administracja (electronic administration). Jeżeli przyjąć, że administracja jest pewną uproszczoną formą zarządzania to również wchodzi w zakres e-zarządzania. E-Government, czyli e-administracja, według definicji Komisji Europejskiej, jest to stosowanie ICT w administracji publicznej. Wiąże się ze zmianami organizacyjnymi i nowymi umiejętnościami służb publicznych, które mają poprawić jakość świadczonych usług. Administracja ma być przyjazna dla obywatela. Jest to ciągły proces doskonalenia jakości, rządzenia i świadczenia usług administracyjnych poprzez przekształcanie relacji wewnętrznych i zewnętrznych z wykorzystaniem Internetu i nowoczesnych środków komunikacji. Relacje zewnętrzne to relacje typu urząd obywatel, urząd podmiot gospodarczy oraz urząd usługodawca, natomiast spośród relacji wewnętrznych wyróżniamy urząd urząd oraz urząd pracownicy. E-edukacja. Tu postęp jest ogromny i obecnie coraz częściej możemy, podobnie jak w e-biznesie, powiedzieć tam gdzie jest mój laptop, tam jest moja uczelnia. Jest to forma edukacji bazująca na wykorzystaniu sieci komputerowych i sprzętu komputerowego dla realizacji zadań szkoleniowych i edukacyjnych. Forma ta pozwala na korzystanie z nauki bez konieczności wychodzenia z domu, w chwilach dogodnych dla uczącego się. Wcześniejsze formy e-edukacji wykorzystywały nie tylko sieć globalną i sprzęt komputerowy, ale również takie nośniki, jak telewizja, CD, taśmy audio czy video. W chwili obecnej, wraz z rozwojem telefonii komórkowej, coraz częściej mówimy o m- learningu, czyli o szkoleniach dedykowanych dla użytkowników telefonów komórkowych. Jest to stosowanie technologii do zarządzania, projektowania i tworzenia, dostarczania, wyboru, wspierania i poszerzania każdego rodzaju nauczania; dotyczy wszelkich form pozyskiwania i przekazywania wiedzy, kompetencji i umiejętności. Jednak tylko część e-edukacji możemy podwiązać do e-zarządzania. Zagadnienia te zostaną poruszone w następnym rozdziale poświęconym ekonomicznemu i społecznemu kontekstowi zarządzania. E-zarządzanie ukierunkowane jest na wspomaganie działalności pracowników organizacji, właścicieli oraz tych, do których jest zaadresowana działalność organizacji, a więc: klientów, konsumentów, petentów. Wychodząc z typologii prezentowanej między innymi przez E. Turbana [2005], B. Gregora i M. Stawiszyńskiego [2002], C. Olszak i M. Ziębę [2007], Z. Pastuszaka [2007] możemy w e-zarządzaniu wyodrębnić modele relacyjne przedstawione na rysunku III.1. (dla uproszczenia rysunku nie przedstawiono modelu relacji wewnętrznych zachodzących w poszczególnych blokach). 171

172 E-zarządzanie pojęcia i elementy Rysunek III.1. Relacje zachodzące miedzy elementami stanowiącymi e-zarządzanie Źródło: opracowanie własne. Zachodzące relacje można też przedstawić, jak na rysunku III.2. Urzędy państwowe Government Przedsiębiorstwa Business Klienci Consumer Government G2G np. koordynacja G2B np. e-business G2C np. informacja Business B2G np. dostawy B2B np. e-business B2C np. e-commerce Consumer C2G np. zeznania podatkowe C2B np. porównywanie cen C2C np. aukcje Rysunek III.2. Model relacji zachodzących między podstawowymi grupami użytkowników w e-zarządzaniu Źródło: Modyfikacja opracowania C. Żurek-Owczarek [2011]. 172

173 Zarządzanie i informatyka cz. III Relacje wewnątrz bloków czyli relacje homogeniczne przedstawionych powiązań (rys. III.2) są następujące (dla spójności książki z innymi publikacjami przyjęto oznaczenia literowe angielskie): B2B (firma firma, czyli Business to Business), która zachodzi między różnymi organizacjami. Będzie to na przykład, dostarczenie towarów czyli przesłanie przez określonych producentów dostaw do hurtowni, następnie z hurtowni do sklepów detalicznych. Każda z tych organizacji płaci za dostarczone towary bezpośrednio lub przez bank. Tak więc mamy do czynienia z całą siecią rozbudowanych relacji typu B2B. Relacje te istnieją w skali lokalnej i globalnej. Taki model relacyjny jest podstawą tworzenia prezentowanych dalej organizacji wirtualnych. C2C (klient/petent klient/petent, czyli Customers to Customers). Przykładem takiego powiązania są rozmaite grupy dyskusyjne czy też forum, takie jak proponują środki masowego przekazu (gazety, radio, TV). W tym modelu mieszczą się też aukcje, gdzie zawierane są transakcje kupna sprzedaży, pod warunkiem, że stronami transakcji są osoby fizyczne, a nie przedsiębiorstwa. G2G (Government to Government) relacje te są podobne jak B2B ale dotyczą organów administracji rządowej lub też samorządowej. Często jest to przesyłanie za pomocą poczty elektronicznej odpowiednich aktów prawnych, decyzji administracyjnych, czy też wyjaśnień i opinii. Niekiedy model G2G przedstawiany jest jako model administracja administracja, (Administration to Administration), Relacje między blokami, czyli modele heterogeniczne przedstawione na rysunku III.2: B2G w tym modelu organizacja kontaktuje się z organami administracji państwowej lub samorządowej na przykład, dla rozliczeń finansowych, dla uzyskania zgody urzędu na nową inwestycję lub też pozwolenie na zatrudnienie zagranicznych pracowników. Relacja odwrotna występuje wtedy kiedy z kolei administracja przekazuje swoje decyzje lub tworzy konsorcja dla realizacji określonych projektów, np. projekt nowej drogi i musi uzyskać zgodę firm przez terytorium których ona przechodzi. B2C jest to jeden z najczęściej występujących modeli relacji zachodzących między organizacją a jej otoczeniem, Otoczenie to stanowią klienci w szerokim tego słowa znaczeniu (klientami będą w tym znaczeniu również dostawcy usług i produktów, o ile nie są oni uwzględnieni w modelu B2B). Będą to działania marketingowe lub działania kształtujące obraz organizacji na rynku. Coraz częściej wizerunek firmy tworzony i rozwijany jest w sieci na wszelkiego typu forach (Onet, TVN, Gazeta Wyborcza) gdzie klienci informują się o jakości i wiarygodności firmy. Organizacja ma też własne strony internetowe. Badania przeprowadzone przez Dział Marketingu Wydziału Zarządzenia Uniwersytetu Warszawskiego wykazały, że ponad 60% studentów zaocznych i studiów podyplomowych dowiedziało się o możliwości studiowania właśnie ze stron internetowych, w analogicznych badaniach, które prowadziłem dla Centrum Kształcenia Podyplomowego Uczelni Łazarskiego uzyskano wynik 70%. 173

174 E-zarządzanie pojęcia i elementy C2G jest to relacja zachodząca między klientami a administracją w bardzo szerokim spektrum działalności jak: podatki, ubezpieczenia, opieka socjalna i zdrowotna. Oczywiście, jak i poprzednio, mamy do czynienia z relacjami zwrotnymi, ponieważ jak było w piosence ludzie listy piszą teraz piszą e i wypełniają elektroniczne kwestionariusze, np. składając elektroniczne wnioski do Rzecznika Praw Obywatelskich. Przedstawiony na rysunku III.2 model można rozbudować o kolumnę i wiersz dotyczący pracownika, czyli wtedy liczba rozpatrywanych wariantów ulegnie zwiększeniu. E2E (pracownik pracownik, czyli Employee to Employee), takie powiązania są, na przykład, w wykonywaniu grupowych zadań przy realizacji określonego projektu np. organizacji pokazu mody. Ponieważ często mamy do czynienia z realizacją zadań narzucających konieczność współpracy wielu zespołów wtedy, podobnie jak i w sytuacji poprzedniej, występują również rozbudowane wieloelementowe powiązania typu E2E. B2E jest to relacja zachodząca miedzy organizacją a pracownikami. Taki model zarządzania stosowany jest miedzy innymi w procesie pracy zdalnej (na przykład, w prezentowanych dalej, organizacjach wirtualnych, gdzie poszczególni pracownicy otrzymują swoje zadania przez sieć Internet lub intranet). Relacja odwrotna E2B zachodzi wtedy, kiedy pracownicy zgłaszają swoje potrzeby lub rozliczenia z wykonanych zadań. C2E można potraktować w większości jako elementy relacji C2B lub C2G w zależności od sytuacji. I tak podanie złożone drogą elektroniczna o przyznanie leczenia sanatoryjnego możemy zakwalifikować do modelu C2A, natomiast złożenie reklamacji na obsługę w supermarkecie jako sytuację opisaną relacją C2B. Jeżeli składamy tę reklamację do konkretnej osoby to właśnie mamy do czynienia z relacją C2E. I jak ta osoba nam odpowie to będzie to relacja zwrotna E2C E-zarządzanie w elektronicznej gospodarce Co to jest elektroniczna gospodarka? W tym miejscu pragniemy zwrócić uwagę na nieprecyzyjność pojęć. W literaturze, i to zarówno naukowej, jak i popularnej można spotkać różne określenia mimo, że wydaje się, iż autorzy definiują bardzo podobnie zakres jej funkcjonowania. Bardzo są popularne, już wcześniej zasygnalizowane, dwa następujące określenia: elektroniczna gospodarka i Nowa Ekonomia [szerzej J. Kisielnicki, Z. Szyjewski, 2006]. Pod pojęciem elektroniczna gospodarka rozumiemy tę część gospodarki, zarówno krajowej, jak i międzynarodowej, w której stosowana jest TI. Elektroniczną gospodarkę można przedstawić przez zdefiniowanie czterech następujących zbiorów: podmioty, czyli organizacje i osoby fizyczne, które podejmują decyzje i prowadzą działalność gospodarczą, procedury podejmowania i realizacji decyzji, 174

175 Zarządzanie i informatyka cz. III zasoby informacyjne, w tym również zasoby wiedzy, które są podstawą podejmowania decyzji, środki techniczne, jak: komputery, oprogramowanie, sieci teleinformatyczne czyli między innymi IIZ. Gospodarka elektroniczna jest to wymiana: towarów, usług i własności intelektualnej wszelkiego rodzaju przez media elektroniczne. Jest to też sposób prowadzenia działalności gospodarczej przez uniwersalne i powszechne sieci komputerowe. Gospodarka elektroniczna jest konsekwencją rozwoju technologicznego i konwergencji, czyli połączenia się i przenikania: technik przetwarzania danych, telekomunikacji, wiedzy. Jak pisze E Turban i współpracownicy [Turban, 2004, s. 6] elektroniczną gospodarkę można przedstawić jako budowlę, w której (patrz rys. III.3). fundamentem jest komputerowa infrastruktura, której elementami są między innymi: EDI (Electronic Date Interchange) czyli elektroniczne przesłanie danych, współczesne języki programowania, jak: Java, HTML, narzędzia takie jak: bazy danych, modeli i wiedzy oraz hurtownie danych, jak też sieci komputerowe różnych typów (globalne, lokalne, municypalne), ściany (filary) to ludzie, organizacja, procedury, kultura organizacji, polityka ekonomiczna i społeczna, dach to poszczególne zastosowania, a więc aplikacje w: bankowości, handlu, przemyśle, marketingu itd. Rysunek III.3. Elektroniczny świat zarządzania i jego elementy Źródło: opracowano na podstawie: E. Turban i wsp. [2004, s. 6]. 175

176 E-zarządzanie pojęcia i elementy Rozpatrując elektroniczną gospodarkę pod kątem systemu zarządzania funkcjonującego w gospodarce globalnej, możemy ją określić jako system, który umożliwia podjęcie decyzji oraz dostarczenie: informacji, produkcji, usług, środków finansowych przy zastosowaniu TI. Stosowany system e-zarządzania cechuje się bardzo dużą szybkością i bezpośredniością realizacji (eliminacja czynności i ogniw pośrednich). Jakie są relacje między pojęciami e-zarządzanie a elektroniczna gospodarka? Analiza literatury przedmiotu wskazuje, że zależy to od kontekstu. Ponieważ przedstawiona Czytelnikowi książka poświęcona jest problematyce zarządzania, to co tu określamy przez zarządzanie, ekonomista określi pojęciem Nowa Ekonomia lub gospodarka elektroniczna [A. Nowicki (red.), 2006; C. Olszak i E. Zięba (red.), 2007; Z. Pastuszak, 2007]. Obecnie bardzo modnym terminem jest gospodarka cyfrowa. Trzeba jednak przyznać, że właśnie powstanie nowej ekonomii spowodowało zmiany w sposobie pojmowania wpływu ICT na metody zarządzania. Nowa Ekonomia jest zarówno wizją, jak i teorią. Wizja to postrzeganie świata, teoria to modele. Zastosowanie informatyki, mimo zgłaszanych obaw, nie spowodowało kryzysu ekonomii, wręcz przeciwnie, przyczyniło się do jej dalszego rozwoju. Jeżeli przyjmiemy, że zarządzanie jest dziedziną ekonomii, to ten rozwój dokonał się najbardziej w doskonaleniu systemów zarządzania dla różnego typu organizacji. Mechanizmy kształtowane przez gospodarkę cyfrową niekiedy muszą modyfikować nasze postrzeganie rzeczywistości, co najbardziej uwidacznia się w przeprowadzonej analizie wirtualnych organizacji jako organizacji przyszłości. Nowa Ekonomia wprowadza tak istotne zmiany w wiele obszarów działalności gospodarczej, że w niedalekiej przyszłości modyfikacja sposobu działania organizacji, szczególnie funkcjonujących na globalnym rynku, jest niezbędna. W zależności od rodzaju prowadzonej działalności zmiany te mają różne natężenie, ale wszędzie są odczuwalne. Zmiany otoczenia działalności przedsiębiorstwa wymuszają zmianę metod i powodują nowe zachowania. Zmierzają one do zwiększenia wydajności i jakości realizowanych procesów. Tendencja tych zmian wydaje się stała i powoduje modyfikację zachowań wszystkich podmiotów działających w obszarach: handlu, produkcji, usług i innych formach prowadzenia działalności gospodarczej. Świat organizacji ulega ogromnym i wielopłaszczyznowym zmianom. Organizacja, która będzie działać w przyszłości, będzie funkcjonować w zupełnie innych niż obecnie warunkach [patrz: A. M. Zawiślak, 2007]. Warunki te wyznaczają powstanie i rozwój e-zarządzania. Czy ICT powoduje tak istotne zmiany, że zasadne jest użycie pojęcia e-zarządzania jako pewnej subdyscypliny nauk zarządzania? Zarządzanie jest nauką społeczną, która jest ściśle powiązana z ekonomią. Jej zakres to całościowe spojrzenie na problematyką podejmowania rozmaitych decyzji, m.in. jak w sytuacjach niedoboru środków typu: ziemia, siła robocza, kapitał i przedsiębiorczość zaspokoić nieograniczone potrzeby społeczeństwa. Dla ich zaspokojenia, a inaczej mówiąc, 176

177 Zarządzanie i informatyka cz. III dla stawienia czoła problemowi niedoboru, stosowane są różne procedury decyzyjne, które pozwalają na podjęcie rozstrzygnięć dotyczących alokacji tych środków. Mechanizmem rozwiązywania problemu niedoboru we współczesnym świecie jest mechanizm rynkowy. Ponieważ e-zarządzanie wiąże się ściśle z problematyką e-rynku, stąd w tym kontekście mamy bardzo mocne relacje między tymi pojęciami. Pod wpływem internetowej Globalnej Pajęczyny dokonały się istotne zmiany w metodach zarządzania. Dokonują się one stale, co jest związane z wspomnianym już kierunkiem rozwoju oprogramowania sieci i dalszym rozwojem Internetu, a szczególnie rozwiązań Web 2.0. Powstałe na fundamentach tradycyjnego zarządzania, e-zarządzanie powoduje rewizję zasad funkcjonowania przyszłej organizacji. Na czym polega istota funkcjonowania takiej organizacji w warunkach e-zarządzania? Istotą jej działania jest, przedstawione już wcześniej zarządzanie informacją, a w tym zarządzanie wiedzą. Dzięki informatyce, a ściślej sieciom komputerowym, organizacja działa (jak wcześniej wspomniano) w cyberprzestrzeni wraz z zaistniałymi implikacjami. Cyberprzestrzeń, jak wiemy, tworzą dwa podstawowe elementy: systemy komputerowe zlokalizowane w różnych miejscach przestrzeni fizycznej i zdolne do odbioru lub wysłania informacji, globalne sieci komputerowe zdolne do przenoszenia tych informacji, czyli pozwalające na komunikacje między istniejącymi systemami komputerowymi. Relacje w e-zarządzaniu mają postać różnorodnych powiązań, które są wyznaczone przez przyjęte procedury i protokoły komunikacyjne. Charakterystyczne dla e- zarządzania jest to, że dzięki cyberprzestrzeni czas przesyłania informacji, jak i trwania procesu podejmowania decyzji jest bardzo krótki. W e-zarządzaniu stosowane są nowe formy organizacyjne i uzyskujemy nowe możliwości, które dotyczą między innymi: nowej formy rynku rynku elektronicznego (Polska jako kraj jest elementem tego rynku), nowej formy organizacji szczególnie organizacji ponadnarodowych, jaką są organizacje wirtualne (elementami w takim modelu są polskie organizacje), interaktywnych portali i aktywnej roli wszystkich użytkowników w ich tworzeniu i eksploatacji, możliwości korzystania ze światowych zasobów wiedzy, takich jak np. światowe i europejskie biblioteki, możliwości uczestnictwa w różnego rodzaju międzynarodowych projektach, możliwość różnorodnych form pracy takich jak telepraca i funkcjonowania w międzynarodowych zespołach. Można założyć, iż użycie terminu e-zarządzanie jest jak najbardziej zasadne. Dotyczy on zarówno problematyki makrozarządzania, jak i mikrozarządzania, czyli przedsiębiorstwa. 177

178 E-zarządzanie pojęcia i elementy Jest to więc analiza prowadzona od całości społeczeństwa do poszczególnych jednostek i jednocześnie analiza działania pojedynczych jednostek, jak i organizacji. Zmieniające się środowisko prowadzenia działalności gospodarczej zmusza nas do większego wysiłku intelektualnego i do wprowadzenia nowych metod zarządzania. Zmiany te nie następują skokowo. Stale zmieniające się środowisko, a szczególnie rozwój sieci komputerowych powoduje przyspieszenie przeobrażeń w procesie dostosowania się organizacji do nowych warunków funkcjonowania w świecie gospodarki globalnej. E-zarządzanie w prowadzeniu działalności gospodarczej wspomaga i zwiększa efektywność funkcjonowania organizacji. Dokonuje się to przez przyspieszenie procedur zarządzania, podniesienie jakości licznych procesów decyzyjnych oraz umożliwienie operowania na większych zasobach informacyjnych. Sieci komputerowe i ich zastosowanie, pozwalają na uzyskanie nowych możliwości w zarządzaniu, co w konsekwencji powoduje skokowy przyrost sprawności zarządzania gospodarką i jej elementami. Liczne statystyki, m.in. Edustatu, a w Polsce GUS, pokazują stały wzrost liczby osób mających dostęp do zasobów sieci Internet. Interesujące jest również to, że blisko połowa osób mających dostęp do sieci, to ludzie młodzi, czyli w wieku do 30. lat. Pozwala to wnioskować, że obserwowane zmiany mają charakter stały i w miarę dorastania społeczeństwa, tendencja korzystania z technologii informatycznych będzie wzrastać. Stanowi to bardzo istotną zmianę kulturową i powstaje nowa sytuacja, nie bez wpływu na procesy gospodarowania. Fenomen Internetu wynika z oczekiwań społecznych. Klient zyskuje większą wygodę w dostępie do zasobów. Tempo życia zmusza nas do dokonywania zakupów w nietypowych godzinach dla handlu, często w dni wolne lub w późnych godzinach nocnych. Klient chciałby mieć możliwość łatwego i szybkiego dostępu do pełnej oferty w danym asortymencie, a nie jedynie do zawartości półek sklepu, do którego dotarł. Nowe kanały dystrybucji towaru prowadzą do uniezależnienia się od sklepu znajdującego się w najbliższym otoczeniu klienta. Szerokość oferty handlowej to kolejny wymóg klienta, który nie chciałby tracić czasu na odwiedzanie wielu sklepów w celu dokonania różnych zakupów. Oczywistym oczekiwaniem wszystkich klientów jest niska cena kupowanych towarów 3. Po stronie dostawców obserwujemy dążenie do eliminowania barier. Wynikają one ze zbyt dużej odległości od potencjalnego klienta, uwarunkowań środowiskowych, uregulowań prawnych, zwyczajowych 4, czy też wreszcie z barier celnych i podatkowych. Stałym dążeniem dostawców jest globalizacja rynku, co gwarantuje obniżenie kosztów i wzrost obrotów. 3 Oczekiwania te są częściowo realizowane przez supermarkety, co ujawnia się wzrostem zainteresowania klientów w dokonywaniu zakupów właśnie tam. Handel elektroniczny potęguje zalety korzystania z zakupów w supermarkecie. Internet to w zasadzie jeden wielki supermarket, obejmujący cały świat. 4 Przykładem może być restrykcyjne ograniczenie handlu w niedzielę, czy też ograniczenie handlu alkoholem w niektórych krajach. 178

179 Zarządzanie i informatyka cz. III Globalizacja to nie tylko dostęp do większej liczby klientów, ale również szerszy krąg partnerów biznesowych, co zwiększa konkurencyjność i w efekcie skutkuje niższymi kosztami produkcji. Szerszy krąg klientów i partnerów biznesowych zwiększa innowacyjność gospodarowania. Obniżkę kosztów uzyskuje się również przez centralizację niektórych procesów i dobrze byłoby, aby taka centralizacja nie skutkowała obniżeniem jakości dla części klientów. Internet wychodzi naprzeciw oczekiwaniom zarówno klientów, jak i dostawców. Komunikacja w sieci komputerowej jest łatwiejsza i szybsza, gwarantuje dostęp do większej liczby odbiorców informacji. Stąd duża popularność Internetu w obszarze reklamy i marketingu. Dzięki ułatwionej komunikacji można nawiązywać współpracę z większą liczbą partnerów, co dotychczas było uwarunkowane odległością. Dostępność do partnerów w działalności gospodarczej z wykorzystaniem Internetu nie uwzględnia problemu odległości, a jedynie dostępność do sieci i wspólny interes gospodarczy. Partnerem biznesowym w Internecie może być tak samo firma z drugiej strony ulicy, jak z odległego kraju. Na ekranie komputera jest to odległość kliknięcia myszą. W tradycyjnej gospodarce oddalenie geograficzne od potencjalnego partnera biznesowego wyznaczało często zakres współpracy lub decydowało o jej braku. Jest to istotne novum w zwieraniu aliansów biznesowych. E-zarządzanie wymaga też określonych umiejętności pracowników. Dlatego też możemy mówić o e-kierowniku i e-pracowniku [M. Niedźwiedziński, 2004, s.150 i dalsze]. Niezależnie od rodzaju działalności (tradycyjna czy e-biznesowa) wszyscy kierownicy muszą planować, organizować, kierować i kontrolować. Różnice występują w intensywności działań i ilości czasu, którą poświęcają dla realizacji tych funkcji. Dlatego też proces zarządzania jest powtarzany, a kierownicy są zaangażowani w wypełnianiu funkcji w sposób ciągły nazywany cyklem zarządzania. E-kierownicy, jak i tradycyjni kierownicy, pełnią w organizacji trzy podstawowe role: (1) interpersonalną, (2) informacyjną, (3) decyzyjną. E-kierownicy powinni posiadać następujące trzy podstawowe rodzaje umiejętności: techniczne, społeczne, koncepcyjne. Umiejętności techniczne są szczególnie istotne dla e-kierownika. Będzie to m.in. znajomości: języków, programów komputerowych, odpowiednich przepisów prawnych szczególnie jeżeli organizacja działa na rynku globalnym, współczesnych technik i metod zarządzania. 179

180 E-zarządzanie pojęcia i elementy Umiejętności społeczne to zdolność współpracy z innymi ludźmi i to zarówno z poszczególnymi osobami, jak i grupami. Jest to trudna umiejętność, ponieważ kontakt z pracownikami i klientami nie jest często bezpośredni. Umiejętność koncepcyjna to zdolność kierownika do koordynacji prac poszczególnych grup w organizacji oraz integrowanie wszystkich działań realizowanych w jego polu zainteresowania. Jest to również trudniejsze niż wtedy, kiedy kierujemy organizacją tradycyjną i mamy z współpracownikami kontakt bezpośredni. E-kierownik powinien działać systemowo, to znaczy dostrzegać wzajemne relacje między różnymi czynnikami w danej sytuacji i podejmować optymalne decyzje. Szczególnie pożądana jest empatia. E-kierownicy realizują swoje zadania w ciągle zmieniającym się turbulentnym systemie wewnętrznym i zewnętrznym. Muszą być wyczuleni na to, aby tworzyć warunki wydajniej pracy. Jest to tym istotniejsze i jednocześnie trudniejsze, gdyż pracownik jest oddalony nawet o wiele kilometrów, może pracować znajdując się na innym kontynencie. Według W. Kieżuna [1997] minimum umiejętności kierowniczych, co również dotyczy e- kierownika, to: inteligencja, odporność psychiczna i określony poziom moralny, a także pewien zespół predyspozycji nazywanych talentem kierowniczym czy zmysłem organizacyjnym. Jak podkreśla M. Romanowska [2001, s. 30] obecnie kształtuje się nowy profil kierownika (a więc e-kierownika przyp. autora). Złożoność problematyki zarządzania powoduje znaczący wzrost stawianych im wymagań. Ta nowa sytuacja sprawia, że sprostanie rosnącym trudnościom wymaga wzrostu umiejętności i kompetencji innych, niż w systemach tradycyjnych. B. Wawrzyniak [1999, s. 141] analizując ewolucję profilu kierownika, zwraca uwagę na aspekt umiędzynarodowienia zarządzania. Wymaga to od kierownika konieczności dostosować się do określonych wymagań kulturowych. Nowe formy organizacji (sieciowe, wirtualne) spowodują dalszą profesjonalizację roli kierowniczej. C. Prahalad [cyt. za B. Kucem 1999, s. 67] wymienia następujące cztery grupy umiejętności i cech osobowościowych, którymi powinien legitymować się współczesny kierownik nowej ery zarządzania informacją i wiedzą : (1) Umiejętność myślenia systemowego, która pozwala na rozumienie złożonego i dynamicznego świata i szukanie powiązań między różnymi sferami życia, a organizacją i zdolność syntezy informacji. (2) Umiejętność działania w wielokulturowym otoczeniu niezbędnym do zarządzania finansami wielonarodowymi i umiejętność wprowadzania przedsiębiorstwa na nowy rynek co oznacza konieczność znajomości języków, kultury i historii innych krajów. 180

181 Zarządzanie i informatyka cz. III (3) Gotowość do ustawicznej nauki, otwarte nastawienie do zmian i chęć szybkiego przystosowania się do nich. (4) Pozytywne cechy osobowości i wysokie standardy zachowań, które pozwala na profesjonalne i kulturowe kontakty z innymi ludźmi, szanowanie cudzych poglądów i interesów, wrażliwość społeczna, umiejętność kierowania ludźmi i rozwiązywania konfliktu. Kończąc prezentacje stanowiska e-kierownika i jego zadań pragniemy przedstawić dwa dylematy, które zupełnie inaczej się kształtują w e-biznesie niż w biznesie tradycyjnym. Są to dylematy: (1) lojalności, (2) etyczne. Większość kierowników wysoko ceni lojalność swoich podwładnych. Jest ona postrzegana jako: posłuszeństwo, wysiłek, wiarygodność i skuteczność działań, ochrona, uczciwość. Oczywiście są to cechy występujące i cenione w tradycyjnym zarządzaniu, ale zaznaczyć należy, iż e- kierownik ma ograniczone relacje z podwładnym, a i system komunikacji jest zupełnie inny. Problemem, przed którym stoją e-kierownicy (szczególnie młodzi) jest pogodzenie dylematów lojalności i etyki. Etyka postrzegana jest przez nich przez pryzmat własnego interesu ekonomicznego, prawa, religii, zasad powszechnego postępowania. Dlatego też zarówno dobre szkoły biznesu, jak i kierownicy występujący w roli nauczycieli, starają się wpoić kandydatowi na menedżera, że jego główną troską powinno być działanie na rzecz społeczeństwa, a nie jedynie w wąskim, własnym interesie. Powstała nawet nowa gałąź w naukach o organizacji pod nazwą Społeczna Odpowiedzialność Biznesu. Jak wielki i znaczący jest ten problem pokazuje przykład prowadzonych badań nad przyczynami japońskiego gospodarczego cudu. Amerykanie zaniepokojeni rozwojem Japonii przeprowadzili badanie, w którym chcieli wskazać: Co takiego mają Japończycy, a czego nie mają Amerykanie w systemie zarządzania? Dlaczego Japonia rozwija się tak szybko i tak dynamicznie? W wyniku tych badań stwierdzono, że normy etyczne społeczeństwa japońskiego zasadniczo wpływają na sukces przemysłu. Podobnie analiza sukcesów tzw. siedmiu tygrysów azjatyckich wykazała, że olbrzymie znaczenie w dynamicznym rozwoju gospodarczym odgrywają normy etyczne, które charakteryzują japońskich menedżerów. Jedną z podstawowych norm etycznych jest tam dotrzymanie słowa nie potrzeba dokumentacji ani ustaleń formalnie chronionych kodeksem. Bardzo wiele rzeczy załatwia się pocztą elektroniczną ( ), i to jednym stwierdzeniem tak lub nie. Zagadnienie etyki w elektronicznej gospodarce jest elementem szerokiego obszaru nazywanego zwykle etyką biznesu. Z kolei termin etyka biznesu, zwany też etyką życia gospodarczego jest jednym z najbardziej wieloznacznych pojęć funkcjonujących we współczesnej kulturze. Niektórzy badacze, zajmujący się wspomnianą dziedziną, skłaniają 181

182 E-zarządzanie pojęcia i elementy się wręcz ku ujęciu skrajnie operacyjnemu i uważają za etykę biznesu po prostu to, co jest wykładane pod tą nazwą w szkołach biznesu. Nieco humorystycznie rzecz ujmując, etyk biznesu byłoby tyle, ile możliwych jest programów nauczania oraz sposobów ich realizacji. Bez popadania w tak skrajny relatywizm, ale w pełni zgadzając się z wielością kontekstów znaczeniowych W. Gasparski [2002] proponuje uznać za istotne to, co jest najczęściej współcześnie używane analizując dwa z tych kontekstów. Zdaniem cytowanego autora etykę biznesu w pierwszym znaczeniu traktuje się jako dział etyki, czyli stanowi ona filozoficzną refleksję nad etosem ludzi biznesu. Pod pojęciem etos W. Gasparski [2002, s. 17] ujmuje zespół cnót wyznaczających zakres dzielności ludzi stanowiących świat biznesu. Z kolei w drugim znaczeniu za etykę biznesu należy uznać sam zespół norm przyjętych przez świat biznesu, czyli właśnie wspomniany etos świata biznesu lub jego części. Ostatnio o prawo obywatelstwa w dyskusjach na omawiany temat dopomina się także nieco inny nurt myślenia. Dość niespodziewanie, dla prawie niepodzielnie dotąd panującego relatywizmu, kolejne, prowadzone niezależnie od siebie badania psychologów i religioznawców pokazują, iż mimo wszystko istnieje ponadkulturowy, ogólnoludzki zestaw norm moralnych, który powinien obowiązywać wszystkich kierowników niezależnie czy funkcjonują w tradycyjnej, czy elektronicznej gospodarce [por. np. Seligman, 2005]. Wydaje się on skupiać wokół złotej zasady: nie rób drugiemu, co tobie niemiłe. W takiej perspektywie mówi się raczej o etyce w biznesie, a nie o etyce biznesu i podejmuje badania nad funkcjonowaniem wspomnianych ogólnoludzkich norm moralnych na terenie działalności biznesowej [J. Kisielnicki, T. Ochinowski, 2006]. Problemy etyczne są w e-zarządzaniu niezmiernie istotne, może nawet bardziej niż w organizacji tradycyjnej. Wynika to właśnie z sieciowego kontaktu wszystkich zainteresowanych stron. E-pracownik powinien się cechować miedzy innymi takimi umiejętnościami, jak: samodyscyplina, samodzielność. Jest on bowiem bardzo często zdany na swoje siły, a więzi fizyczne z kierownictwem są słabsze niż w organizacjach tradycyjnych. Nikt na niego nie patrzy i nie kontroluje. Jednak ulega to częściowo zmianie dzięki kamerom zainstalowanym przy komputerze oraz analizie ruchu w sieci. 182

183 Zarządzanie i informatyka cz. III 8.3. Sieć komputerowa jako infrastruktura e-zarządzania O sieciach komputerowych napisano wiele podręczników i poradników. Z tego obszernego zbioru wybrano niektóre umożliwiające nawet nieprzygotowanemu Czytelnikowi rozszerzenie wiedzy o budowie i stosowaniu w praktyce sieci komputerowych [A. Engst, G. Fleishman, 2005; L. Grochowski, 2006; J. Rafa cykl artykułów ; M. Sportach, 2004; B. Sosinsky, 2012]. W tym miejscu przedstawimy tylko wybrane, ale istotne zagadnienia z punktu widzenia e-zarządzania. Można powiedzieć, iż e-zarządzanie jest nieodłącznie powiązane z sieciami komputerowymi. Tak jak funkcjonuje sieć komputerowa, takie są możliwości realizacji e-zarządzania. Wpływ sieci komputerowych jest istotny również dla organizacji zarządzanych tradycyjnie. Szczególnie dotyczy to zarządzania organizacjami rozproszonymi terytorialnie takimi, jak na przykład PKP i jej agendy, ale też zarządzanie sektorami, holdingami czy też różnego typu organizacjami globalnymi. Sieć komputerowa jest to zbiór komputerów i innych urządzeń połączonych ze sobą kanałami komunikacyjnymi. Umożliwia ona wzajemne przekazywanie informacji oraz udostępnianie zasobów własnych między podłączonymi do niej urządzeniami, tzw. punktami sieci. Głównym przeznaczeniem sieci komputerowej jest ułatwienie komunikacji między ludźmi, będącymi faktycznymi je użytkownikami. Sieć umożliwia tworzenie, a także łatwy i szybki dostęp do danych, informacji, wiedzy. W zarządzaniu wymienionymi uprzednio organizacjami łańcuch pośredników i decydentów może być bardzo długi. W konsekwencji mamy po drodze wiele przekłamań, zmian i uproszczeń, a to na skutek napotykania filtrów: semantycznego, pragmatycznego, technicznego o których pisano w części pierwszej. Zadania przekazane z centrum zarządzania do realizatorów mogą się różnić i to niekiedy dość znacznie. Ujemnym zjawiskiem zarządzania bez użycia ICT było to, że operacja przetwarzania danych trwała niekiedy bardzo długo. Wymagała ona również opracowania szczegółowej dokumentacji systemu oraz wielu uzgodnień i zatwierdzeń. Rezultatem było to, że użytkownik otrzymywał informacje nie zawsze dotyczące problemu, który go interesował. Często informacje dostarczano mu wtedy, kiedy sytuacja zmieniła się, a uzyskane dużym nakładem środków dane były już nieaktualne. Aktualizacja wymagała kolejnych uzgodnień i zatwierdzeń. Obecnie, w większości sytuacji, użytkownik bezpośrednio komunikuje się z nadawcą. Temu celowi służy sieć i oprogramowanie. Dzięki sieci komputerowej odległe stanowiska pracy połączono w jeden spójny system zarządzania, który nazywamy e-zarządzaniem. Sieć komputerowa jest tym elementem, który łączący oddzielne ogniwa (komórki, piony) organizacji lub też współdziałające ze sobą organizacje. Współczesna sieć łączy odległe punkty fizycznie lub bezprzewodowo. Należy zwracać uwagę, że współczesna sieć komputerowa coraz częściej przebiera formę bezprzewodową. W ostatnich latach można zaobserwować bardzo dynamiczny rozwój 183

184 E-zarządzanie pojęcia i elementy tego typu rozwiązań. Nie można zapomnieć również o możliwościach jakie oferuje rozwój telefonii komórkowej, które usługi znacząco wspierają rozwiązania sieciowe stosowane w organizacjach. To co pisał dawniej J. L. Kulikowski [1990] o pozytywach i negatywach stosowania w zarządzaniu sieci komputerowych jest i obecnie aktualne. Uważał on bowiem, że w celu podjęcia decyzji dotyczącej przejścia z tradycyjnego typu przetwarzania do trybu sieciowego (zdalnego i rozproszonego) należy rozważyć argumenty za i przeciw. Argumenty za : możliwa do osiągnięcia lepsza jakość usług informacyjnych i większa ich atrakcyjność dla użytkownika; możliwość realizacji zadań informacyjnych, która w tradycyjnym systemie była nieosiągalna lub nieopłacalna; szerszy zakres terytorialny systemu i możliwość pozyskania nowych grup klientów; możliwość pełniejszego wykorzystania zasobów fizycznych i logicznych oraz możliwość korzystania z zasobów obcych; większa konkurencyjność systemu na rynku usług informatycznych. Argumenty przeciw : niezbędne nakłady na sprzęt i oprogramowanie; dodatkowe umiejętności personelu; konieczność zwiększenia wewnętrznej spójności technicznej, logicznej i informacyjnej systemu; zwiększona odpowiedzialność cywilna i karna związana z wymaganą gwarancją ochrony danych; ogólne bardziej złożone problemy organizacyjno-techniczne eksploatacji systemu. Z przedstawionego zestawienia wynika, że decyzja o posługiwaniu się złożoną siecią komputerową jest wielokryterialna. Problem postawiony przez L. Kuligowskiego należy zmodyfikować. Obecnie zadaje się pytanie: JAKI WARIANT realizacji wybrać, a nie CZY stosować sieć? Postęp techniczny powoduje, że waga argumentów przeciw zmniejsza się i to znacznie, ale też większego znaczenia nabierają niektóre argumenty, takie jak na przykład problemy bezpieczeństwa. Jak już wcześniej pisano, zapewnienie bezpieczeństwa przesyłania danych w sieci jest dziś poważnym problemem. Wśród składników sieci komputerowej można wyróżnić następujące, główne grupy: hosty czyli komputery sieciowe, dzięki którym użytkownicy mają dostęp do sieci; serwery stale włączone komputery o dużej mocy obliczeniowej, wyposażone w pojemną i wydajną pamięć operacyjną i pamięć masową; 184

185 Zarządzanie i informatyka cz. III medium transmisyjne nośnik informacji, realizujący funkcję kanału komunikacyjnego. Są to kable: miedziane i światłowodowe i/lub fale radiowe; sprzęt sieciowy przełączniki, routery, karty sieciowe, modemy, punkty dostępu; oprogramowanie programy komputerowe zainstalowane na hostach, serwerach i innych urządzeniach sieciowych. Każdy typ systemu zarządzania wymaga innych rozwiązań sieci komputerowej łączącej współpracujące ze sobą organizacje. Patrząc na system powiązań sieciowych możemy postawić hipotezę o systemie zarządzania organizacji. Decyzje o powiązaniach sieciowych między organizacjami niekiedy są dyskutowane i podejmowane poza zainteresowanymi organizacjami. W roku 2007 burzę wywoła dyskusja w Parlamencie o udostępnieniu CBA (Centralne Biuro Antykorupcyjne), za pośrednictwem sieci, zasobów informatycznych ZUS, czyli powiązanie typu G2G. CBA argumentowało, że informacje z ZUS są potrzebne dla systemu zarządzania poszczególnymi działaniami (w naszej terminologii są to problemy zarządzania procesami). W zarządzaniu zcentralizowanym powiązania sieciowe są bardzo istotne i najczęściej mają kształt drzewa, którego korzeniem jest centrum, gałęziami sieć a liśćmi podporządkowane organizacje. W zarządzaniu zdecentralizowanym sieć już nie odgrywa tak istotniej roli. Połączenia realizowane są najczęściej w trzech podstawowych systemach, jak na rysunku III.3. Magistrala uważana jest za sieć najmniej awaryjną i prostą w użyciu. Zaletą jej jest niski koszt inwestycyjny. Lepsze od niej są dwa pozostałe systemy (pętla i gwiazda). Charakteryzują się one nadmiarowością użytych rozwiązań i dzięki temu wykazują wyższą niezawodność. Podwyższona jakość pociąga podwyższone koszty przypadające na jedną stację roboczą. W literaturze spotyka się też następujące bardziej szczegółowe wyróżnienia powiązań sieciowych: liniowe (line) wszystkie elementy sieci oprócz granicznych połączone są z dwoma sąsiadującymi; magistrali (szyny, liniowa) (bus) wszystkie elementy sieci podłączone do jednej magistrali; pierścienia (ring) poszczególne elementy są połączone pomiędzy sobą odcinkami kabla tworząc zamknięty pierścień; podwójnego pierścienia poszczególne elementy są połączone między sobą odcinkami tworząc dwa zamknięte pierścienie; gwiazdy (star) komputery są podłączone do jednego punktu centralnego, koncentratora (koncentrator tworzy fizyczną topologię gwiazdy, ale logiczną magistralę) lub przełącznika; 185

186 E-zarządzanie pojęcia i elementy Rysunek III.4. Typowe powiązania komputerów w sieci Źródło: opracowanie własne. gwiazdy rozszerzonej posiada punkt centralny (podobnie do topologii gwiazdy) i punkty poboczne (jedna z częstszych topologii fizycznych Ethernetu); hierarchiczna zwana także topologią drzewa, jest kombinacją topologii gwiazdy i magistrali, budowa podobna do drzewa binarnego; siatki oprócz koniecznych połączeń sieć zawiera połączenia nadmiarowe; rozwiązanie często stosowane w sieciach, w których jest wymagana wysoka bezawaryjność. Współczesną infrastrukturę e-zarządzania stanowi w 80% Internet i komputery z nim połączone. 186

187 Zarządzanie i informatyka cz. III Jego funkcjonowaniu poświęcono wiele monografii. W Polsce istnieją specjalne czasopisma przedstawiające problematykę Internetu. Czytelnikowi możemy rekomendować specjalistyczny Magazyn Internet, jak też rubryki zamieszczone w różnych czasopismach, niekiedy w prasie codziennej (Gazeta Wyborcza, Życie Warszawy), czy też w tygodniku Wprost. Szacuje się, że (stan na połowę 2012 r. [ użytkowników Internetu jest około dwa miliardy czterysta pięć tysięcy, czyli korzysta z niego 34,3% ludności świata. Za początek Internetu przyjmuje się dzień 1 września 1969 roku. Na Uniwersytecie Kalifornijskim w Los Angeles rozpoczęto instalowanie sieci komputerowej bez punktu centralnego, która mogłaby funkcjonować niezależnie od awarii jej części. Sieć ta finansowana była przez agendę rządową zajmującą się koordynowaniem badań naukowych na potrzeby wojska. Ze względu na nazwę projektu ARPA (Advanced Research Projects Agency) sieć ta została nazwana ARPANET. W konsekwencji do sieci ARPANET przyłączono, za pomocą łączy satelitarnych, węzły zagraniczne (w Wielkiej Brytanii i Norwegii). W roku 1973 pojawiła się po raz pierwszy nazwa INTERNET. Od roku 1975 zmienił się status sieci ARPANET z eksperymentalnego na użytkowy. Równocześnie nastąpiła standaryzacja przesyłu wiadomości zgodnie z protokołami sieciowym TCP/IP (Transmisjon Control Protocol/Internet Protocol), które do dziś stanowią podstawę funkcjonowania sieci. Ponieważ jako użytkownicy sieci, obok instytucji wojskowych, zaczęli pojawiać się również użytkownicy cywilni, zadecydowano o rozdzieleniu części wojskowej od cywilnej. Od roku 1980 dla części cywilnej, która przekształciła się w samodzielną sieć, zaczęto używać nazwy Internet. Finansowanie rozwoju sieci przekazano pod zarząd Narodowego Funduszu Nauki (National Science Foundation). W roku 1988 do Internetu włączone zostają: Kanada, Dania, Finlandia, Francja, Islandia, Norwegia, Szwecja. W roku 1990 notujemy pierwsze podłączenia komercyjne. W tym to roku Tim Berners-Lee (twórca WWW oraz autor pierwszej przeglądarki internetowej i serwera WWW) stworzył rozproszoną tzw. hipertekstową bazę danych, która w 1991 przekształciła się w wszechogarniającą pajęczynę czyli WWW (Word Wide Web). W tym też roku do Internetu podłącza się Polska. Istotą działania sieci WWW są dwa następujące elementy: 1. Serwer WWW, który często też nosi nazwę Web serwer lub serwer HTTP (jest to oprogramowanie zarządzające zbiorami dokumentów i udostępniające je na żądanie zdalnych użytkowników). 2. Przeglądarki czyli specjalne oprogramowania, które pozwalają na komunikowanie się użytkownika z serwerem. 187

188 E-zarządzanie pojęcia i elementy Przypomnijmy, że serwer jest to specjalne oprogramowanie pozwalające na świadczenie usług na rzecz innych programów, które znajdują się na innych podłączonych komputerach. Serwerem nazywa się również komputer, który posiada takie oprogramowanie i świadczy usługi sprowadzające się zwykle do udostępniania pewnych zasobów. Teoretycznie serwerem może być każdy komputer. W praktyce dążymy do tego, aby taką rolę pełnił taki komputer, który ma wysoką jakość i jest przystosowany do pracy niezawodnej i ciągłej. Wyposażeniem serwera są miedzy innymi duże i szybkie dyski twarde oraz wydajne procesory, które mogą obsłużyć kilka procesorów. Dokumenty, które są przechowywane w sieci mają różną formę (tekst, muzyka, rysunki). Podstawowym dokumentem jest tzw. strona WWW, która może być bezpośrednio wyświetlana na komputerze użytkownika. Strona taka jest napisana w specjalnym języku HTML (HyperText Markup Language, hipertekstowy język znaczników). Jest to język opisujący sposób wyświetlania na ekranie odbiorców treści tekstowej i multimedialnej dokumentów hipertekstowych oraz organizację wzajemnych połączeń między nimi. Jest on niezależny od typu komputera, na którym strony te będą oglądane. Język HTML pozwala również na podzielenie dokumentu na tzw. sekcje, co pozwala na łatwiejszą pracę z otrzymanymi dokumentami. Obecnie mamy do dyspozycji wiele programów obsługujących serwer WWW. Najpopularniejsze według liczby użytkowników to: Apache (oprogramowanie otwarte) oraz produkt firmy Microsoft Microsoft Internet Information Services (IIS). Zaletą obecnie używanych programów jest łatwa komunikacja użytkownika dająca prosty dostęp do zasobów informacji przechowywanych na serwerze. Użytkownik dysponuje tzw. interfejsem czyli specjalistycznym, przyjaznym i łatwym oprogramowaniem. Użyteczność i powszechność posługiwania się stronami WWW wynika z tego, że dokumenty tworzone są dość łatwo nawet przez osoby niebędące informatykami, a użyte narzędzia programowe zgodnie z współczesnym trendem rozwoju inżynierii oprogramowania są dość proste. Internet zbudowany jest na zasadzie połączeń sieci typu LAN. W konsekwencji często używane jest objaśnienie, że Internet jest to Sieć sieci. Każdy z komputerów, jak i drukarek sieciowych, które wchodzą w skład sieci Internet, mają swój niepowtarzalny adres IP (Internet Protocol Address), który jest unikatowym numerem przyporządkowanym poszczególnym komputerom i ma postać 32-bitowej liczby (cały czas są próby przejścia na 64-bitowe adresowanie, bo przecież już od dawna mówi się, że pula adresów jest na wyczerpaniu). Ważnym elementem sieci jest urządzenie, które pozwala na kierowanie pakietów zgodnie z informacją adresową tzw. router. Urządzenie to pozwala na łączenie się ze sobą dowolnych komputerów, niezależnie od ich fizycznej lokalizacji. Oprogramowanie, które obsługuje router wybiera najbardziej odpowiednią drogę i potrafi samo zmieniać trasę przesyłania pakietów i tworzyć tzw. drogę obejściową w przypadku, np. awarii połączenia. Obecne wersje oprogramowania zarządzającego siecią pozwalają na wybór najlepszej drogi ze względu na przesłaną treść. W konsekwencji inną drogą są przesyłane pliki tekstowe, a inną video. 188

189 Zarządzanie i informatyka cz. III Tak jak każdy z nas ma adres domowy, tak też dla korzystania z sieci stosuje się odpowiednie adresy symboliczne albo domenowe. Adresy te funkcjonują obok adresów IP. Adresy IP z punktu widzenia użytkowników są niewygodne. Adresy symboliczne, są prostsze i łatwiejsze w posługiwaniu się przez człowieka, bo mają postać ciągu nazw tzw. domen. Adresy autora książki: Prywatny: jerzy@kisielnicki.edu.pl [domena: kisielnicki.edu.pl] Służbowy: jkisielnicki@wz.uw.edu.pl [domena: wz.uw.edu.pl] Adres domeny czyta się od tyłu. Ostatni jego człon, tzw. domena najwyższego poziomu jest dwubitowym oznaczeniem kraju: dla Polski pl, Belgii be, Finlandii fi, Rosji ru. Jedynie w Stanach Zjednoczonych, jako ojczyźnie Internetu, nie stosuje się oznaczenia kraju, ale stanu. Zatem jeżeli w domenie nie ma skrótu wskazującego na kraj adresata wiemy, że będą to Stany Zjednoczone. Następny element to tak zwany wyróżnik branżowy. W przykładowym adresie użyto oznaczenia edu dla określenia, że adresat związany jest z instytucjami naukowymi lub edukacyjnymi. Powszechnie stosuje się też oznaczenia: gov dla instytucji rządowych, na przykład jeżeli adresujemy wiadomość dla prezydenta lub premiera; mil dla instytucji wojskowych, com dla firm komercyjnych, int organizacji o charakterze międzynarodowym; net firmy, które bezpośrednio zajmują się administrowaniem i utrzymaniem sieci komputerowej, org organizacje społeczne i inne instytucje typu nonprofit. Wydaje się że niedługo zostanie rozszerzony wykaz domen, ponieważ dochodzi do konfliktów między organizacjami pragnącymi posiadać tę samą nazwę domeny. W Europie jest jednak również popularny inny podział, w którym przedostatnia domena określa region lub miejsce. Tak więc w naszym przykładzie zamiast domeny edu istniałaby domena waw oznaczająca Warszawę. Obydwa schematy mają swoich zwolenników, którzy stosują jeden lub drugi system. W niektórych krajach pomija się obie domeny, ewentualnie stosowane są inne oznaczenia, np. w Japonii zamiast edu podaje się ac, a zamiast com co. Trzeci człon od końca wskazuje na instytucję. Czasem jak w przedstawionym przykładzie domena ta jest wieloczęściowa. Jednak i tu zachowana jest zasada, od końca bardziej ogólna nazwa i tak: domena uw Uniwersytet Warszawski, domena wz Wydział Zarządzania, Pierwszy człon adresu to jkisielnicki oznacza użytkownika końcowego. Każdy z użytkowników może zaproponować najlepszy dla niego adres. Adres ten jest weryfikowany przez administratora węzła, aby stwierdzić czy inny użytkownik końcowy nie używa domeny o tej samej nazwie. Natomiast na domenę (po użytkownik końcowy nie ma wpływu, chyba, że ją zarezerwuje u dostawcy i wpłaci odpowiednie kwoty. 189

190 E-zarządzanie pojęcia i elementy Zasady funkcjonowania i zarządzania siecią Internet Nie można wskazać na konkretną organizację lub osobę, która zarządza Internetem. Wydaje się, że prawdziwe jest stwierdzenie, że Internet jest największym przedsięwzięciem, które funkcjonuje bardzo dobrze bez osoby czy instytucji zarządzającej. Istnieją jednak organy koordynujące. Jednym z nich jest W3C (World Wide Web Consortium). Organizacja ta została założona 1 października 1994 roku przez wspomnianego już Tima Berners- Lee i zajmuje się ustanawianiem standardów pisania i przesyłu stron WWW. W3C zrzesza obecnie ponad 400 organizacji, firm, agencji rządowych i uczelni z całego świata. Publikowane przez W3C rekomendacje nie mają mocy prawnej, nakazującej ich użycie, lecz wpływ samej organizacji nie pozwala się z nimi nie liczyć. Internet, jak mówiliśmy, jest w sensie fizycznym siecią sieci czyli zbudowana jest z połączonych sieci cząstkowych. Zarządza się tylko jej określonymi elementami, które można nazwać podsieciami. Każda z nich ma swojego właściciela, którym jest najczęściej firma telekomunikacyjna, i to ona ustala obowiązujące reguły. Jednak władza firmy telekomunikacyjnej nie rozciąga się na inną sieć. Co może jednak taki właściciel cząstkowej sieci zrobić? Dla zapewnienia sobie odpowiednich warunków eksploatacji, odpowiednich priorytetów i wpływu na niezawodność całej sieci wchodzi on w kooperacje z innymi właścicielami sieci. Zasady współpracy zostają ustalone na podstawie odpowiednich formalnych i nieformalnych umów oraz konieczności przestrzegania odpowiednich standardów. Właśnie istnienie tych różnych organizacji, które są odpowiedzialne za realizację i przestrzeganie tych procedur i standardów może być uznane, za zbiorowe zarządzanie Internetem. Jednak ich odpowiedzialność nie jest formalna, a raczej opiera się na odpowiedzialności użytkowników i autorytecie tych organizacji niż na aktach prawnych. Dlatego też możemy stwierdzić, że z fizycznego punktu widzenia w Internecie możemy wyróżnić: sieci szkieletowe, które są własnością dostawców usług sieciowych czyli NSP (Network Service Providers), sieci dostępowe, które są tworzone przez lokalnych dostawców usług czyli ISP (Internet Service Providers), sieci prywatne. W dalszej części tego punktu powrócimy do problemów organizacji, czyli providerów. Problemy finansowe funkcjonowania Internetu są różnie regulowane. Generalną zasadą jest to, że większa organizacja otrzymuje pieniądze od mniejszej, która często przyjmuje, narzucone jej, reguły korzystania. Jeśli łączą się sieci o podobnej wielkości i intensywności korzystania, rozliczenia dokonywane są na podstawie różnic w stopniu korzystania z sieci. Pewne rozwiązania, szczególnie standardy dotyczące korzystania z sieci, są opracowane przez wyłonione z użytkowników Internetu rady i komitety. Takimi organizacjami, które mają duży autorytet i zajmują się problemami rozwoju i funkcjonowania Internetu są m.in.: Rada Architektury Internetu (Internet Architecture Board), 190

191 Zarządzanie i informatyka cz. III Grupa Robocza d/s opracowywania protokołów Internetu (Internet Engineering Task Force), Grupa Robocza d/s rozwoju Internetu (Internet Research Task Force). W roku 1992 założono oficjalne stowarzyszenie użytkowników Internet SOCiety (ISOC). Jest to organizacja koordynująca powstanie i konserwacje technologicznych standardów związanych z protokołami i administracją techniczną infrastrukturą. W Polsce od roku 2000 funkcjonuje oddział ISOC. W kraju najpoważniejszą instytucją zajmującą się Internetem, a w tym kontrolą domen (rejestracją) jest NASK (Naukowa Akademicka Sieć Komputerowa). Jest on operatorem sieci, do której bezpłatny dostęp mają uczelnie i instytuty naukowe. Dla pozostałych instytucji i osób prywatnych NASK świadczy usługi na zasadach handlowych. Własne sieci połączone z Internetem ma Bankowe Przedsiębiorstwo Telekomunikacyjne TELEBANK oraz dostawcy usług telekomunikacyjnych. Usługi obsługi różnej klasy użytkowników: firm i osób prywatnych świadczone są przez kilkadziesiąt firm tzw. providerów. Tygodnik Computerland od czasu do czasu analizuje jakość świadczonych przez nich usług. Tak więc zanim zostanie podjęta decyzja o dołączeniu swojego lub swoich komputerów do Internetu, należy zrobić rozeznanie co do jakości świadczonych usług. Użytkownik ma do dyspozycji różne rozwiązania dostępu do Internetu. W zasadzie już do historii odchodzą łącza kablowe między budynkami. Do budynku idzie światłowód, a w środku kable miedziane coraz to nowsze generacje. Powstaje też nowy rodzaj firm, które świadczą usługi polegające na udostępnianiu miejsca na serwerach osobom trzecim. Firmy takie określa się mianem firm hostingowych. Firmy takie zapewniają szybki i niezawodny dostęp do Internetu i są przykładem realizacji idei outsoursingowych. Dla małych firm, jak i pojedynczych osób, usługi świadczą wyspecjalizowane firmy dostawcy usług czyli ISP (Internet Service Provider). Innego rodzaju kryterium dostępu do Internetu jest podział zależny od szybkości działania łączy. Wydzielamy tu łącza wąsko i szerokopasmowe. Według materiałów UE w roku 2005 łącza szerokopasmowe były dostępne dla ponad 90% przedsiębiorstw i gospodarstw domowych na obszarach miejskich państw tzw. starej Unii, a jedynie dla około 60% tychże na obszarach wiejskich i oddalonych, przy czym różnice te są jeszcze większe w nowych państwach członkowskich. Na obszarach wiejskich niższa jest również często szybkość połączeń, co utrudnia transmisję dużych ilości danych niezbędną dla zastosowań w dziedzinie e-biznesu, elektronicznej administracji, elektronicznych usług opieki zdrowotnej oraz treści multimedialnych. Prędkość transmisji danych wynosi przeciętnie 10MB/s, jest to szybkość, którą przyjmuje się, że umożliwia przesyłanie danych dla potrzeb biznesu i e-zarządzania), co pozwala na korzystanie z usług różnego rodzaju zasobów informacji. Postęp, który dokonuje się w budowie coraz doskonalszej infrastruktury dla e-zarządzania jest bardzo duży. Często to co jest nowością w chwili pisania tej pracy będzie już powszechnie stosowane zanim ten tekst będzie można przeczytać. Dlatego należy zainteresowanemu czytelnikowi polecić najczęściej źródła internetowe. 191

192 E-zarządzanie pojęcia i elementy Przykładem sieci globalnej tzw. GDS (Global Distribution Systems), która wspomaga działanie biznesu jest Amadeus. Świadczy on, że we współczesnym świecie odległość nie jest barierą dla e-zarządzania. Posłużymy się przykładem sektora usług turystycznych, który nieustannie rozwija się i pokonuje bariery odległości. Prywatnie też wykorzystujemy Internet jako źródło informacji turystycznej. Badanie przeprowadzone przez Eurostat pokazuje, że najczęściej wykorzystujemy Internet do przesyłania informacji i wyszukiwania ogólnych informacji, ale zaraz potem do poszukiwania informacji turystycznej. Już w roku 2005, kiedy prowadzone były badania, aż 47% użytkowników Internetu w Unii Europejskiej korzystało z zasobów sieci, w celu poszukiwania informacji turystycznej. Skrótem GDS (Global Distribution Systems) określa się te systemy informatyczne, które zaprojektowane zostały do magazynowania i udostępniania informacji związanych z podróżowaniem oraz do przeprowadzania transakcji i sprzedaży tych produktów. Dzięki systemom GDS pasażer może nie tylko zaplanować i zarezerwować podróż lotniczą, ale także może: dokonać rezerwacji hotelu lub wypożyczyć samochód, wybrać rejs statkiem, kupić bilet kolejowy bądź autobusowy, wykupić ubezpieczenie. System Amadeus powstał w roku 1987 z inicjatywy firm z branży lotniczej. Jego zastosowanie spowodowało zwiększenie wydajności i produktywności procesu obsługi klientów lotniczych. Linie lotnicze, które zainicjowały projekt systemu Amadeus to europejscy giganci: Air France, Iberia, Lufthansa i SAS. System rozpoczął działanie na początku roku 1992 i od tego czasu jest on sukcesywnie rozbudowywany przez dodawanie nowych funkcji. Rysunek III.5. Schemat działania systemu Amadeus jako systemu klasy GDS Źródło: materiały udostępnione przez firmę Amadeus Polska 192

193 Zarządzanie i informatyka cz. III System Amadeus jest rozwiązaniem przeznaczonym w głównej mierze dla biur podróży. Umożliwia on przeprowadzenie całego procesu rezerwacji i zakupu biletu lotniczego wraz z możliwością jego wydruku. Użytkownik dodatkowo może dokonać rezerwacji hotelu, samochodu, biletu na kolej, czy ubezpieczyć się. Każda osoba obsługująca system Amadeus loguje się do systemu, dzięki czemu możliwe jest odnalezienie wyników pracy poszczególnych agentów sprzedaży oraz poszczególnych biur podróży. Każdy użytkownik systemu Amadeus może pracować jednocześnie w kilku obszarach roboczych. Dzięki takiemu rozwiązaniu możliwe jest jednoczesne tworzenie kilku rezerwacji lotniczych, bez konieczności zamykania jednej z nich. Agenci sprzedaży mogą też korzystać z obszaru treningowego, gdzie możliwe jest przeprowadzanie symulacji bez ingerowania w rzeczywistą dostępność miejsc lotniczych. Jest to obszar, w którym agenci sprzedaży mogą doskonalić swoje umiejętności i przeprowadzać symulacje dla nietypowych i skomplikowanych rezerwacji lotniczych. Znaczny postęp w doskonaleniu sytemu e-zarządzania dokonał się wraz z upowszechnieniem telefonów komórkowych. Coraz częściej bowiem do zarządzania firmą nie jest niezbędny laptop, a wystarczy telefon komórkowy, tym bardziej, kiedy jest on telefonem tzw. trzeciej generacji, pozwalającym na uzyskanie transmisji danych z szybkością 2 Mb/s i pracującym w standardzie UMTS (Universal Mobile Telecommunications Standard). Trzeba zaznaczyć, że ten standard stosowany jest w Europie natomiast w Stanach Zjednoczonych rekomendowany jest nieco inny standard (3GPP). Pisząc o roli sieci w e-zarządzaniu należy również wspomnieć o tendencji rozwoju Internetu nazwanej często terminem Web 2.0. W literaturze spotyka się też inne określenie NextNET. W zasadzie Web 2.0 bardziej nadaje się do prezentacji w następnej części książki, ale i w tym miejscu przedstawimy pewne problemy, ponieważ wydaje się, że jest to jeden z podstawowych kierunków rozwoju Internetu. Kierunek ten możemy w skrócie określić terminem spłaszczenie przestrzeni Internetu. Co to jest Web 2.0? Zgodzić się należy z poglądami, że jest to ewolucja w metodach realizacji usług internetowych, Web 2.0 różni się zasadniczo od tradycyjnego Internetu, gdyż w przypadku sieci społecznościowej (tak również określany jest Web 2.0) mamy do czynienia z tworzeniem treści internetowych przez samych użytkowników. Celem twórców Web 2.0 jest umożliwienie użytkownikom na całym świecie, jak największych interakcji i integracji (patrz rys. III. 6). Najważniejszy jest użytkownik, który dostarcza treść czyli teksty, zdjęcia, pliki wideo. W ten sposób tworzy się społeczność użytkowników, którzy zaczynają ze sobą współpracować i tworzą własny świat. 193

194 E-zarządzanie pojęcia i elementy Rysunek III.6. Chmura znaczników z nazwami powiązanymi z Web 2.0 Źródło: Według jednego z twórców Web 2.0, Tima O Reilly [2005]: Web 2.0 jest to rewolucja biznesowa w świecie komputerowym, spowodowana ruchem w stronę Internetu jako platformy, oraz zrozumieniem reguł zwycięstwa na tej platformie. Główną zasadę można sformułować następująco: Twórz aplikacje, które lepiej okiełznają sieć, by więcej ludzi ich używało. Serwisy Web 2.0 ze względu na dużą interakcję między członkami społeczności określa się mianem serwisów dynamicznych. Web 2.0 dotyczy nie tylko Internetu ale również telefonii, telewizji, odtwarzaczy multimediów, integruje kanały komunikacji, dystrybucji treści, urządzenia do rejestrowania rzeczywistości. Jest to nowa usługa, w której e-zarządzanie stanowi tylko niewielki procent zastosowań. Większość zastosowań dotyczy różnych form tworzenia zrębów realizacji haseł społeczeństwa obywatelskiego. Pozwala ona bowiem na tworzenie zupełnie innych jakościowo usług obejmujących programy TV, audycje radiowe czy też interaktywne blogi. W tworzeniu tych usług w sposób aktywny (czyli mający wpływ na tworzenie produktów) występują widzowie, czytelnicy, słuchacze, fotografowie, kamerzyści czy też dziennikarze. Jednak zwracamy tu uwagę na problemy odpowiedzialności tych kreatorów. O tym napiszemy później. Obecnie coraz częściej pisze się o Web 3.0, w których stosowane są sieci semantyczne, a użytkownik jest kreatorem 194

195 Zarządzanie i informatyka cz. III i decyduje o tym, co w sieci będzie zawarte. Jeden z twórców pojęcia Web 3.0 John Markoff uważa, że jest to obecny Web 2.0 z dodatkiem tego, co nazywamy semantyczną siecią i zastosowaniem narzędzi sztucznej inteligencji. Można przyjąć, że termin Web 3.0 stworzono po to, by opisać dalszą ewolucję Internetu. Web 3.0 to koncepcja przetworzenia zawartości stron do wzorca czytanego przez różne (w tym nieprzeglądarkowe) aplikacje, systemy wykorzystujące sztuczną inteligencję, rozwiązania semantyczne oraz oprogramowanie pozwalające wizualizować oraz przetwarzać dane w trzech wymiarach. Jak prognozuje się, że już w niedalekiej przyszłości strony Web 3.0 będą zdolne, na podstawie kontekstu przekazu danych, do prognozowania zamiarów internauty. Ułatwi to i przyspieszy uzyskanie potrzebnych informacji. Na Sieć 3.0 istnieje wiele pomysłów, ale jak pisze A. Rymsza [2012], chyba najpopularniejszy obecnie pomysł to wzbogacanie treści o kontekst. Technologia już to w pewnym stopniu umożliwia informacje, które do nas docierają już są zależne od tego, w jakich kręgach się obracamy (możemy dobierać sobie znajomych, których strumienie informacji czytamy), co lubimy (sporo serwisów poleca książki, muzykę lub filmy, Foursquare proponuje lokale), a niekiedy również od tego, gdzie jesteśmy. To zjawisko będzie się rozszerzać, aby podawane nam były informacje zależne od pory dnia, stanu zdrowia (monitor diety, monitor snu), albo nastroju (dobieranie filmów, książek i muzyki, propozycje aktywności). Oprogramowanie ma wykorzystywać sztuczną inteligencję również do przewidzenia, co chcemy zrobić, dzięki czemu obsługa urządzeń elektronicznych ma być naturalna i nie wymagać żadnego przygotowania (gesty dłoni, śledzenie gałek ocznych). Będzie może jak z mapami, gdzie jeszcze niedawno trzeba było włożyć trochę wysiłku w skorzystanie z indeksu i legendy atlasu, a dziś nawigacja GPSS głosem celebrytki mówi, jak dojechać, czy dojść. Przesyłanie danych w sieci i ich ochrona czyli o podpisie elektronicznym Istotnym problemem dla otrzymującego informacje z sieci jest identyfikacja osoby je przekazującej. Taka identyfikacja, która bardzo często związana jest z zaciągnięciem określonych zobowiązań prawnych czy też finansowych, wymaga podpisu. Ponieważ przesyłanie tradycyjnego podpisu nie jest możliwe, stosowany jest podpis elektroniczny. Polska norma PN-I posługuje się pojęciem podpisu cyfrowego, który jest określany jako przekształcenie kryptograficzne danych umożliwiające odbiorcy danych sprawdzenie autentyczności i integralności danych oraz zapewnienie nadawcy ochrony przed sfałszowaniem danych przez odbiorcę. Jest to dość szeroka definicja i krajowe regulacje prawne zgodnie z dyrektywa UE, posługują się nieco węższym pojęciem a mianowicie, że stanowi on, zgodnie z dyrektywą wspólnotową 1999/93/WE, dane w formie elektronicznej, które są dołączone lub logicznie powiązane z innymi danymi elektronicznymi, i które służą jako metoda uwierzytelnienia (authentication). Podobnie w Ustawie z dnia 18 września 2001 r. o podpisie elektronicznym [Dz. U. z 2001 r. Nr 130, poz z późn. zm.] określa się, że podpis elektroniczny stanowią dane w postaci elektronicznej, które wraz z innymi danymi, 195

196 E-zarządzanie pojęcia i elementy do których zostały dołączone, lub z którymi są logicznie powiązane, służą do identyfikacji osoby składającej podpis elektroniczny. Pojęcie podpisu elektronicznego zostało w UE wprowadzone Dyrektywą o Wspólnotowej Infrastrukturze Podpisów Elektronicznych [1999/93/EC]. Wyróżnia ona trzy rodzaje podpisu elektronicznego o stopniowo rosnącym poziomie wiarygodności: Podpis elektroniczny czyli deklaracja tożsamości autora, złożona w postaci elektronicznej pod dokumentem, na przykład imię i nazwisko, faksymile podpisu itd. Zaawansowany podpis elektroniczny czyli podpis, który dzięki zastosowaniu odpowiednich środków technicznych jest jednoznacznie związany z dokumentem oraz autorem i jest trudny do sfałszowania. Do kategorii tej można zaliczyć większość powszechnie stosowanych systemów podpisu cyfrowego (PGP, S/MIME). Kwalifikowany podpis elektroniczny szczególna forma podpisu zaawansowanego, która spełnia szczególne wymagania techniczne i organizacyjne. W praktyce oznacza to konieczność korzystania z certyfikatu kwalifikowanego, wystawionego przez kwalifikowany urząd certyfikacji oraz klucza prywatnego przechowywanego na karcie kryptograficznej. Od strony technicznej podpis elektroniczny jest realizowany za pomocą mechanizmów podpisu cyfrowego. Podpis elektroniczny, który jest weryfikowany za pomocą odpowiedniego certyfikatu, spełnia m.in. następujące funkcje: identyfikacyjną, dowodową, kontraktową. Podpis elektroniczny składany jest za pomocą tzw. bezpiecznych urządzeń. Urządzenie takie składa się z odpowiedniego oprogramowania oraz współpracującego z nim komponentu tec h- nicznego, np. karty. Jednym z popularnych bezpiecznych urządzeń do składania podpisu elektronicznego są stykowe karty procesowe (SIM). Dokument opatrzony podpisem elektronicznym może być przy spełnieniu dodatkowych przesłanek równoważny pod względem skutków prawnych dokumentowi opatrzonemu podpisem własnoręcznym. Podpis elektroniczny będzie mógł być uznany za równoważny podpisowi własnoręcznemu jeśli spełnia warunki umożliwiające uznanie go za podpis elektroniczny bezpieczny. Zgodnie z ustawą bezpieczny podpis elektroniczny to podpis elektroniczny, który: (1) jest przyporządkowany wyłącznie do osoby składającej ten podpis, (2) jest sporządzany za pomocą podlegających wyłącznej kontroli osoby składającej podpis elektroniczny, bezpiecznych urządzeń służących do składania podpisu elektronicznego i danych służących do składania podpisu elektronicznego, (3) jest powiązany z danymi, do których został dołączony, w taki sposób, że jakakolwiek późniejsza zmiana tych danych jest rozpoznawalna. 196

197 Zarządzanie i informatyka cz. III Rysunek III.7. Schemat przedstawiający poszczególne fazy wymiany komunikatów w systemie uwierzytelniania Źródło: ( ) Obecnie wg opinii ekspertów [Sprawozdanie Komisji dla Parlamentu Europejskiego i Rady z wykonania dyrektywy 1999/93/WE Bruksela 2006] rynek posługiwania się w transakcjach podpisem elektronicznym jest dość płytki. Wydaje się, że jest to istotna bariera, która ogranicza funkcjonowanie Internetu w obszarze e-zarządzania, szczególnie w problematyce wzajemnych rozliczeń finansowych i uregulowań prawnych. Czytelnikowi zainteresowanemu problemami prawnymi podpisu elektronicznego polecamy opracowanie R. Popłoński, P. Popis [2002], natomiast w sprawach używanych rozwiązań technicznych między innymi artykuły P. Krawczyka [2005 i 2006]. Pisząc o podpisie elektronicznym, należy zwrócić uwagę na coraz popularniejszy podpis zaufania. Profil zaufany jest bezpłatną metodą potwierdzania tożsamości obywatela w systemach elektronicznej administracji to odpowiednik bezpiecznego podpisu elektronicznego, weryfikowanego certyfikatem kwalifikowanym. Wykorzystując profil zaufany obywatel może załatwić sprawy administracyjne (np. wnoszenie podań, odwołań, skarg) drogą elektroniczną bez konieczności osobistego udania się do urzędu. Do tego aspektu powrócimy przy prezentacji zagadnień związanych z e-administracją. 197

198 198

199 Rozdział 9 Wirtualizacja i jej elementy 9.1. Wirtualizacja i wirtualne organizacje Pojęcie wirtualności pojawiło się prawdopodobnie w kulturze europejskiej po raz pierwszy w rozważaniach greckiego myśliciela Arystotelesa. Arystoteles sądził, że pojedyncze elementy, z których składa się świat mogą istnieć rzeczywiście lub potencjalnie. Jednostki są rzeczywiste w swoim istnieniu na świecie, ale każdy rodzaj istnienia jest urzeczywistnieniem potencjalności tego istnienia. Wirtualność w tej teorii wskazuje na mnóstwo możliwych stanów, jakich każda jednostka może potencjalnie doświadczyć. Prawdopodobnie słowo wirtualny zostało zdefiniowane w roku 1902 przez amerykańskiego filozofa Charlesa Peirce a [2003]. Użył on słowa tego następująco: Wirtualny X (gdzie x jest zwyczajowym rzeczownikiem) jest czymś, co nie jest X, ale ma niedobór X. Termin wirtualny jest kojarzony z interaktywnymi technologiami multimedialnymi, które są następstwem dostępności komputerów osobistych, rozwoju Internetu, grafiki komputerowej i informatyki oraz technologii. Koncepcja znaczenia słowa wirtualny przechodziła metamorfozę na przestrzeni wielu lat. Filozof Michael Heim zdefiniował wirtualność jako filozoficzny termin oznaczający nierzeczywisty, ale właściwie istniejący pod warunkiem istnienia siedmiu działań doznań najczęściej występujących jednocześnie, a nawet nakładających się na siebie, które w jego przekonaniu nie wyczerpują definicji tego zjawiska, ale oddają aktualny stan wiedzy o nim. Są nimi: symulacja, interaktywność, sztuczność świata, zanurzenie w nim, całkowite zanurzenie, teleobecność i komunikacja sieciowa. Można też przyjąć, że słowo wirtualny mogło zostać użyte w roku 1980 przez Teodora Nelsona (twórcę terminu hypertext ) do opisania interaktywnych systemów komputerowych. W latach 90. Paul Levison określił wirtualność następująco [Levinson, 2006]: 199

200 Wirtualizacja i jej elementy X to jest to co otrzymujemy ze struktury informacji o X co jest oddzielone od fizycznej postaci X. 5 Czystą formą funkcjonowania e-zarządzania jest proces wirtualizacji w tym tworzenia wirtualnych organizacji. Wirtualna organizacja jest zupełnie nowym typem organizacji często nazywaną organizacją przyszłości. Mogła ona powstać dzięki rozwojowi TI, a zwłaszcza funkcjonowania globalnych sieci informacyjnych takich, jak Internet i duże bazy danych. Jest to też odpowiedź na wymagania wolnego rynku i konieczność dostosowania się do jego konkurencyjności. Jest jednym z najbardziej istotnych elementów prezentowanej już wcześniej Nowej Ekonomii. Pojęcie WO nie doczekało się jeszcze jednej i ogólnie akceptowanej definicji. Na pewno jest ona efektem nowych możliwości jakie daje współczesna TI. Wirtualność określa się przez charakterystykę własności, a nieistniejące cechy fizyczne. Analizując proces wirtualizacji i powstania wirtualnej organizacji trzeba odpowiedzieć na szereg takich pytań, jak: Czy wirtualna organizacja to organizacja realna? Czym różni się ona od organizacji tradycyjnych? Dlaczego uważamy, że wirtualna organizacja jest organizacją przyszłości? Jakie efekty można dzięki niej uzyskać i jakie istnieją zagrożenia wynikające z jej funkcjonowania? Pytania można mnożyć, ale tu pragniemy skoncentrować się na tych właśnie kwestiach. Obecnie tworzona jest teoria dotycząca wirtualnej organizacji, a praktyka nie jest rozległa, chociaż każdego tygodnia powstaje wiele tego typu organizacji. Sytuację tę w pewien sposób możemy zilustrować następującym przykładem. W roku 2001 otrzymałem z prestiżowej amerykańskiej grupy wydawniczej IDEA Group Publishing zamówienie na zorganizowanie i pokierowanie pracami międzynarodowego zespołu dla napisania książki o wirtualnej organizacji jej funkcjonowaniu we współczesnym społeczeństwie. Napotkałem jednak trudności w tworzeniu zespołu. Brak było, bowiem teoretyków, jak i praktyków znających to zagadnienie, monografia jednak powstała [J. Kisielnicki, 2002]. Obecnie wiele osób, zarówno ze świata nauki, jak i biznesu, zaczyna zajmować się tą tematyką, a literatura jest już dość bogata. Do tego stopnia, że kiedy otrzymałem następną propozycję pokierowania zespołem w opracowaniu encyklopedii poświęconej wirtualizacji [J. Kisielnicki (red.), 2008] nie miałem najmniejszych trudności ze skompletowaniem zespołu liczącego 250 autorów. 5 Szczegółowej charakterystyki przestrzeni wirtualnej dokonują między innymi E. Couchot: Images. De l'optique au numérique. Les arts visuels et l'evolution des technologies. Paris 1988; B. Laurel: Computers as Theatre...; B. Woolley: Virtual Worlds. Blackwell 1992, i M. Heim: Metaphysics of Virtual Reality. Oxford

201 Zarządzanie i informatyka cz. III Pisząc o wirtualnej organizacji można wydzielić następujące trzy poziomy jej funkcjonowania: 1. Rozszerzenie funkcji realizowanych przez tradycyjne organizacje. Jest tak wtedy, kiedy pragnie ona być bliżej klienta, a nie posiada na to odpowiednich środków. Organizacja tradycyjna może utworzyć przedstawicielstwa z wykorzystaniem możliwości, jakie daje współczesna technologia informacyjna. Na przykład: organizacja sprzedająca meble nie musi w każdym mieście, gdzie są jej potencjalni klienci, otwierać sklepu z ekspozycją. Zamiast tego tworzy przedstawicielstwo do przyjmowania zamówień. Tam za pomocą multimedialnego komputera i specjalnego graficznego oprogramowania może pokazać klientom całe bogactwo swojej oferty. Również rozszerzeniem oferowanych usług może być sprzedaż za pomocą kiosków lub sklepów internetowych. W taki sposób funkcjonuje, przedstawiony schematycznie na rysunku III.8., bank Inteligo, jako klasyczna organizacja stosująca zasady e-zarządzania. Rysunek III.8. Organizacja schematyczna Inteligo jako internetowej odnogi Banku PKO BP (Oddziałami banku Inteligo mogą być poszczególni klienci mający rachunek w banku realizowana jest tu zasada tam gdzie mój laptop, tam jest mój bank ) Źródło: opracowanie własne. Korzystanie z jego usług wymaga założenia oddzielnego konta. Dodatkowo klient otrzymuje kartę płatniczą. Wszelkie prowizje i opłaty za korzystanie z rachunku elektronicznego są znacznie zredukowane lub bezpłatne. Kontakt z bankiem odbywa się przez chat z doradcą dostępny na stronie banku, telefon, pocztę elektroniczną lub też zwykły list. Banki, które za jedyny swój cel stawiają obsługę internetowych rachunków elektronicznych, wyróżniają się nowoczesną obsługą i dobrymi zabezpieczeniami. 2. Organizacja, która powstaje dla realizacji określonego celu. Na przykład: mała firma budowlana wygrała przetarg na budowę osiedla i dla realizacji tego celu stworzyła or- 201

202 Wirtualizacja i jej elementy ganizację e-zarządzaną. Organizacja ta przestanie istnieć po wybudowanie osiedla, albo też przekształci się w normalną tradycyjną organizację. Na rysunku III. 8 pokazano hipotetyczną organizację handlu nieruchomościami założoną po to, aby mieszkaniec Warszawy kupił sobie mieszkanie nad Morzem Śródziemnym. Klient kupujący nieruchomość w Hiszpanii może skorzystać z organizacji wirtualnej, obejrzeć dom i okolicę, a następnie załatwić transakcję nie wyjeżdżając z Warszawy. Klient składa zamówienie na określony rodzaj nieruchomości w dowolnej organizacji, która zajmuje się tego typu transakcjami. I teraz organizacja miejscowa, w naszym przykładzie warszawska, może stworzyć organizację wirtualną z jej hiszpańskim odpowiednikiem. Związek ten może być zawarty tylko na czas jednej transakcji. Jeżeli będzie więcej zainteresowanych to taka wirtualna organizacja będzie trwała dłużej. Z efektów korzystają wszystkie strony biorące udział w transakcji. I tak klient w Warszawie finalizuje zamówienie bez konieczności ponoszenia dodatkowych nakładów na wyjazd do Hiszpanii i szukanie swojej wymarzonej nieruchomości. Przedsiębiorstwo handlu nieruchomościami w Warszawie realizuje zamówienie klienta za odpowiednią prowizję. Jednak nie musi przy tym posiadać w Hiszpanii filii ani też utrzymywać tam swojego przedstawiciela. Organizacja hiszpańska, bez konieczności inwestowania w Polsce, wchodzi na nowy rynek handlu nieruchomości i uzyskuje nowych klientów. Rysunek III.9. Schemat powiązań w hipotetycznej organizacji wirtualnej handlu nieruchomościami Źródło: opracowanie własne. 3. Organizacja wirtualna zbudowana dla celów szkoleniowych. Fizycznie jest to komputer lub sieć komputerów. Zadaniem takiej organizacji zaprojektowanej dla: studentów, pracowników czy menedżerów jest szkolenie i doskonalenie dotyczące przedsiębior- 202

203 Zarządzanie i informatyka cz. III czości i zarządzania. Zwykle jest to jeden komputer posiadający odpowiednie oprogramowanie. Taką organizacją może być system stosowany w tzw. wirtualnym uniwersytecie. Przykładem jest system Polski Uniwersytet Wirtualny ( powstały we współpracy z Uniwersytetu Marii Curie Skłodowskiej w Lublinie z Wyższą Szkołą Humanistyczno-Ekonomiczną w Łodzi. W trakcie nauki studenci korzystają z różnych narzędzi internetowych takich, jak tzw. tablice wirtualne. Podczas wirtualnego spotkania z wykładowcą, czyli na tzw. czacie, prowadzący może na ekranie przedstawiać schematy, rysunki, wykresy, itd. Komunikacja odbywa się przez chronioną hasłem platformę zdalnego nauczania. Przedmiotem oceny jest aktywność na forum dyskusyjnym, wyniki testów oraz realizacja zadań i projektów zleconych studentom przez prowadzących zajęcia. Każdy trymestr kończy się sesją, podczas której studenci tradycyjnie zdają egzaminy. Rekrutacja prowadzona jest w trybie ciągłym. Nie ma egzaminów wstępnych. Kandydaci wypełniają ankietę osobową, która jest dostępna na stronie www. puw.pl i po wysłaniu kompletu dokumentów zostają wpisani na listę studentów Na podstawie podanych przykładów wirtualnych organizacji możemy sformułować pojęcie wirtualnej organizacji. Termin wirtualny i wirtualność ma wiele znaczeń i tak w słowniku wyrazów obcych pod redakcją J Tokarskiego [1987, s. 807] słowo wirtualny wywodzi się od następujących słów łacińskich: virtualis, czyli skuteczny i virtus, czyli moc. W słowniku tym wirtualny oznacza teoretycznie możliwy do zaistnienia. W języku angielskim termin virtual też ma wiele znaczeń, ale jednym z nich jest urojony. W informatyce termin pamięć wirtualna oznacza rodzaj pamięci w komputerze, którą może dysponować użytkownik niezależnie od posiadanej pamięci fizycznej. Termin wirtualna organizacja oznacza nowy typ organizacji, który mógł powstać dzięki rozwojowi globalnych sieci informacyjnych a zwłaszcza, Internetowi. Jest to też odpowiedź na wymagania rynku i konieczność dostosowania się do jego konkurencyjności. W e-zarządzaniu stosuje się również nieco inne metody, niż w tradycyjnym zarządzaniu. Do tego problemu powrócimy w dalszej części prezentacji. Pojęcie wirtualnej organizacji nie doczekało się też ogólnie akceptowanej definicji. Pierwszymi, którzy go użyli W. Davidow i M. Malone [1992]. Jednak pojęcie to nie jest powszechnie akceptowane. I tak P. Drucker [1998] określa opisane przez nas organizacje jako organizacje sieciowe, natomiast M. Hammmer i J. Champy [1997] jako organizacje po reengineeringu. Ciekawe i dość zaskakujące jest określenie T. Petersa [1994], który nazywa taką organizację zwariowaną instytucją. Wydaje się, że termin inteligentne organizacje zaproponowany przez J. B. Quinna [1992] najlepiej oddaje istotę funkcjonowania wirtualnej organizacji. 203

204 Wirtualizacja i jej elementy Wirtualność określa się przez charakterystykę własności a nieistniejące cechy fizyczne. Można ją rozpatrywać w następujących przekrojach: wirtualność produktów, wirtualność usług, wirtualność organizacji. Przytoczmy niektóre określenia wirtualnej organizacji. Czasowa sieć niezależnych przedsiębiorstw dostawców, klientów, nawet wcześniejszych konkurentów połączonych technologią informacyjną w celu dzielenia umiejętności i kosztów dostępu do nowych rynków [J. A. Byrne, R. Brandt, 1993]. Sztuczny twór, który ze względu na maksymalną użyteczność dla klienta i opierając się na indywidualnych kompetencjach bazowych, realizuje integrację niezależnych przedsiębiorstw w procesach (łańcuchowych) kreowania produktów, nie wymagając dodatkowego nakładu na koordynację, oraz nie uszczuplając przez swoją wirtualność znaczenia klienta [Ch. Scholzsch, 1992]. Można dyskutować z przytoczonymi definicjami. I tak czy wymieniony w pierwszej definicji cel działania wirtualnej organizacji nie zawęża zbyt wąsko tego pojęcia. Również określenie sieć czasowo niezależnych organizacji jest mocno dyskusyjna. Jeżeli organizacje wspólnie działają i realizują wspólny cel, to na pewno ich niezależność jest w pewnym stopniu ograniczona. Również w drugiej definicji określenie wirtualnej organizacji, jako sztuczny twór nie jest jednoznaczne a stwierdzenie, że nie wymaga dodatkowych nakładów na koordynację, nie zawsze jest prawdziwe. Przyjmujemy zatem, że: Wirtualna organizacja jest to organizacja tworzona na zasadzie dobrowolności w której uczestnicy wchodzą ze sobą w różnego typu związki dla realizacji wspólnego celu. Czas trwania związku ustalany jest przez każdego z uczestników tworzących organizację. Decyzję o jej likwidacji może podjąć ten z uczestników, który pierwszy uzna, że istnienie tego związku jest dla niego niekorzystne i pierwszy z niej wystąpi. Wir- 204

205 Zarządzanie i informatyka cz. III tualna organizacja działa w cyberprzestrzeni a jej funkcjonowanie wymaga istnienia sieci komputerowej, najczęściej rolę tę spełnia Internet. Na wirtualną organizację nie powinno się patrzeć tylko z punktu widzenia klasycznej teorii organizacji. Można mieć, bowiem wątpliwości czy spełnia ona wszystkie atrybuty, które według wielu podręczników z zarządzania pozwalają na jej wydzielenie jako organizacji. W teorii uważa się, że organizacje można wtedy wydzielić, jeżeli występuje: odrębność celów, złożoność struktury i przechowywanie wiedzy. Wirtualna organizacja spełnia kryterium odrębności celów. Wysoce dyskusyjne jest czy posiada dwa pozostałe atrybuty, a więc: strukturę i przechowywanie wiedzy. Wirtualna organizacja jest bardzo elastyczna, stale zmienia swoją postać i strukturę, wchodzi w alianse z innymi organizacjami. Jest to organizacja, która w zależności od sytuacji zmienia formę funkcjonowania i zainteresowania. Do wirtualnej organizacji przystępuje się dobrowolnie, jednak trzeba przestrzegać praw i zachowań w niej obowiązujących. Wystąpienie z niej jest również dobrowolne. Każdy element takiej organizacji działa zarówno na rachunek własny, jak całej organizacji. Istotną cechą wirtualnej organizacja jest to, że może ona wchodzić w skład wielu innych organizacji, jak też być samodzielną. W organizacji tego typu trudno mówić o jednoznaczności miejsca, w którym prowadzona jest działalność firmy. Na organizację możemy spojrzeć w sensie: rzeczowym, czynnościowym i atrybutowym. Tu zajmujemy się problematyką zarządzania i podejmowania decyzji w organizacji tradycyjnej i wirtualnej. Powstanie wirtualnych organizacji spowodowało nieco inne spojrzenie na dotychczas obowiązujące prawa w zarządzaniu, takie jak między innymi: o optymalnej wielkości organizacji, o prawie synergii (podstawowe prawo zarządzania systemowego), o zasadach negocjacji. Pierwszym pytaniem, na, które należy odpowiedzieć to: czym się różni wirtualna organizacja od tradycyjnej organizacji? Organizację w sensie rzeczowym określa się jako zbiór elementów uporządkowanych według jakieś zasady i powiązanych w jedną całość [A. Koźmiński, W. Piotrowski (red.), 2005]. Organizacje tradycyjne zawiązane są na dość długi czas. W skrajnych przypadkach jest to okres między jej rejestracją a jej rozwiązaniem i wyrejestrowaniem lub zmianą jej prawnej sytuacji np. bankructwo. W organizacji wirtualnej to uporządkowanie może być bardzo krótkie. Organizacja wirtualna działa w warunkach elektronicznego rynku i te powiązania najczęściej funkcjonują bardzo krótko. Porównajmy cechy obu typów organizacji, przez nas określoną jako tradycyjna, według opisu przedstawionego przez L. Krzyżanowskiego [1992] oraz wirtualna. Przedstawione w tabeli III.1 porównanie ma też za zadanie przypomnienie czytelnikowi cech tradycyjnej organizacyjnej, o których pisano na początku książki. 205

206 Wirtualizacja i jej elementy Tabela III.1. Zarządzanie w tradycyjnej i wirtualnej organizacji analiza porównawcza Lp. Cechy tradycyjnej organizacji 1. Tworzone przez ludzi. Nie ma różnic. 2. Działają w nich ludzie, jako podstawowy czynnik twórczy. 3. Powołane są do realizacji indywidualnych i zbiorowych celów swych uczestników oraz celów określonych w akcie erekcyjnym. 4. Charakteryzują się podziałem pracy, funkcji, ról organizacji oraz kształtuje ich wewnętrzna struktura. 5. Mają człon kierowniczy, czyli system sterujący, którego zadaniem jest koordynacja współdziałania składników za pomocą takich czynności, jak: planowanie, organizowanie, motywowanie i kontrolowanie. 6 Zdolne są do samodzielnego określania i modyfikowania celów oraz sposobu ich realizacji. 7. Zdolne są do osiągania ustalonych tych samych, celów końcowych przy różnych warunkach początkowych i na różnej drodze, czyli są ekwiwalentne. 8. Zdolne są do utrwalenia sposobów (wzorców) działań i ich powtarzania, co stanowi podstawę ich instrumentalizacji. 9. Z otoczenia są one tylko względnie wyodrębnione i traktowane są jako systemy otwarte. 10. Zdolne są do odnowy (wymiany) swych składników oraz zwiększenia swojej sprawności i stopnia zorganizowania, czyli są systemami samo reproduktywnym i samo udoskonalającymi się. Źródło: opracowanie własne. Nie ma różnic. Wirtualna organizacja różnica lub jej brak w stosunku do tradycyjnej organizacji Podobieństwo: obie organizacje powoływane są dla realizacji określonego celu. Różnica: ponieważ wirtualne organizacje nie muszą być tworzone na podstawie aktów erekcyjnych. Różnica: ponieważ w wirtualnych organizacjach struktura wewnętrzna nie musi być znana organizacjom w innej współdziałających. Różnica: w wirtualnych organizacjach nie ma takiego podziału, każda organizacja ma swój własny system sterujący, który w zasadzie nie jest znany innym organizacjom, które wchodzą w jej skład. Różnica: w wirtualnej organizacji nie można modyfikować samodzielnie celów, lecz tylko metody ich realizacji. Nie ma różnic. Różnica: takie utrwalanie jest realizowane niezmiernie rzadko, wynika to z bardzo dużej mobilności wirtualnych organizacji. Nie ma różnic. Małe różnice: w organizacjach wirtualnych proces ten realizowany jest niezależnie w poszczególnych organizacjach wchodzących w skład wirtualnej organizacji. W typologii systemów zarządzania wirtualne organizacje można, z pewnym przybliżeniem, porównać do systemu zarządzania stosowanego w organizacjach amorficznych. 206

207 Zarządzanie i informatyka cz. III Wirtualna organizacja, jak i tradycyjna, dążą do maksymalizacji korzyści ekonomicznych. Jednak tu odbywa się to w krótkim czasie. Wynika to z faktu, że decyzje są tu podejmowane przy bardzo szybko zmieniających się warunkach. Tradycyjne organizacje najczęściej też dążą do maksymalizacji zysku. Dzieje się to jednak w dłuższych okresach. Prawdopodobieństwo osiągnięcia efektu zależy między innymi od następujących elementów: szybkość i elastyczność dostosowania się do zmian, gdzie przewagę mają oczywiście wirtualne organizacje, pozycji organizacji na rynku, pozycji marki, gdzie z kolei przewagę mają tradycyjne organizacje, posiadania niezbędnych zasobów na uruchomienie działalności tu przewaga wirtualnych organizacji. Jeżeli prawdopodobieństwo osiągnięcia zysku jest wyższe dla tradycyjnej organizacji powinno się dążyć do stworzenia takiej organizacji. Jednak, kiedy chociaż jedna z organizacji, która może wejść w skład tradycyjnych organizacji może uzyskać wyższy zysk będąc wirtualną organizacją należy dążyć do stworzenia wirtualnej organizacji. Może to być też wynik negocjacji między zainteresowanymi organizacjami. Organizacja wirtualna może działać wszędzie tam, gdzie spodziewa się korzyści. I to jest właśnie jej celem. Dlatego też możemy zauważyć, że jej zachowanie jest inne niż tradycyjnych organizacji. Tradycyjne organizacje łączą się ze sobą po to, aby uzyskać efekt synergii. Poszczególne organizacje mimo, że razem uzyskują efekt większy, niż gdyby działały oddzielnie, to dla nich personalnie takie połączenie nie musi przynieść korzyści. Na przykład, organizacja o gorszym wyposażeniu technicznym, oddaje część zamówień innej organizacji wyposażonej w lepszą technologię. Tak, więc zysk jednych organizacji będzie po zmianach niższy a innych wyższy. Liczy się jednak efekt całkowity. Inaczej jest w wirtualnej organizacji. Efekt łączny nie jest tak istotny, jak efekt każdego elementu składającego się na tę organizację. Tu każdy z elementów powinien z faktu przynależności uzyskać korzyści. Możemy, więc powiedzieć, że wirtualna organizacja składa się z egoistycznych elementów. I mimo, że w porównaniu z tradycyjną organizacją (przy założeniu takich samych elementów, lecz inaczej powiązanych) może przynieść mniejsze, łączne efekty, to każdy z jej członków powinien być zadowolony. Efekty po wstąpieniu do wirtualnej organizacji będą bowiem wyższe dla każdego użytkownika niż przedtem. Wirtualna organizacja może, posługując się systemem multimedialnym, prezentować swoje wyroby czy świadczyć usługi w każdym miejscu. Może też wirtualnie (choćby przez umieszczenie w Internecie) badać popyt na swoje wyroby zanim wprowadzi je do produkcji. Technologia informacyjna stanowi dla wirtualnej organizacji infrastrukturę zarządzania. Szczególnie ważne są dwa jej elementy: globalne sieci komputerowe, takie jak Internet oraz duże i rozproszone bazy danych. Odbywające się w lutym 1997 r. Światowe Forum 207

208 Wirtualizacja i jej elementy Gospodarcze w szwajcarskim Davos obradowało pod hasłem Budowanie społeczeństwa sieciowego. Stworzenie takich sieci stanowi szansę dla rozwoju wirtualnych organizacji. Wirtualne organizacje działają w cyberprzestrzeni. Ich cechą charakterystyczną jest wielokierunkowość powiązań i niemożność określania ich granic za pomocą miar fizycznych. Poszczególne elementy są w cyberprzestrzeni powiązane między innymi przez: pocztę elektroniczną, sieć WWW, EDI (elektroniczna wymiana danych), transmisje multimedialne. Sieć komputerowa jest drogą kooperacji między przestrzennymi wirtualnymi elementami organizacji. Sukces firmy zależy od tego czy ma dostęp do informacji, i czy potrafi ją skutecznie wykorzystać. Cyberprzestrzeń zmienia charakter kontaktu między uczestnikami procesu. Nie jest to tradycyjny bezpośredni kontakt, jak np. między klientem a sprzedawcą, lecz kontakt elektroniczny lub kontakt wirtualny. Współczesne środki komunikacji dają możliwość posługiwania się multimedialnymi technikami, a więc transmisją obrazu i dźwięku obok tradycyjnej transmisji danych. Przytoczony przykład można rozszerzyć o inne organizacje, które są wirtualnie powiązane, a więc takie jak biuro notarialne i banki. Schematy powiązań w przykładowej wirtualnej organizacji przedstawiono na rysunku III.9. Klient wirtualnej organizacji, często nie wie jak zostało jego zamówienie zrealizowane. Ma on, bowiem podpisaną umowę z firmą w Krakowie i z nią negocjuje warunki. W praktyce sytuacja może być bardziej złożona. Ponieważ klienta może nie interesować konkretny kraj tylko region, na przykład wybrzeże Morza Śródziemnego, wtedy proces tworzenia wirtualnej organizacji jest dwustopniowy. Pierwszy to poszukiwanie organizacji, z którą można się związać. Drugi to stworzenie tej organizacji. W realizacji transakcji może uczestniczyć układ tradycyjnych z wirtualnymi organizacjami. I tak klient może korzystać ze swoich doradców finansowo-prawnych, którzy z kolei wejdą w kontakt z innymi organizacjami. Na różnice zachodzące między wirtualną a tradycyjna organizację możemy spojrzeć pod kątem kształtowania się nakładów na jej stworzenie, jak też optymalnej jej wielkości. Kształtowanie się hipotetycznych nakładów inwestycyjnych i kosztów jednostkowych produkcji dla tradycyjnych i wirtualnych organizacji przedstawiono na rysunku III.10. Krzywe, które wynikają z przeprowadzonej analizy przypadków, przedstawione na rysunku III.10 są ilustracją hipotezy, że dla stworzenia i rozpoczęcia działania wirtualnej organizacji wymagane są niższe nakłady inwestycyjne niż dla tradycyjnej organizacji. Jest to tym bardziej wyraźne dla organizacji działających na rynku globalnym. Tradycyjna organizacja, aby zaistnieć na tym rynku musi ponieść znaczne nakłady inwestycyjne na tworzenie 208

209 Zarządzanie i informatyka cz. III Rysunek III.10. Kształtowanie się nakładów inwestycyjnych w wirtualnych i tradycyjnych organizacjach Źródło: opracowanie własne. swoich przedstawicielstw w innych krajach niż jej podstawowy obszar działania. Również w tradycyjnej organizacji niezależnie od obszaru działania (rynki globalne czy lokalne) należy ponieść dość znaczne nakłady na uruchomienie produkcji i rozpoczęcie działalności firmy. Wykresy przedstawione na rysunkach pokazują różnice między wysokościami wydatkowanego kapitału, po którym organizacja zaczyna funkcjonować i istnieć na rynku. Dla wirtualnej organizacji, jak wcześniej wspomniano, jest on znacznie niższy niż dla tradycyjnej. Mimo, że początkowo na uruchomienie wirtualnej organizacji wydaje się mniej, to wraz z upływem czasu, aby być konkurencyjnym na globalnym rynku, należy dostosować się do bardzo szybkiego postępu w infrastrukturze informacyjnej. Wzrost nakładów nie jest gwałtowny. Wynika to z faktu, że szybkość pracy komputerów rośnie wykładniczo, natomiast ich cena liniowo. Nakłady w wirtualnej organizacji nie zależą tak silnie od sektora działania organizacji, jak w organizacji tradycyjnej. Charakterystyczną cechą wirtualnej organizacji jest możliwość szybkiego uzyskania zysku. Teoretycznie możliwe jest uzyskanie przychodów w bardzo krótkim czasie zaraz po jej uruchomieniu. W praktyce czas uzyskania zysku jest jednak dłuższy i podobnie jak w organizacjach tradycyjnych zależy od zaistnienia jej na rynku. Analiza jednostkowych kosztów wytwarzania w organizacjach produkcyjnych tradycyjnych dąży do optimum. Oznacza to, że po przekroczeniu pewnego progu wielkości produkcji, jednostkowe koszty rosną. W wirtualnych organizacjach koszty jednostkowe mogą stale się obniżać (patrz rys. III.11). Problemem może być tu tylko znalezienie dla swojej produkcji odpowiedniego rynku zbytu. 209

210 Wirtualizacja i jej elementy Rysunek III.11. Jednostkowe koszty produkcji w organizacji tradycyjnej i wirtualnej Źródło: opracowanie własne. Wirtualizacja funkcjonowania organizacji jest dla wielu z nich szansą wzrostu konkurencyjności. Dla przeprowadzenia analizy strategicznej posłużono się przedstawionymi już wcześniej analizą konkurencyjności zaproponowaną przez M. E. Portera oraz analizą SWOT. Analizę organizacji zgodnie z zasadami M. E. Portera przeprowadza się przez zbadanie pięciu czynników, które kształtuję jej atrakcyjność: 1. określenie natężenia walki konkurencyjnej między organizacjami, które wytwarzają wyroby lub usługi o podobnym przeznaczeniu, 2. zbadanie siły oddziaływania dostawców oraz możliwość wywierania przez nich presji na organizację, 3. zbadanie siły oddziaływania nabywców oraz możliwość wywierania przez nich presji na organizację, 4. określenie groźby pojawienia się nowych produktów, 5. określenie groźby pojawienia się substytutów. Stworzenie organizacji wirtualnej pozwala na wykazanie się umiejętnościami negocjacyjnymi i partnerskimi. Dostawcy i nabywcy nie są stroną w walce konkurencyjnej, lecz mogą tworzyć określone alianse dla prowadzenia wspólnej polityki, np. cenowej, jakościowej (drugi i trzeci czynnik Portera). 210

211 Zarządzanie i informatyka cz. III Powiązania wirtualne pozwalają na wczesne dostrzeżenie niebezpieczeństw wystąpienia zagrożeń w postaci pojawienia się nowych produktów lub substytutów (czwarty i piąty czynnik w analizie Portera). Analiza ta wykazuje, że organizacje wirtualne cechuje bardzo duża elastyczność. Jest ona, na pewno większa niż w organizacji tradycyjnej. Analiza SWOT Wymienioną już wcześniej analizę SWOT można też zastosować do analizy hipotetycznej organizacji wirtualnej przedstawiono w tabeli III.2. Tabela III.2. Analiza SWOT dla hipotetycznej wirtualnej organizacji Mocne strony S 1. Duża elastyczność działania, większa niż organizacji tradycyjnej. 2. Duża szybkość realizacji transakcji w porównaniu z większością organizacji tradycyjnych. 3. Prowadzenie wspólnej polityki działania organizacji. 4. Obniżenie kosztów realizacji transakcji w stosunku do organizacji tradycyjnej. 5. Obniżenie nakładów inwestycyjnych dla rozwoju organizacji. 6. Zmniejszenie do koniecznego minimum prawnej obsługi transakcji. Szansa O 1. Szybkie reakcje na pojawienie się tzw. niszy. 2. Realizacja transakcji mimo barier prawnych i organizacyjnych. 3. Wnoszenie do wspólnej wirtualnej organizacji tego, co każdy z partnerów ma najlepszego i gdzie jest w pełni profesjonalny. 4. Możliwość zastosowania najbardziej nowoczesnych metod i technik zarządzania. 5. Możliwość, współpracy takich partnerów, którzy w warunkach tradycyjnej organizacji nie współpracowali ze sobą. 6. W powiązaniach informacyjnych nie występują granice celne państwowe. Słabe strony W 1. Konieczność posiadania IT, która umożliwi realizację transakcji, a w tym: a/ globalna sieć, b/ duże bazy danych. 2. Konieczność posiadania zaufania do wszystkich organizacji współpracujących w ramach wirtualnych organizacji. 3. Możliwość włączania się do organizacji niekompetentnych i niesprawdzonych organizacji. 4. Brak wzorców postępowania. Zagrożenia T 1. Niewydolność komputerowych urządzeń przejawiająca się tym, że obecnie nie są one w większości przystosowane do transmisji danych multimedialnych. 2. Brak uregulowań prawnych dla funkcjonowania organizacji wchodzących w skład wirtualnych organizacji i ich odpowiedzialności względem siebie i przed ich klientami. 3. Nieprzygotowana organizacja, jak też klienci, do korzystania z wirtualnej organizacji. 4. Brak zwierzchnictwa i związany z tym brak koordynacji realizacji transakcji. W konkretnej sytuacji to, co uważa się za szansę, może być zagrożeniem. Uważa się, na przykład, że dużą szansą na rozwój wirtualnej organizacji jest rozwój Internetu. Daje to szanse na faktyczne funkcjonowanie na globalnym obszarze. Możliwy jest przestrzenny 211

212 Wirtualizacja i jej elementy szeroki obszar np. Europa, Australia, Nowa Zelandia, czy też Afryka. Jednak występują problemy z eksploatacją Internetu. Do najczęstszych bolączek zaliczyć można przepustowość łączy, jak też nierozwiązana do końca kwestia zabezpieczenia danych. Organizacje telekomunikacyjne twierdzą zgodnie, że wielka ilość użytkowników powoduje tłok na łączach, co w konsekwencji zatyka sieć teleinformatyczną. Dla poprawy tego trzeba ponieść dodatkowe znaczne nakłady na infrastrukturę. Najbliższa przyszłość pokaże, czy wirtualna organizacja przyjmie się w praktyce. Czy powstaną takie organizacje i zostaną opracowane odpowiednie rozwiązania formalnoprawne? Przedstawiona analiza strategiczna, mimo, że przeprowadzona na hipotetycznej organizacji wskazuje atrakcyjność tej formy. Każdy, bowiem, kto posiada odpowiednie środki techniczne, a więc: komputer multimedialny, dostęp do sieci komputerowej i umie korzystać z zasobów informacyjnych może przyłączyć się do wirtualnej organizacji. Ciekawy przykład strategii funkcjonowania wirtualnej organizacji, jako globalnego łańcucha różnego typu organizacji przedstawia za reporterami tygodnika Spigel E. Bendyk [2006, s. 35]. Dotyczy on powstania najnowszej elektronicznej szczoteczki do czyszczenia zębów Sonicare firmy Philips. Produkt powstaje w pięciu strefach czasowych w organizacjach, które nie są ze sobą związane w sensie tradycyjnym strukturą organizacyjną. W Chinach produkuje się cewki z drutu miedzianego oraz płytki do układów sterujących. Na Tajwanie i Malezji powstają elektroniczne podzespoły. Te podzespoły są przesyłane na Filipiny. Na Filipinach są montowane zespoły sterujące. Te są z kolej wysyłane na zachodnie wybrzeże Stanów Zjednoczonych do Seatle. Równolegle w Szwecji wytapiana jest stal na elementy metalowe szczoteczki. Stal ta jest obrabiana w Klangfurcie w Austrii. Oni też przygotowują plastikowe elementy szczoteczki. Elementy wracają na zachodnie wybrzeże Stanów Zjednoczonych, ale teraz do Snoqualmie nieopodal Seatle. Tam czeka elektronika z Filipin i akumulatory wytwarzane w Japonii, Francji i Tajwanie. Elementy, stanowiące szczoteczkę, przewędrowały około 28 tys. km. Proces produkcyjny kończy się w Seatle. Jest to klasyczny przykład wirtualnej organizacji gdzie procesowi wirtualizacji w największym stopniu podlegają procesy logistyczne. Wyobraźmy jak długo trwałby proces powstania szczoteczki metodami przepływu informacji w sposób tradycyjny. Wirtualna organizacja to jedna z najłatwiejszych dróg stworzenia własnej organizacji i zarazem najmniej kosztowna. Problemem jest prawne przyjęcie takich uregulowań, aby wszyscy uczestnicy działań mieli równe prawa i odpowiednie do swojego udziału efekty ze współpracy. Chinka nawijająca cewki do szczotki otrzymuje w roku 2008, 25 centów za godzinę. Gdyby taką pracę wykonywała w Stanach Zjednoczonych dostawałaby ok. 40 razy więcej, czyli co najmniej 10 $. Wirtualna organizacja to przezroczysta organizacja, co oznacza, że wszystkie jej poczynania mogą być znane konkurencji. Zmusza to organizację do działania odpowiedzialnego. Na jej wizerunek wpływają działania innych powiązaniach wirtualnie organizacji. W wirtualnej organizacji nie ma wspólnych administracji, budynków i nie ma też wspólne- 212

213 Zarządzanie i informatyka cz. III go nadzoru i stanowisk koordynujących. Ponieważ oddziaływanie na siebie poszczególnych wirtualnych organizacji jest ograniczone dlatego należy dążyć do stworzenia specyficznych warunków zaufania. Wirtualna organizacja na pewno może spowodować wzrost konkurencyjności organizacji, należy jednak pamiętać o tym, że dla zarządzania tego typu strukturą trzeba stosować inne niż klasyczne zasady. Weryfikacji między innymi wymagają takie procedury jak negocjacje, które przebiegają błyskawicznie i bez wstępnych faz opisywanych w specjalistycznych poradnikach. Można określić te sfery działalności, w których zastosowanie wirtualnej organizacji powinno przynieść największe efekty. Można tu wymienić: Handel jak wymieniony już obrót nieruchomościami, ale też handel hurtowy i detaliczny artykułami spożywczymi, konfekcją, samochodami, sprzętem AGD i RTV. Banki i usługi bankowe. Turystyka. Szkolenie i doskonalenie. Usługi różnego rodzaju. Przytoczone przykładowe kierunki zastosowań, wydają się być najbardziej efektywnym dla wirtualnych organizacji. Jednak w zależności od konkretnej sytuacji zbiór tych zastosowań może być o wiele szerszy. Analizując gospodarkę można postawić hipotezę, że postęp w technologii informacyjnej spowoduje lawinowy wzrost wirtualnych organizacji. Podobnego zdania jest Don Tapscott [1998], który prezentując dwanaście reguł nowego ładu gospodarczego; pisze, że jedną z nich są działania prowadzące ku rzeczywistości wirtualnej. W ten kierunek wpisuje się wpływ wirtualizacji na przedsiębiorczość. Wpływ wirtualnej organizacji na przedsiębiorczość jest taki, że stworzenie tego typu organizacji i zostanie przedsiębiorcą jest bardzo proste. Nieco trudniejsze jest zostanie przedsiębiorcą globalnym, ale na pewno łatwiejsze niż tradycyjnym. Wystarczy, jak uważa W. Titz [1995] siedzieć w domu i z sześciu komputerów sterować działalnością wartą 10 miliardów dolarów. Wydaje się, że przytoczone konkretne wielkości mają znaczenie symboliczne. Badania nad przedsiębiorczością przeprowadzone wśród studentów studiów dziennych, pracujących i studiów podyplomowych w warszawskich uczelniach [J. Kisielnicki, 2003] wykazało, że w Polsce procent osób zainteresowanych prowadzeniem własnej firmy jest znaczny i wynosi on od 66% do 85%. Przeszkody na drodze do kariery przedsiębiorcy są różne. W większości sytuacji jest to brak odpowiednich środków finansowych. Większość badanych właśnie tę przeszkodę traktuje jako najbardziej istotną. Procent osób, którzy właśnie tę barierę uważają za najbardziej istotną wynosi około 80%. Trudno jest początkującemu 213

214 Wirtualizacja i jej elementy przedsiębiorcy uzyskać kredyt w banku. Dlatego też te rozwiązania, które nie wymagają zaangażowania dużego kapitału, a tylko posiadanie kapitału intelektualnego, są dla badanych osób interesujące. Jak wynika z przeprowadzonych badań, ten typ organizacji wydaje się być z tego względu atrakcyjny. Powszechnie uważają, że wirtualna organizacja jest dobrym wstępem do rozwijania przedsiębiorczości na globalnym rynku. Jedną z rozwijających się form wzrostu przedsiębiorczości jest tzw. wirtualny obcokrajowiec. Jest to pracownik, najczęściej innej narodowości, który mieszka daleko od swojego pracodawcy. Jednak ta odległość nie przeszkadza mu w pracy na rzecz organizacji. I tak dla organizacji wytwarzającej oprogramowanie, zlokalizowanej w Stanach Zjednoczonych, pracują programiści hinduscy, polscy, chińscy. Wiele wydawnictw na tej zasadzie tłumaczy teksty książek, zapewniając sobie wysoką jakość usługi. Jedną z najbardziej popularnych metod e-zarządzania są tzw. wirtualne targi pracy. Ta forma jest atrakcyjna dla absolwentów kończących naukę i osób poszukujących pracę oraz pracodawców chcących ich zatrudnić. Wirtualne targi pracy funkcjonują w cyberprzestrzeni. Tam pracodawcy mają stoiska jak na tradycyjnych targach. Mogą tu przedstawić swoją firmę i jej programy kariery, porozmawiać z odwiedzającymi targi, otrzymać od kandydatów CV lub wypełnioną elektroniczną aplikację. Kandydaci zwiedzają targi myszką, sami decydują, które organizacje odwiedzą, natomiast pracodawcy siedzą za klawiaturą swojego komputera. Dla ułatwienia i wygody kandydatów przestrzeń targowa podzielona jest na pokoje branżowe. Każdy pracodawca może zdecydować, w którym pokoju chce się wystawiać. Jeśli działa w kilku branżach może wybrać kilka pokoi. Te pokoje to, na przykład [na podstawie materiałów V. Wirtualnych Targów Pracy 2012 w Warszawie]: doradztwo księgowe i audyt, farmaceutyka, finanse i bankowość, TI i nowe technologie, media, agencje doradztwa personalnego, handel i sprzedaż, przemysł, turystyka zagraniczna. Wirtualne targi pracy są promowane na największych polskich serwisach internetowych (np. gazeta.pl, onet.pl, wp.pl, pracuj.pl). Efektem udziału w nich jest między innymi: możliwość dotarcia do szerokiej grupy studentów i absolwentów, studiujących w Polsce oraz Polaków studiujących za granicą, wykorzystujących Internet w codziennej pracy, możliwość dotarcia do osób z doświadczeniem, które ukończyły studia kilka lat temu, już pracują i nie odwiedzają targów pracy na uczelniach, brak kosztów związanych z fizycznym uczestnictwem przedstawicieli firmy podczas wydarzenia rekrutacyjnego oraz związanych z produkcją materiałów reklamowych, oszczędność czasu poświęconego na dojazdy do miast, gdzie odbywają się tradycyjne targi pracy, budowanie wizerunku pracodawcy jako organizacji wykorzystującej nowoczesne technologie w komunikacji z potencjalnymi pracownikami. Wirtualne organizacje powstają i funkcjonują dzięki ICT rys. III

215 Zarządzanie i informatyka cz. III Rysunek III.12. Rola i miejsce ICT w procesie wsparcia poszczególnych faz życia organizacji wirtualnej Źródło: A. Jurga [2009] Jak pisze A. Jurga [2009] komentując przedstawiony rysunek: w fazie identyfikacji ICT mogą bezpośrednio wpływać na warunki realizacji jej poszczególnych etapów. Bieżącą obserwację zachowania się różnych segmentów rynku umożliwiają powszechne już dzisiaj usługi Internetu takie, jak: strony WWW, bazy danych on-line (dostępne w Internecie), czy grupy dyskusyjne. Analizując pozyskane informacje kreator organizacji wirtualnej (faza kreowania) ma możliwość wychwycenia pojawiających się okazji rynkowych. Ponadto kreator, wykorzystując na przykład własne bazy danych o zrealizowanych wcześniej przedsięwzięciach biznesowych, czy dostęp do grup dyskusyjnych, może dokonać: analizy szans i ryzyka podjęcia przedsięwzięcia w celu wykorzystania zaobserwowanych okazji rynkowych wybrać takie zadania do realizacji przez organizację wirtualną, których urzeczywistnienie według kreatora, mają największe szanse powodzenia. W fazie formowania i projektowania organizacji wirtualnej, kreator wykorzystując lokalne bazy danych własne i partnerów, elektroniczne prezentacje firm (np.: na płytach CD), programy tzw. inteligentnych agentów umożliwiających wyszukiwanie informacji według złożonych kryteriów, programy do elektronicznych konfiguracji kontraktów czy oprogramowanie kalkulacyjne, ma możliwość: skomponowania puli kompetentnych partnerów w celu realizacji pojawiającego się na rynku zapotrzebowania na określony produkt, 215

216 Wirtualizacja i jej elementy wyboru, weryfikacji i ostatecznego zatwierdzenia partnerów-uczestników sieci, sformowania systemu powiązań organizacyjnych pomiędzy kreatorem a partnerami sieci. Po zakończeniu procesu projektowania i formowania, organizacja wirtualna wkracza w fazę działalności operacyjnej. Na fazę składają się procesy bezpośrednio związane z przygotowaniem, realizacją, zarządzaniem i kontrolą operacyjnych zadań organizacji wirtualnej. Istotne jest w niej między innymi: właściwe zarządzanie finansami, zapewniające płynność finansową organizacji, realizowanie strategii marketingowej, kontrola realizacji działalności operacyjnej przeprowadzana przez koordynatora sieci. Za efektywność realizowanego zadania odpowiedzialni są wszyscy, którzy tworzą WO. Dlatego szczególnie istotne jest zapewnienie efektywnej komunikacji, jasnego i jednoznacznego formułowania zadań oraz harmonogramu ich realizacji. Faza działalności operacyjnej jest najważniejszym etapem cyklu życia organizacji wirtualnej Technologie wirtualne - TW Wyobraźmy sobie wielką tablicę, gdzie możemy zobaczyć, co dzieje się w naszym przedsiębiorstwie, w naszym regionie czy państwie. To co do tej pory było tylko elementem bajek, gdzie królewna mówiła do zaczarowanego lustereczka lustereczko powiedz przecie, kto jest najpiękniejszy na świecie stało się dzięki technologii wirtualnej prawdą. Tylko nie lusterko, a wirtualna tablica, tzw. kokpit zarządzania przedstawia informacje o naszej sytuacji na rynku. Technologia wirtualna przyczyniła się do powstania nowych możliwości rozwoju społeczeństwa, a szczególnie nowych, bardziej użytecznych niż dotychczasowe, generacji systemów zarządzania. Dzięki TW nie można obecnie kwestionować historycznego już stwierdzenia P. Druckera [1973] o tym, że nie ma nierozwiniętych krajów są tylko kraje o nierozwiniętym zarządzaniu. Technologia ta bowiem dała zupełnie nowe i bardziej doskonałe narzędzia wspomagające zarządzanie. Problem, który przed nami stoi jest tym trudniejszy, że pojęcie technologii wirtualnej w literaturze przedmiotu nie jest jednoznacznie przestawiane [G.C. Burdea, 2003]. Teorie, na podstawie których mogło dojść do rozwoju wirtualnych technologii to: Wirtualna rzeczywistość (Virtual Reality) [H. Rheingold, 1991]. Wirtualny świat (Virtual World) [P. E. Conolly, 2005]. Cyberprzestrzeń (Cyberspace) [M. Smith, P. Kollock (red.), 2001]. Można powiedzieć, że technologia wirtualna to rewolucyjny wynalazek na miarę odkrycia koła, elektryczności czy druku. Spowodowała ona powstanie największego rynku 216

217 Zarządzanie i informatyka cz. III w dziejach cywilizacji, czyli e-rynku. Jest ona na pewno technologią, która jest użyta do wytwarzania produktów i usług, rzeczywistych lub wirtualnych. Posługuje się odmiennymi niż technologia tradycyjna narzędziami, jak na przykład: maszyny wirtualne, modelowanie, symulacja. Technologia wirtualna oznacza również całokształt wiedzy dotyczącej powstania wirtualnego produktu, takiego jak na przykład: wirtualna organizacja, wirtualna edukacja, wirtualny zespół, wirtualna rzeczywistość. Dla powstania takiego produktu niezbędna jest wiedza o teleinformatycznych narzędziach komunikacji, a w tym o platformach komunikacyjnych, systemach multimedialnych, portalach. Technologię wirtualną rozpatruje się jako taki rodzaj technologii informacyjnej, która pozwala na oddziaływanie na sterowane przez komputer środowisko rzeczywiste, bądź emulowane komputerowo. Ten ostatni aspekt sprowadza się do symulacji komputerowych zastępujących posługiwanie się tradycyjną fizyczną rzeczywistością. W konsekwencji możemy zbadać interesujący nas problem lepiej i bez ponoszenia osobistego ryzyka (badania nad reakcjami termojądrowymi lub wpływem skażenia radioaktywnego). Modelowanie komputerowe pozwala nam na rozszerzenie możliwości naszego działania w zmieniającym się otoczeniu, na sprostanie konkurencji i uzyskanie nowych doświadczeń bez konieczności podejmowania prób w realnym świecie. Technologia wirtualna dała nowy impuls ekonomii i zarządzaniu. Spowodowało, to, że musimy zrewidować nasze dotychczasowe spojrzenie na teorie ekonomii i zarządzania. Rewolucja w zarządzaniu informacją, a w tym zarządzanie wiedzą, pozwoli na przyczynienie się do rozwiązania wielu problemów współczesnego świata i do wzrostu zamożności społeczeństwa. Istniejące między tymi elementami relacje mają postać różnorodnych powiązań i są wyznaczone przez przyjęte procedury i protokoły komunikacyjne. Cechą charakterystyczną cyberprzestrzeni jest wielokierunkowość powiązań i niemożność określenia jej granic za pomocą miar fizycznych. Komputery w cyberprzestrzeni są powiązane między innymi przez: sieć WWW, elektroniczną wymianę dokumentów EDI, transmisje multimedialne (multicast), P2P (peer to peer) lub inne rozwiązania. W tej przestrzeni czas przesyłania danych i wiedzy z odpowiednich baz (danych, wiedzy), jak i czas trwania procesu podejmowania decyzji jest bardzo krótki i często wyraża się ułamkami sekund [J. B. O'Donnell, B. C. Glassberg, 2005]. W konsekwencji, podstawowe problemy zarządzania, jakimi są wspomniana wcześniej gospodarka w warunkach niedoboru zasobów, rozwiązywane są za pomocą nowych, niestosowanych dotychczas form, jak (1) nowej formy rynku czyli rynek wirtualny i (2) nowej formy organizacji czyli organizacje wirtualne. Nowa sytuacja w zarządzaniu generuje nowe, nieoczekiwane dotychczas efekty, ale też musimy być przygotowani na straty i przestępstwa, z którymi dotychczas nie mieliśmy do 217

218 Wirtualizacja i jej elementy czynienia. Wiedza może być tutaj zarówno wykorzystywana w służbie społeczeństwa, jak i przeciw niemu w formie np. tzw. cyberterroryzmu. Pisząc o technologii wirtualnej i jej zastosowaniach należy zwrócić uwagę na te cechy, odróżniające ją od technologii tradycyjnych. Mają one charakter makro i mikroekonomiczny. Do wyróżników makro należy między innymi: tworzenie społeczeństwa informacyjnego opartego na wiedzy, które możemy też nazwać społeczeństwem wirtualnym, powstanie nowych elektronicznych form globalnych organizacji, jak i globalnego rynku, które stopniowo zastępują stare tradycyjne struktury oraz powodują zmiany kulturowe w systemach zarządzania, tzw. zarządzanie międzykulturowe oparte na wiedzy, tworzenie narzędzi i procedur dla transformacji małych i średnich organizacji w konkurencyjne międzynarodowe organizacje. Do wyróżników mikro z kolej zaliczyć możemy: bezpośredni system przekazywania danych i wiedzy; eliminacja ogniw pośrednich oraz tworzenie tzw. hub(ów) umożliwia decentralizację i demokratyzację zarządzania, prowadzącą do zaniku tradycyjnej hierarchicznej struktury zarządzania, tworzenie płynnych, elastycznych form organizacyjnych, tzw. wirtualnych grup (teamów) ukierunkowanych na dzielenie się wiedzą w trakcie realizacje zadań, podlegających zasadom zarządzania procesami, odmienne, niż w organizacjach tradycyjnych, kształtowanie się takich podstawowych elementów rachunku ekonomicznego, jak: nakładów inwestycyjnych, krańcowych kosztów produkcji i zależności tych kosztów od woluminu produkcji, stosowanie takich metod i technik zarządzania, jak zarządzanie wiedzą, w tym zastosowanie złożonych systemów ekspertowych, które pozwalają na szybkie podejmowanie decyzji w stale zmieniającym się świecie. Technologia wirtualna pozwala na osiągnięcie nowej jakości w procesie zarządzania. W Unii Europejskiej realizowana jest z jej użyciem inicjatywa pod nazwą Strategia eeuropa. Ma ona na celu upowszechnienia informacji i wiedzy. Szczególnie dotyczy to działań mających za zadanie zwiększenie produktywności przez dostarczenie wiedzy o nowych rynkach i usługach publicznych. Podstawowe pytanie metodologiczne, które zadajemy przy rozpatrywaniu nowych rozwiązań są następujące: Po co to robimy? Jakich spodziewamy się efektów? Jakie występują zagrożenia? Przez nowe rozwiązania rozumiemy możliwości, jakie daje nam technologia wirtualna, a które nie występują przy zastosowaniu tradycyjnych rozwiązań. W tabeli III.3 przedstawiamy wybrane możliwości, jakie niesie TW. Może ich być znacznie więcej, szczególnie jeśli uwzględnimy różne sfery działania, jak np.: medycyna, rolnictwo, transport. 218

219 Podmiot działania Zarządzanie i informatyka cz. III Tabela III.3. Przykładowe zastosowania Technologii Wirtualnej Człowiek Organizacja Wirtualne organizacje System organizacji Sfera działania Biznes Administracja Edukacja Kultura Bankowość elektroniczna, kokpit zarządzania, Wirtualny team, Udział w przetargu na realizację zamówienia Zeznania podatkowe Wirtualny uniwersytet, zdalne nauczanie Zdalne nauczanie Wirtualne muzea, galerie sztuki E-market E-government Wirtualne światowe zbiory biblioteczne Wybór filmu Wirtualne światowe zbiory muzealne Źródło: opracowanie własne. Sukces poszczególnych osób czy też organizacji coraz częściej zależy od tego, czy mają dostęp do TW, i czy potrafią się ją skutecznie posługiwać. I tak na przykład: TW zmienia charakter kontaktu między uczestnikami procesu handlowego w procesie negocjacji. Nie jest to tradycyjny bezpośredni kontakt między klientem a sprzedawcą, ale za pośrednictwem systemu informatycznego, np. systemu klasy MRP/ERP czy też CRM (Consumer Relation Management). Największy wpływ TW wywiera na systemy komunikacyjne. Tradycyjne systemy komunikacyjne są coraz częściej zastępowane, lub modyfikowane, dzięki jej zastosowaniu. W odróżnieniu od jeszcze dość powszechnych systemów tradycyjnych, nowe systemy komunikacyjne funkcjonują w tzw. cyberprzestrzeni. Cechą charakterystyczną cyberprzestrzeni, jak wcześniej zaznaczono, jest to, że nie jest istotne: miejsce, czas ani droga realizacji poszczególnych transakcji. Szacunkowo największe zastosowania technologii wirtualnej przejawiają się w: wirtualnych organizacjach i e-government skala makro, wirtualnych zespołach i bankowości elektronicznej skala mikro. Można oszacować, że to właśnie one pochłaniają ok. 80% wszystkich zastosowań TW. Przyszłość to bardziej szeroka gama zastosowań. Wydaje się jednak, że przede wszystkim e-edukacja w różnych jej formach (wspomagająca, samodzielna), której rozwój, jak wykazuje się w literaturze, jest szczególnie burzliwy. W literaturze przedmiotu analizowane są różne narzędzia zarówno hardwarowe, jak i softwarowe, które używane są do tworzenia wirtualnych produktów. Kryterium wyboru stanowi ich mocne związanie z przedstawionymi w książce aplikacjami technologii wirtualnej. Narzędzia te uznawane są za elementy technologii wirtualnej. 219

220 Wirtualizacja i jej elementy Do elementów stanowiących TW można zaliczyć między innymi: Wirtualną sieć prywatną VPN (Virtual Private Network). Maszyny wirtualne. Narzędzia do budowy wirtualnych graficznych modeli rzeczywistości. Wirtualna sieć prywatna VPN (Virtual Private Network). System komunikacji w organizacjach wirtualnych lub w tradycyjnych, przestrzennie rozproszonych, czy też zatrudniających pracowników mobilnych, np. działających w formie wirtualnych grup (teamów), wymaga poniesienia dużych kosztów na zapewnienie łączności między rozproszonymi częściami przedsiębiorstwa. Tradycyjne korzystanie z dostępu komutowanego (Remote Access Services RAS) lub dzierżawa łączy telekomunikacyjnych w postaci rozległej sieci korporacyjnej (WAN) są skutecznym, ale i drogim sposobem utrzymywania łączności. Konkurencyjnym wariantem jest zastosowanie Internetu jako najtańszego medium lub VPN pozwalającej na realizację wymagań poufności i bezpieczeństwa komunikacji w organizacji lub zespole w obrębie sieci publicznej [B. Hallberg, 2000]. Określenie wirtualna oznacza, że sieć ta istnieje jedynie jako struktura logiczna działająca w rzeczywistości w ramach sieci publicznej, w odróżnieniu od fizycznej sieci prywatnej, która powstaje na bazie specjalnie dzierżawionych w tym celu łącz. Pomimo takiego mechanizmu działania, stacje końcowe mogą korzystać z VPN dokładnie tak, jak gdyby istniało między nimi fizyczne łącze prywatne. Sieci VPN mogą łączyć dwie i więcej sieci lokalnych (LAN-to-LAN). Zastępują one korporacyjne sieci rozległe, lub stacje domowe zdalnych użytkowników czy komputery przenośne pracowników mobilnych z siecią lokalną (client-to-lan). Zastosowania sieci typu VPN redukuje do minimum liczbę niezbędnych do obsługi sieci specjalizowanych urządzeń takich, jak: routery, serwery, modemy. Konsekwencją dla organizacji jest znaczący spadek koszów ponoszonych na amortyzację poniesionych nakładów inwestycyjnych oraz kosztów eksploatacyjnych. Efekty uzyskane dzięki sieciom wirtualnym VPN widoczne są przede wszystkim w organizacjach wirtualnych działających globalnie i mających dużą liczbę zamiejscowych rozproszonych lub zagranicznych oddziałów, zatrudniających pracowników mobilnych (np. sprzedawców), zlecających wykonywanie prac biurowych. Możliwość pracy zdalnej przekłada się na obniżenie kosztów stworzenia miejsca pracy np. zakupu lub wynajmu dodatkowej powierzchni roboczej, mebli, sprzętu komputerowego i biurowego. Stwarza też szansę pozyskania wysoko kwalifikowanych pracowników niezależnie od miejsca ich zamieszkania. Bezpieczna telepraca za pośrednictwem VPN zwiększa elastyczność zatrudnienia i pozwala przenieść wirtualnie część pracy w regiony o niższych jej kosztach (np. niższych średnich płacach). Według ekspertów z Gartner Group, głównymi motywami stosowania VPN w przedsiębiorstwach amerykańskich są: redukcja kosztów, możliwość zdalnego dostępu do zasobów firmowych oraz bezpieczeństwo transmisji i samych zasobów. Uzupełniające czynniki to: szybkość dostępu, elastyczność i wygoda, łatwość wdrożenia czy zwiększona wydajność pracy. Dla e-biznesu nie bez znaczenia jest możliwość udrożnienia, dzięki VPN, kanałów dystrybucji produktów (szybkie 220

221 Zarządzanie i informatyka cz. III udostępnienie informacji o produktach i usługach ich dystrybutorom) lub np. zwiększenie możliwości realizacji transakcji z pojedynczym klientem. Rozwiązania oparte na VPN stosowane są np. w sieciach korporacyjnych firm, których zdalni użytkownicy pracują ze swoich domów na niezabezpieczonych łączach. Wirtualne Sieci Prywatne charakteryzują się dość dużą efektywnością, nawet jeżeli pracujemy na tzw. słabych łączach (dzięki kompresji danych) oraz wysokim poziomem bezpieczeństwa (ze względu na szyfrowanie). Rozwiązanie to sprawdza się w organizacjach, których pracownicy często podróżują lub korzystają z możliwości telepracy np. przedstawiciele handlowi. Maszyna wirtualna (virtual machine, VM). Jest to przyjęty w literaturze termin, który określa zbiór programów tworzących środowisko uruchomieniowe dla innych programów [Lindholm, Yellin, 1999]. Dzięki niej program uruchomiony na maszynie wirtualnej myśli, że działa na rzeczywistym sprzęcie, podczas gdy w istocie pracuje na sprzęcie wirtualnym, udawanym przez odpowiednie oprogramowanie (maszynę wirtualną). Wykonywanym programem może być zarówno pojedyncze zastosowanie, jak i cały system programów takich, jak system operacyjny lub kolejna maszyna wirtualna. Są one zupełnie odizolowane przez maszynę wirtualną od maszyny fizycznej, w odróżnieniu od klasycznego systemu operacyjnego, który tylko zarządza uruchamianiem aplikacji na maszynie fizycznej. Rysunek III.13. Funkcjonowanie wirtualnej maszyny Źródło: 221

222 Wirtualizacja i jej elementy Przedstawiona na rysunku III.13 wirtualna maszyna to rodzaj komputera w komputerze: program do wirtualizacji w oknie Windows tworzy kompletny, autonomiczny pecet, który zawiera wszystko, co powinien: pamięć operacyjną, procesor, kartę graficzną i twardy dysk. Program rezerwuje część zasobów naszego prawdziwego peceta dla maszyny wirtualnej. Ile? O tym decyduje użytkownik, który również wybiera system operacyjny do swojego wirtualnego komputera. Zalety komputerów wirtualnych to: ich awarie nie zawieszają prawdziwego komputera; łatwo stworzyć ich kopię; udostępniają bezpieczne środowisko testowania programów i systemów operacyjnych (np. Linuksa); pozwalają surfować po Internecie bez obaw o infekcję prawdziwego komputera. Wady komputera wirtualnego to m.in.: potrzebna jest dodatkowa licencja na Windows instalowany na wirtualnym komputerze, bo sprzęt komputera wirtualnego odbiega od wyposażenia peceta realnego, może się więc zdarzyć, że Windows rozpozna komputer wirtualny jako oddzielne urządzenie i odmówi akceptacji numeru licencji (nie zawsze jednak tak się dzieje); mniejsza wydajność niż prawdziwego komputera; duże zużycie zasobów prawdziwego komputera; słaba wydajność graficzna (nie zadziałają nam żadne nowoczesne gry). Przykładem dla obecnych zastosowań może być maszyna wirtualna, która obsługuje m.in. standardowy kod Java. Efekt jej działania to zminimalizowanie wpływu błędów w aplikacjach. Zastosowanie tego rozwiązania przyczyniło się do: znacznej redukcji kosztów wsparcia technicznego w budowie platform dla organizacji (przykładem jest platforma SAP NetWeaver 6 ), ułatwienie administracji aplikacjami Java w przedsiębiorstwie, a także poprawa poziomu obsługi klienta. Stabilne środowisko aplikacji Java jest nie tylko korzystne dla użytkowników końcowych, ale również oszczędne redukuje czas oraz koszty administracji i programowania w Java. Podczas uruchamiania takich aplikacji, jak system sprzedaży przez Internet, błąd aplikacji spowodowany przez jednego użytkownika często ma wpływ na dużą liczbę pozostałych użytkowników, powodując np. zamrożenie ekranów, utratę danych i konieczność ponownego przypisania informacji. Nowa technologia maszyny wirtualnej Java pozwala uniknąć kosztownych opóźnień i nieefektywności podczas tworzenia i testowania aplikacji. Ponieważ Java jest jedną z najczęściej stosowanych technologii w programowaniu aplikacji tworzonych na dużą skalę i żadna 6 SAP NetWeave jest to platforma programowania, testowania, wykorzystania i zarządzania aplikacjami WWW i usługami sieciowymi opartymi na Java 2, Enterprise Edition (J2EE) oraz ABAP TM. 222

223 Zarządzanie i informatyka cz. III implementacja nie jest wolna od błędów, stabilność aplikacji Java nadal pozostaje prawdziwym problemem. powiedział Michael Barnes, dyrektor w META Group. Rozwiązanie oparte na standardach J2EE, zapewniające stabilność i niezawodność aplikacji Java, będzie korzystne dla przedsiębiorstw, które chcą zarządzać aplikacjami Java po niskich kosztach. Technologia maszyny wirtualnej obejmuje także kilka innych nowych funkcji, które ułatwiają szybkie rozwiązywanie problemów administratorom i programistom zarządzającym aplikacjami Java. Mogą oni szybko aktywować tryb śledzenia procesu użytkownika w systemie produktywnym. Dzięki temu wyeliminowano konieczność replikacji błędów do środowiska testowego, co było nieefektywne. Obecnie administratorzy mogą szybko prześledzić błędy w systemie minimalizując liczbę przestojów aplikacji. Metody pełnej wirtualizacji opierają się na stosowaniu złożonych technik programistycznych. Pozwalają one przechwytywać i wirtualizować instrukcje, modyfikując je na poziomie binarnym. W metodach tych instrukcje są przechwytywane w fazie czasu uruchomienia (run-time), modyfikowane i przekazywane do monitora maszyny wirtualnej (VMM Virtual Machine Monitor). Technologia tworzenia wirtualnych modeli graficznych rzeczywistości. Wiele sytuacji biznesowych i gospodarczych wymaga przedstawienia obrazu rzeczywistości za pomocą odpowiednich modeli. Na modelach graficznych oparte są, na przykład, systemy transportowe. Ponieważ obecnie wszystkie urządzenia komputerowe wyświetlają dwuwymiarowe obrazy, dlatego tam, gdzie potrzebna jest grafika trójwymiarowa stosowane są rozwiązania na bazie geometrii wykreślnej. Główne zastosowania TW w technologii tworzenia wirtualnych modeli graficznych rzeczywistości dotyczą wspomagania projektowania inżynierskiego czyli systemów typu CAM/CAD. Modele trójwymiarowe przedstawione są w rzucie prostokątnym lub w rzucie perspektywicznym. Efekty wizualne rzutu perspektywicznego (skrót perspektywiczny) jest bardzo podobny do efektów obserwowanych przy oglądaniu fotografii. W grafice trójwymiarowej istnieje pojęcie wirtualnej kamery, która tworzy zdjęcie sceny istniejącej w pamięci komputera. Obrazy są tworzone w technice rastrowej lub wektorowej przedstawia się obrysy, szkice itp. Grafika rastrowa jest to prezentacja obrazu za pomocą siatki odpowiednio kolorowanych pikseli na monitorze komputera, drukarce lub innym urządzeniu wyjściowym. Technologia wirtualna pozwala na uzyskanie realizmu obrazów generowanych przez komputer, który jest w większości zastosowań bardzo ważny. Między innymi modeluje się oświetlenie oraz nadaje się kolor i fakturę trójwymiarowy obiektom, określa się cienie rzucane przez obiekty, odbicia zwierciadlane, załamanie i rozpraszanie światła itd. Obecną barierą tworzenia wirtualnych modeli graficznych rzeczywistości są kosztowne obliczenia. W przypadku animacji ważne jest także, aby ruch obiektów był możliwie najbardziej zbliżony do zachowania przedmiotów w świecie rzeczywistym. Jak może TW być pomocna dla budowy świata realnego pokazuje przykład filmu Park jurajski. 223

224 Wirtualizacja i jej elementy Takim modelem są również awatary, które zostały spopularyzowane dzięki znakomitemu filmowi o tym samym tytule. Awatar (także avatar) to reprezentacja uczestników światów wirtualnych. Dotyczy zarówno rzeczywistych ludzi uczestniczących pod ich postacią w tych światach, jak i postaci generowanych przez samo oprogramowanie. Awatary są używane w grach komputerowych oraz rzeczywistości wirtualnej. Nazwa ta pochodzi od sanskryckiego słowa awatara, oznaczającego w hinduizmie wcielenie bóstwa, które zstępuje z nieba na ziemię w postaci śmiertelnej ludzkiej, zwierzęcej lub mieszanej. Awatar przyjmuje rozmaite formy od niewielkiej grafiki rastrowej (bitmapowej), często bardzo uproszczonej lub symbolicznej, po złożone trójwymiarowe modele, reprezentujące postać w grze komputerowej lub rzeczywistości wirtualnej (jak np. Second Life). Użytkownicy mogą nadać awatarowi swojemu wirtualnemu wizerunkowi imię i nazwisko lub nick oraz modelować jego wygląd wybierając m.in. kolor włosów, fryzurę, kolor oczu, wzrost, wagę, sylwetkę, ubranie, płeć oraz cechy psychofizyczne wpływające na zachowanie awataru Efekty i bariery zastosowania wirtualizacji Efekty i bariery zastosowania wirtualizacji można rozpatrywać z punktu widzenia całości przedsięwzięcia, jak i jego poszczególnych rozwiązań. Zarząd przedsiębiorstwa może sobie zadać pytanie, np.: czy opłaca nam się założenie sklepu internetowego? Rozpatrując wirtualizację częściową można zapytać: czy dla uatrakcyjnienia funkcjonowania banku opłacalne jest wzbogacenie oferowanych produktów o realizację przekazów pieniężnych przez Internet? W książce analizujemy problematykę wirtualizacji w ujęciu całościowym. O efektach i barierach pisze się w wielu publikacjach, które miedzy innymi podane są w załączonej literaturze [W. Grudzewski, I. Hejduk (red.), 2002; K. Perechuda, 2005; J. Kisielnicki, H. Sroka, 2005]. Efekty całościowe otrzymane dzięki zastosowaniu technologii wirtualnej możemy rozpatrywać ze względu na różnorodne kryteria. Jeżeli za podstawę przyjmiemy rodzaje efektów, to możemy je podzielić umownie na: techniczne, ekonomiczne, organizacyjne, oraz socjo-psychologiczne. Efekty techniczne to przede wszystkim umożliwienie korzystania z zasobów informacji i wiedzy, zwiększenie szybkości przetwarzania informacji i wiedzy, jak też zwiększenie ich dokładności, szczegółowości oraz dostosowanie formy wydruków do indywidualnych wymagań użytkowników. Takim efektem będzie poszerzenie granic korzystania z zasobów wiedzy przez wiele grup użytkowników. Jeżeli dzięki technologii wirtualnej będzie możliwe zniwelowanie bariery językowej i zbudowanie wirtualnego tłumacza, to wtedy będziemy 224

225 Zarządzanie i informatyka cz. III mogli powiedzieć, że funkcjonuje prawdziwe globalne społeczeństwo informacyjne. Wtedy uzyskamy dalsze efekty stosowania procesu wirtualizacji. Jest to niezmiernie trudne zadanie, które do tej pory widzimy tylko w kinie lub czytamy w książkach fantastycznonaukowych. Wierzymy jednak, że wirtualizacja, a w tym technologia wirtualna, pozwoli nie tylko na realizację filmu Park jurajsk, czy Shrek, ale również na to, aby każdy człowiek mógł bezpośrednio korzystać z oryginalnych japońskich czy tajlandzkich baz wiedzy nawet nie znając tego języka. Efekty ekonomiczne, to wspomaganie przez procesy wirtualizacji działań pozwalających na tworzenie nowego typu organizacji, stosowania narzędzi dla poprawy wyników działalności biznesowej, między innymi przez umożliwienie bieżącego nadzoru nad działalnością organizacji, jak też wszechstronnej analizy rynku, w tym analizy konkurencji. O tworzeniu organizacji pisano w tym punkcie już wcześniej natomiast problematyce narzędzi poświęcono w części pierwszej książki opis funkcjonowania tzw. kokpitu zarządzania. Dzięki niemu mamy cały czas możliwość monitorowania realizowanych w organizacji procesów zarówno bieżących, jak i projektów strategicznych. Wirtualizacja umożliwia wspomaganie procesów podejmowania decyzji przez budowę modelu wirtualnej organizacji czy wirtualnego sektora. Posiadając odpowiednie modele odwzorowujące obecną lub przewidywaną rzeczywistość, można przeprowadzać optymalizację i symulację oraz przewidzieć kształtowanie się w przyszłości kluczowych wskaźników biznesowych. Szczególnie efektywne wydaje się zastosowanie technologii wirtualnej do podejmowania decyzji giełdowych. Najbardziej istotne efekty zastosowań technologii wirtualnej to obniżenie kosztów badań w stosunku do badań prowadzonych metodami tradycyjnymi. Jednym z takich przykładów są zastosowania realizowane przez autora dla budowy planów przestrzennego zagospodarowania kraju. Zastosowanie technologii wirtualnej pozwala na obniżenie nakładów inwestycyjnych przez uniknięcia podejmowania tzw. chybionych decyzji. Efekty organizacyjne polegają na usprawnienie struktur i procesów zarządzania. Wirtualizacja jako technika stosowana w e-zarządzaniu umożliwia budowę modelu całej organizacji lub jej elementów, co pozwala na określenie najbardziej właściwych kierunków doskonalenia organizacji. Do tej grupy efektów, uzyskanych dzięki wirtualizacji, można zaliczyć usprawnienie obiegu dokumentacji, jak też wyeliminowanie niepotrzebnych operacji organizacyjnych. Pozwala też na zastosowanie i wykorzystanie możliwości, jakie dają m.in. techniki organizacyjne typu: reengineering i x-engineering, analiza ścieżki krytycznej, metoda zarządzania przez cele i wiele innych. Należy tu zwrócić uwagę na efekty, które można otrzymać dzięki zastępowaniu tradycyjnych zespołów elastycznymi wirtualnymi grupami. Stosowane są tu narządziła programistyczne typu workflow (przepływ pracy). Według organizacji WFMC (WorkFlow Management Coalition) workflow to: automatyzacja procesów biznesowych, w całości lub w części, podczas której dokumenty, informacje lub zadania są przekazywane od jednego uczestnika do następnego, według odpowiednich 225

226 Wirtualizacja i jej elementy procedur zarządczych. W literaturze pojęcia workflow używa się dla opisania oprogramowania stosowanego do wspomagania pracy grupowej. Efekty socjo-psychologiczne polegają na tym, że dzięki zastosowaniu wirtualizacji możemy lepiej poznać potrzeby społeczne pracowników ich odczucia. Co jest istotne, to technologia wirtualna pozwala na przezwyciężenie, a na pewno na zmniejszenie, bariery oporu przed korzystaniem z określonych rozwiązań TI. W tym segmencie zastosowań wirtualizacji zwraca się szczególnie uwagę na te rozwiązania, które pozwalają na budowę wirtualnego modelu organizacji czy też wirtualnego obrazu rynku. Ludzie mają możliwość ćwiczenie na modelu różnych sytuacji, których mogą się spodziewać w świecie realnym. W ten sposób wejście do tzw. realu odbywa się bezkonfliktowo i szybciej niż przy stosowaniu tradycyjnych procedur. Efektem psychologicznym mającym przełożenie na efekty ekonomiczne jest możliwość współpracy partnerów, którzy w warunkach technologii tradycyjnej nie współpracowali ze sobą, np. z powodu różnic kulturowych. Równocześnie należy pamiętać, że zastosowania technologii wirtualnej to też nowe bariery, których nie było w podejściu tradycyjnym. Bariery te można podzielić, podobnie jak i efekty, na cztery kategorie: techniczne, ekonomiczne, organizacyjne, socjo-psychologiczne. Przedstawiony podział nie jest ostry, a większość istniejących barier, podobnie jak i efektów, związana jest z dwoma, trzema lub czteroma kategoriami. Bariera techniczna jest najbardziej odczuwalna przez użytkownika. Zastosowanie technologii wirtualnej, jak już wcześniej wspomniano, wymaga użycia odpowiedniego sprzętu i oprogramowania. Do bariery technicznej można zaliczyć też brak odpowiednich podręczników (manuali) opisujących system i pozwalających na korzystanie z niego. Elementem barier technicznych mogą być również poszczególne części systemu informatycznego, jak np. złożony i trudny do opanowania przez użytkownika interface, brak synchronizacji poszczególnych jego części. Wewnętrzne relacje zbioru barier technicznych polegają na tym, że jeżeli zdecydujemy się na określony typ oprogramowania, to musimy dysponować odpowiednim sprzętem. Ponieważ wirtualizacja w dużym stopniu pozwala na modelowanie świata realnego, dlatego też posiadanie odpowiednich narzędzi sprzętowoprogramowych jest konieczne dla realizacji tego zadania. Szczególnie istotne jest posiadanie odpowiednich urządzeń do otworzenia grafiki, w tym tzw. GUI czyli Graficzny Interface Użytkownika. Bariera ekonomiczna polega na tym, że z braku odpowiednich środków finansowych nie możemy zastosować wirtualizacji. Mimo wysokiej oceny ekonomicznej i społecznej musimy ograniczyć zawęzić zakres zastosowań technologii wirtualnej ponieważ nie dysponujemy środkami na zakup odpowiedniego sprzętu i oprogramowania. Często jednak organizacja nie mając własnych środków decyduje się na zakup technologii wirtualnej w leasingu. W ten sposób użytkownik może wprowadzić technologię wirtualną od zaraz mając skromne środki własne, co przyspieszy uzyskanie efektów z tej technologii. 226

227 Zarządzanie i informatyka cz. III Bariery organizacyjne występują również często w praktyce gospodarczej. Wiele zastosowań technologii wirtualnej nie zostało wdrożonych, ponieważ przeszkodą był brak przygotowania organizacji do ich eksploatacji. I tak, stosując modele pozwalające na prezentację realnej rzeczywistości winniśmy pamiętać o konieczności stałej aktualizacji wiedzy zawartej w odpowiednich bazach. Wymaga to z kolei dysponowania odpowiednimi procedurami konserwacji oprogramowania i zasilania posiadanych baz w nową i relewantną wiedzę. Dlatego też zastosowanie technologii wirtualnej wymagają służb, które możemy nazwać ATW czyli Administrator Technologii Wirtualnej. Bariera socjo-psychologiczna zastosowań technologii wirtualnej to znane zjawisko oporu wobec zmian. Wprowadzając zmiany zewnętrzne powodujemy powstawanie we wnętrzu organizacji działań wrogich tym zmianom. Można to zjawisko określić terminem bariery immunologicznej. Socjologia organizacji używa też terminu tzw. kooperacji negatywnej. Przejawia się ona w tym, że członkowie organizacji, w której mają nastąpić zmiany, starają się je dyskryminować i temu to właśnie celowi poświęcają swoją działalność. I tak, jeżeli stosując wirtualizację powodujemy uproszczenie procesu i redukcję zatrudnienia, to zagrożeni pracownicy starają się przedstawić zmiany w złym świetle. Przedstawiają je wtedy jako nieetyczne albo oparte na błędnych przesłankach. Bariera tego typu ujawnia się między innymi bardzo wyraźnie w zastosowaniach wirtualizacji w sektorze finansowym i bankowym. Jedną z przesłanek powodującą opory przed szerokim posługiwaniem się technologią wirtualną jest nieufność do tej formy świadczenia usług. Takie obawy możemy zakwalifikować jako czynnik psychologiczny. Rozpatrując efekty i bariery, które powodują, że nie pełne albo trudne jest zastosowanie technologii wirtualnej, należy mieć na uwadze, że nie wszystkie kraje są na tym samym poziomie rozwoju cywilizacyjnego. W tym aspekcie istnieją i to niekiedy znaczne różnice w możliwościach posługiwania się technologią informacyjną. Często też występują przeszkody natury prawnej. Są to takie przeszkody, jak na przykład brak uregulowań prawnych dla funkcjonowania organizacji wirtualnych i innych wirtualnych produktów. Co dalej? Technologia wirtualna rozwija się w dwóch kierunkach: 1. Obejmowanie swoim zasięgiem coraz to nowszych i trudniejszych zastosowań. Już niedługo nastąpi dzień, kiedy dzięki niej wszystko o czym człowiek zamarzy będzie mogło być zrealizowane jeśli nie w świecie realnym to na pewno w wirtualnym. 2. Udoskonalenie narzędzi tak, aby można było zrealizować te coraz bardziej skomplikowane i złożone zastosowania. Rozwój technologii wirtualnej to również dążenie do tego, aby te narzędzia były coraz tańsze i bardziej dostępne dla szerokiego grona użytkowników. 227

228 Wirtualizacja i jej elementy Technologia wirtualna jest na pewno jedną z dróg do budowy społeczeństwa informacyjnego opartego na zarządzaniu wiedzą [Woolgar (ed), 2003]. Jest to też droga do stosowania powszechnie dostępnej edukacji [P. E. Connolly, 2005]. Dzięki zbudowaniu ogólnie dostępnych wirtualnych platform edukacyjnych, każdy mieszkaniec naszego globu, który ma dostęp do komputera, będzie mógł zwiększać swoją wiedzę. Edukacja będzie powszechna. I tak jak już wirtualizacja stworzyła największy rynek w historii cywilizacji zostanie stworzony też największy system edukacyjny oraz system absorpcji wiedzy. Już obecnie możemy mówić o zrębach tworzenia społeczeństwa informacyjnego. Oczywiście mamy jedno, ale dość poważne ograniczenie, czyli dostęp do komputerów i Internetu. Jednak, jak pokazuje statystyki oraz działania międzynarodowych organizacji w tym ONZ, dostęp do technologii informacyjnej jako podstawowego elementu współczesnej infrastruktury zmienia się w postępie wykładniczym. Dla wielu ludzi świat zbudowany z pomocą TW może być jedyną szansa dla życia w społeczeństwie. Myślimy tu między innymi o niepełnosprawnych, którym pozwoli ona na przybliżenie świata realnego. Również testowanie różnego typu urządzeń na wirtualnych modelach powoduje skrócenie i zmniejszenie ryzyka w opracowaniu nowych rozwiązań i nowych produktów. Wiele osób, które nie miałyby szans korzystać w świecie realnym ze zdobyczy cywilizacji, dzięki wirtualizacji może je poznać i stosować w codziennym życiu. Szczególnie jest ona pożyteczna dla starych ludzi, którzy dzięki niej mogą brać udział w życiu publicznym [Raport Komitetu Prognoz PAN, 2008]. Technologia informacyjna tworzy coraz doskonalszy świat wirtualny. Środowisko wirtualne jest stworzone po to, aby użytkownik z rzeczywistego świata uczestniczył w wirtualnym świecie, który posiada te same właściwości co prawdziwy, tj. grawitację, topografię, czas, komunikację. Komunikacja, w pierwotnej formie, była wyrażana tylko za pomocą tekstu. Wraz z rozwojem TW możliwa jest już obecnie komunikacja głosowa, muzyczna, graficzna. Świat wirtualny pozwoli nam na poznanie tajników naszej rzeczywistości. Można mieć jednak nadzieję, że technologia wirtualna nie zbuduje świata doskonalszego od realnego. 228

229 Rozdział 10 O niektórych zastosowaniach procedur e-zarządzania w gospodarce E-administracja (E-Government) ICT wkroczyło również do, chyba najstarszej formy zarządzania, jaką jest administracja. Administracja (łac. administrare być pomocnym, obsługiwać, zarządzać, ministrare służyć) jest to działalność organizatorska realizowana przez aparat urzędniczy, obejmująca sprawy publiczne, regulowana przez ogólne normy prawne. W innym ujęciu może też oznaczać zarządzanie jakimikolwiek sprawami, własnymi (np. gospodarstwem domowym) lub cudzymi (np. czyimś przedsiębiorstwem). Jako system, administracja stanowi zbiór powiązanych ze sobą i współpracujących instytucji. W tym miejscu analizujemy problematykę administracji publicznej w układzie przedmiotowym. Administrację publiczną w ujęciu przedmiotowo-podmiotowym, zgodnie z definicją [H. Izdebski, M. Kulesza, 2004] jest to: zespół działań, czynności i przedsięwzięć organizatorskich i wykonawczych prowadzonych na rzecz realizacji interesu publicznego przez różne podmioty, organy i instytucje na podstawie ustawy i w określonych prawem formach. Według Kodeksu postępowania administracyjnego (K.p.a.) organami administracji publicznej są: ministrowie, centralne organy administracji rządowej, wojewodowie, działające w ich imieniu lub we własnym imieniu inne organy administracji rządowej (zespolonej i niezespolonej), organy jednostek samorządu terytorialnego oraz organy i podmioty, które są powołane z mocy prawa lub na podstawie porozumień do rozstrzygania spraw indywidualnych w drodze decyzji administracyjnych. Jednym z priorytetów każdego rządu jest sprawienie by administracja była przyjazna obywatelowi na każdym poziomie jego z nią kontaktów. Narzędziem, które może tę zasadę zrealizować jest e-administracja. Technologia informatyczna w tym przypadku obsługuje triadę: Administracja publiczna Obywatele Business (patrz rys. III.14). I tak według Komisji Unii Europejskiej e-administracja (e-government) jest to zbiór usług publicznych, który obejmuje 20 różnych usług publicznych świadczonych z zastosowaniem ICT. Większość tych usług (12) dotyczy osób fizycznych, natomiast pozostałe (8) podmiotów gospodarczych. Usługi realizowane w ramach e-government można podzielić na cztery grupy rodzajowe: zobowiązania podatkowe i opłaty, ogłoszenia i rejestracje, wypłaty zasiłków, zezwolenia i licencje. Podobne inicjatywy wykorzystujące metody ICT prowadzone są w wielu 229

230 O niektórych zastosowaniach procedur e-zarządzania regionach świata. Wszystkie one mają na celu budowę zrębów globalnego projektu tworzenia społeczeństwa poinformowanego, o którym będzie mowa w następnej części książki. Rysunek III.14. Relacje między użytkownikami e-administracji Źródło: opracowanie własne. E-Government (e-administracja), według definicji Komisji Europejskiej, jest stosowaniem ICT w administracji publicznej. Wiąże się to ze zmianami organizacyjnymi, nowymi umiejętnościami służb publicznych, które mają poprawić jakość świadczonych usług. Oczywiście wymaga ona wsparcia przez odpowiednią infrastrukturę zarządzania, która nosi nazwę technologii pracy biurowej [J. Korczak, 2013]. E-administracja to ciągły proces doskonalenia jakości rządzenia i świadczenia usług administracyjnych przez przekształcanie relacji wewnętrznych i zewnętrznych z wykorzystaniem Internetu i nowoczesnych środków komunikacji. Relacje zewnętrzne to relacje typu urząd obywatel, urząd podmiot gospodarczy oraz urząd usługodawca, natomiast spośród relacji wewnętrznych wyróżniamy urząd urząd oraz urząd pracownicy. Celem e-administracji jest tworzenie przyjaznej i efektywnej administracji zapewniającej wysoki poziom świadczonych usług. E-administracja ma uprościć załatwianie spraw urzędowych oraz umożliwić uzyskiwanie informacji na ich temat. Przyjęta forma pozwala na zebranie w jednym miejscu spraw należących do kompetencji różnych jednostek administracji publicznej i udostępnienia ich procedur w Internecie. Pierwsze dyskusje na temat e-government w Europie zaczęły się od raportu, opublikowanego w 1994 roku przez Komisję Europejską, zatytułowanego Europa i społeczeństwo globalnej informacji. Zalecenia dla Rady Europy (nazwany od jednego z autorów Raportem Bangemanna). Przedstawiał on kierunki rozwoju społeczeństwa globalnej informacji w Europie. Od tamtej pory koncepcja e-government, jako części składowej eeurope, jest 230

231 Zarządzanie i informatyka cz. III jednym z kluczowych problemów podejmowanych w Unii. W Polsce za początek e-government należy uznać rok Wówczas to Komitet Badań Naukowych opracował dokument, który został opublikowany pod zbiorczym tytułem Społeczeństwo Globalnej Informacji w warunkach przystąpienia Polski do Unii Europejskiej. Dziś materiał znamy jako oficjalny dokument Komitetu Badań Naukowych i Ministerstwa Łączności pt. Cele i kierunki rozwoju społeczeństwa informacyjnego w Polsce. W 2000 roku Sejm podjął także uchwałę o budowie społeczeństwa informacyjnego, a następnie w 2001 roku uchwalił istotne dla rozwoju e-administracji ustawy: wprowadzającą Biuletyn Informacji Publiczne (BIP), ustawę o dostępie do informacji publicznej oraz regulującą kwestię e-podpisu ustawę o podpisie elektronicznym. Kolejnym krokiem w rozwoju e-administracji było opracowanie dokumentu epolska, zawierającego plan działań na rzecz rozwoju społeczeństwa informacyjnego w Polsce, który wzorowany był na europejskim planie rozwoju eeurope. Dokument ten zaktualizowano w 2002 roku. Kolejna wersja tej strategii otrzymała nazwę epolska Wynik przyjęcia tego dokumentu to następny etap prac nad przyjazną administracją, a mianowicie przygotowanie koncepcji projektu Wrota Polski (centralnego systemu informatycznego, którego zadaniem miała być realizacja usług administracyjnych dla obywateli oraz podmiotów gospodarczych drogą elektroniczną) oraz dokumentu Strategia Informatyzacji Rzeczypospolitej Polskiej epolska. Podstawowym zadaniem budowanego centralnego systemu Wrota Polski miało być umieszczenie w sieci i dostęp online do wszystkich, dysponujących zapleczem informatycznym, serwisów administracji państwowej. W roku 2011 projekt Wrota Polski został zastąpiony przez projekt epuap, który rozwija jego założenia i realizuje jego pierwotne cele. Wśród najważniejszych funkcji, które ma realizować ten system są: usprawnienie przepływu informacji do obywatela, zapewnienie możliwości załatwiania spraw między obywatelem czy podmiotem gospodarczym a rządem drogą elektroniczną, możliwość składania za pośrednictwem Internetu wniosków o wydanie dokumentów, ułatwienie dostępu do danych medycznych i ubezpieczeniowych, wymiana informacji między urzędami on-line. Usługi e-administracji powinny być dostosowane do potrzeb klienta. Orientacja na klienta możliwa jest dzięki współistnieniu kontaktów osobistych oraz dostępu do różnych urządzeń, takich jak np.: Internet, kiosk informacyjny, telewizor, telefon komórkowy z WAP itp. Wykorzystanie technologii informatycznej w urzędzie powinno w konsekwencji doprowadzić do: oszczędności czasu (przedsiębiorcy, obywatela, urzędnika), oszczędności kapitału (przedsiębiorcy, obywatela, urzędnika), wzrostu funkcjonalności świadczonych usług, zwiększenia zakresu informacji, 231

232 O niektórych zastosowaniach procedur e-zarządzania zwiększenia przejrzystości procedur administracyjnych, eliminacji błędów (poprawnie zaprogramowany system działa według wprowadzonych algorytmów), poprawy dostępności (urząd czynny całą dobę przez 7 dni w tygodniu), integracji zasobów internetowych (ONE STOP SHOP), podejścia przedmiotowego, a nie podmiotowego (ważne jaką sprawę załatwiamy, a nie u kogo to robimy) zorientowanego na obywatela i przedsiębiorcę. Na pytanie, co powinno zawierać się w systemie e-administracji odpowiada rysunek III.15 Rysunek III.15. Priorytety w budowie e-administracji Źródło: R. Tadeusiewicz [2005], E-administracja jako narzędzie formowania społeczeństwa informacyjnego, mat. Forum informatyki w zarządzaniu. Realizacja zadań e-administracja i otwarty urząd ma na celu stworzenie e-usług wysokiej jakości. W szczególności będą rozwijane e-usługi w obszarach określonych jako priory- 232

233 Zarządzanie i informatyka cz. III tetowe w Programie Zintegrowanej Informatyzacji Państwa, czyli: sprawy administracyjne, w szczególności obywatelskie, rynek pracy, ochrona zdrowia, wymiar sprawiedliwości i sądownictwo, bezpieczeństwo i powiadamianie ratunkowe, prowadzenie działalności gospodarczej, zamówienia publiczne, podatki i cła, ubezpieczenia i świadczenia społeczne, prezentacja i udostępnianie danych przestrzennych. Elektroniczna Platforma Usług Administracji Publicznej ( to system informatyczny służący udostępnianiu obywatelom oraz instytucjom publicznym usług administracyjnych drogą elektroniczną. epuap to platforma [ dzięki której obywatele i przedsiębiorcy mogą załatwiać sprawy urzędowe. epuap to także portal, na którym urzędy mogą udostępniać usługi bez konieczności ponoszenia, części lub nawet całości, kosztów wymaganych do ich świadczenia. W Polsce, aby załatwić sprawy administracyjne, zwykle trzeba osobiście stawić się w odpowiednim urzędzie. Ponadto wymaga to wypełniania wielu wniosków, w których należy wpisywać te same dane. System epuap to zmienia. To alternatywa dla papierowej administracji. Z epuap-em można kontaktować się z dowolnego miejsca (dom, praca, podróż) i w dowolnym czasie (weekend, noc, wakacje) sprawy urzędowe można załatwiać przebywając nawet poza granicami Polski. Przewidywane korzyści z zastosowania e-administracji w świecie realnym przedstawia rysunek III.16. Rysunek III.16. Korzyści z zastosowania e-administracji Źródło: //mac.gov.pl/wp-content/uploads/2012/11/korzyści-z-e-administracji.jpg 233

234 O niektórych zastosowaniach procedur e-zarządzania Ważnym krokiem prowadzącym do pełnego zastosowania w praktyce zasad przyjaznej administracji są stosowane od 2011 roku elektroniczne dowody osobiste. Mają one umożliwić każdemu obywatelowi załatwianie spraw urzędowych przez Internet. Dowód osobisty (rys. III.17) jest wzbogacony o elektroniczny nośnik danych (tzw. chip). Nowy dowód osobisty można wykorzystać jako dokument potwierdzający uprawnienie do korzystania z wielu usług. Nowy dowód osobisty umożliwia składanie podpisu elektronicznego, pozwalającego na dokonywanie czynności prawnych w urzędach administracji publicznej; ma być również wykorzystywany przy dostępie do rejestrów publicznych, np. rejestru usług medycznych prowadzonego przez Narodowy Fundusz Zdrowia. Zawartość dowodu osobistego oprócz części graficznej to jego warstwa elektroniczna, która ma m.in. zwiększyć poziom ochrony tego dokumentu przed fałszerstwami. Nowy dowód osobisty jest dokumentem potwierdzającym tożsamość i obywatelstwo polskie na terenie Polski oraz m.in. państw strefy Schengen. Rysunek III.17. Zawartość informacyjna nowego dowodu osobistego Źródło: Czy obecnie można już mówić o przyjaznej e-administracji? Chyba jaszcze nie, ale sytuacja poprawia się i jak wykazały badania przeprowadzone w 2013 pt. Wpływ cyfryzacji na działanie urzędów administracji publicznej w Polsce [październik 2013] z roku na rok wzrasta odsetek urzędów udostępniających swoją stronę internetową w różnych wersjach językowych. Obecnie 40% urzędów posiada takie udogodnienie. W porównaniu do roku 2012 odnotowano wzrost o 6 punktów procentowych. Najczęściej posiadanym udogodnieniem na stronie internetowej urzędu jest wyszukiwarka informacji (83%). Oprócz tego ponad 60% urzędów samorządowych, jak i państwowych posiada na swojej stronie katalog usług/spraw z wyjaśnieniem, jak i gdzie można je załatwić. 234

235 Zarządzanie i informatyka cz. III Handel elektroniczny Gdybyśmy analizowali działy gospodarki, które najbardziej rozwinęły się dzięki informacyjnej technologii, a szczególnie są najpoważniej związane z Internetem, to na pewno na pierwszym miejscu był by to handel. Przedmiotem handlu, w dobie Internetu, obok towarów materialnych i usług staje się informacja. Dotychczas, aby pozyskać informację musieliśmy kupić jej nośnik. Była to: gazeta (papier), abonament telewizyjny lub radiowy, ewentualnie jakiś inny nośnik, na którym była zapisana poszukiwana informacja. Nie ma prostych metod selekcjonowania i nabycia wybranej informacji bez konieczności zakupu nośnika, na którym jest przekazywana. Internet łamie ten paradygmat tradycyjnego handlu. Możemy nabyć wyselekcjonowaną informację bez konieczności nabywania nośnika, na którym jest nam dostarczana. Jakie procesy biznesowe składają się na procesy handlowe? Można wyróżnić następujące: promocja i marketing, zamówienie, płatność, dostawa. Promocja i marketing produktów będących przedmiotem obrotu handlowego odbywa się tradycyjnie przez bezpośrednie dotarcie do potencjalnego klienta pocztą, przez pośrednika handlowego, przez ogłoszenie prasowe lub inne ograniczone w sensie zasięgu media komunikowania. Mając do dyspozycji Internet, mamy dostęp do globalnego rynku. Powoduje to, że nasza oferta handlowa jest dostępna stale dla milionów użytkowników sieci, przez 24 godziny dziennie i przez cały tydzień 7. Łatwy i globalny dostęp do informacji handlowej zwiększa siłę oddziaływania, o czym przekonali się liczni dostawcy i coraz chętniej korzystają z udogodnień Internetu [W. Szpringer, 2007; M. Niedźwiedziński, 2004; W. Chmielarz, 2007]. Korzyści przyciągają licznych klientów, dla których szczególnie atrakcyjne jest to, że sklep czynny jest w dogodnej dla nich porze dnia i nocy. Oferta nie jest ograniczona do półki sklepowej odwiedzanego sklepu. Klient na odległość kliknięcia ma dostęp do zasobów sklepów na całym świecie. Jedynym ogranicznikiem jest znajomość języka. Ale niedługo i ta bariera zniknie. Tradycyjne odwiedzenie kilku sklepów w celu wybrania najlepszego towaru jest bardzo czasochłonne i kłopotliwe z punktu widzenia klienta. Dodatkowym atutem sklepu internetowego jest szeroka oferta produktów związanych z poszukiwanym towarem oraz automatyzacja oferty wynikająca z komputerowej analizy wcześniej doko- 7. Reklamy sklepów internetowych głoszą, że gdy ty idziesz spać, miliony twoich klientów właśnie się budzi. Jest to istotna zmiana w dostępie do rynku klientów, co wpływa nie tylko na obroty sklepu, ale również na ofertę towarów. 235

236 O niektórych zastosowaniach procedur e-zarządzania nanych zakupów 8. Taki sposób handlowania ma liczne ograniczenia, ale dla wielu klientów jest niezwykle atrakcyjny. Dodatkową atrakcyjność stanowi prosty sposób składania zamówienia, które sprowadza się do jednego kliknięcia po dokonaniu wyboru towarów wcześniej oglądanych i włożonych do elektronicznego koszyka. Można też kupować pakiety towarów, przy zakupach dokonywanych cyklicznie. W praktyce dość często kupujemy stały zestaw towarów, modyfikując go przez zmianę ilości lub nieznaczną zmianę składu pakietu. Zamówienie w dużej części jest generowane automatycznie wykorzystując dane zapisane w bazie danych podczas poprzedniej transakcji. Płatność za wybrany zestaw towarów również może być zrealizowana przez sieć komputerową bez potrzeby operowania fizycznymi środkami płatności. Oferta banków jest coraz bogatsza. Jedynym problemem, który stanowi dość istotną barierę rozwoju płatności bezgotówkowych przez Internet, jest bezpieczeństwo transakcji. Prace legislacyjne zmierzające do usankcjonowania prawnego podpisu elektronicznego będą dawały nowe możliwości, znacznie zwiększające bezpieczeństwo transakcji sieciowych. Jedynym problemem, który jest rozwiązany tylko cząstkowo to dostawa zakupionego towaru. Natychmiastowa dostawa zakupionego towaru jest możliwa tylko w przypadku produktu cyfrowego. Produktem cyfrowym jest informacja zapisana na nośniku cyfrowym. Zmierzamy więc do ideału, z punktu widzenia handlu elektronicznego, kupujemy wybraną informację, a nie nośnik. Jest to obecnie możliwe w przypadku dowolnej informacji dostępnej w Internecie w licznych serwisach informacyjnych. Taki model handlu jest również możliwy w przypadku wydawnictw gazetowych, książkowych czy innych materiałów pisanych. Ograniczeniem może być jedynie jakość otrzymanego materiału w porównaniu z kolorowymi wydawnictwami tradycyjnymi. Problem jakości znika w przypadku zakupu nagrania muzycznego lub filmowego. Produkty te dostarczane są natychmiast w postaci wymaganej przez klienta. Sukces portali muzycznych, gdzie głównym odbiorcą jest młodzież, pokazuje jak może się rozwijać handel elektroniczny. Innym przykładem jest sukces rynkowy księgarni internetowej Amazon.com. Tak zarysowany model prowadzenia handlu łamie wszelkie paradygmaty tradycyjnego handlu. Nie jest to jeszcze typowe, ale należy się liczyć z coraz silniejszą konkurencją takiego sposobu handlowania. Nowy sposób handlowania ma obecnie liczne wady, które są sukcesywnie usuwane. Atrakcyjność procedur i inne uwarunkowania prowadzenia działalności gospodarczej będą powodowały, że taka formuła handlu stanie się naturalna. Architekturę systemy e-handlu pokazuje rysunek III Wykorzystując data mining w bazie danych, klient jest informowany o produktach najczęściej kupowanych wraz z wybranym towarem lub oferta dotyczy nowości wykazujących związek z zakupami wcześniej dokonywanymi. Dzięki temu zmęczony i spieszący się klient nie może zapomnieć o oliwce wówczas, gdy kupuje pieluszki. 236

237 Zarządzanie i informatyka cz. III Rysunek III.18. Architektura systemu e-handlu Źródło: K. Subieta [2000] Organizacja stosująca e-zarządzanie działa, jak już wcześniej wspominano, w cyberprzestrzeni, na e-rynku. Często używa się określenia, że obecny system gospodarczy to system gospodarki cyfrowej. W gospodarce elektronicznej rynek i system zarządzania nabiera nowych własności. Rynek elektroniczny pozwala na równoczesne działanie na wielu rynkach lokalnych, jak i globalnych. Pod pojęciem rynku elektronicznego rozumiemy tę jego część, która funkcjonuje dzięki środkom technicznym tworzącym informatyczną infrastrukturę zarządzania. Handel elektroniczny jest działalnością gospodarczą opartą na przetwarzaniu i transmisji danych w postaci tekstu, dźwięku, obrazu. Dotyczy następujących działań: zakupów, sprzedaży, obsługi klientów, dystrybucji produktów i usług, współpracy między przedsiębiorstwami, jak również cyfrowych płatności realizowanych przez publiczne lub prywatne sieci komputerowe [T. Kohler, R. Best, 2001, W. Chmielarz, 2007, C. Olszak, E. Zięba, 2007]. Światowa Organizacja Handlu [WTO] określa handel elektroniczny jako: produkcję, reklamę, sprzedaż i dystrybucję produktów za pomocą sieci teleinformatycznych. Bardziej rozwinięta jest definicja podana przez W. Chmielarza [2007] który uważa, że: Handel elektroniczny to wprowadzona do praktyki koncepcja, opisująca proces kupna, sprzedaży i dostawy produktów, usług, informacji przez partnerów handlowych na terenie tego samego kraju lub pomiędzy rezydentami dwóch lub więcej krajów. Handel ten 237

238 O niektórych zastosowaniach procedur e-zarządzania jest zabezpieczony za pomocą środków ochrony systemu płatności, która dokonywana jest z wykorzystaniem infrastruktury techniczno-organizacyjnej, w tym głównie sieci komputerowych. Z punktu widzenia zarządzania, rynek elektroniczny pozwala na zastosowanie takich procedur decyzyjnych, które pozwalają na automatyzację zawieranych transakcji ze zniesieniem lub ograniczeniem znaczenia: czasu, miejsca i formy prowadzenia działalności. Konsekwencją jest między innymi: szybkość działania, zmniejszenie przypadkowych błędów i pomyłek, jak też możliwość bezpośredniego zawierania transakcji między tymi uczestnikami, którzy w innych warunkach jej by nie zawarli. System podejmowania decyzji w elektronicznym rynku podlega sieci interakcji i relacji. Nie jest, więc, jak wcześniej wspomniano, zobligowany konkretnym miejscem. Oczywiście ma to dobre cechy. Tu remont budynku lub ulic dojazdowych, nie mówiąc już o kolejkach na granicach, czy też strajku celników, jak było w roku 2008 w Polsce na naszej wschodniej granicy, nie zakłóci transakcji. Dla ilustracji procedur podejmowania decyzji w globalnym świecie cyberprzestrzeni przedstawimy zarys tej procedury, która odbywa się na rynku elektronicznym (patrz rys. III.19). Przedstawiony schemat jest znaczne uproszczony. W realnych warunkach gospodarki globalnej jest on bardziej złożony i wielostopniowy. Rysunek III.19. Procedura podejmowania decyzji na rynku elektronicznym w układzie B2C Źródło: opracowanie własne. 238

239 Zarządzanie i informatyka cz. III I tak, Kupujący, aby uczestniczyć w transakcji i podjąć decyzję zakupu powinien: 1. Wyrazić wolę korzystania z rynku elektronicznego, czyli zgłoszenie tego faktu, podając swój identyfikator. Wtedy, kiedy kupujący chce tylko zasięgnąć informacji o możliwości zakupu, procedura identyfikacji nie jest w zasadzie stosowana. Jednak należy pamiętać o tym, że anonimowego klienta nie zawsze traktuje się na takich samych prawach, jak znanego. Na rynku globalnym należy przewidzieć określone rekomendacje może to być między innymi: posiadanie odpowiednich norm na produkcję (np. certyfikaty serii ISO) lub też gwarancje bankowe lub profesjonalnych organizacji. 2. Wyszukać ofertę z bazy danych i uzyskać informację o warunkach realizacji transakcji. Czym zbiór ofert jest pełniejszy, tym większa pewność podejmowania właściwej decyzji. Dla wyszukania odpowiednich ofert pożądane jest korzystanie z globalnych baz danych, hurtowni danych i baz wiedzy. W praktyce gospodarczej mamy do czynienia z następującymi sposobami zachowania się konsumenta na rynku: biernym, kiedy wyszukuje oferty z istniejących zbiorów propozycji zawartych w bazie danych, aktywnym, kiedy precyzuje swoje wymagania i oczekuje propozycji, mieszanym, gdzie klient wyszukuje i precyzuje swoje wymagania. 3. Przeprowadzić selekcję ofert i wybrać te, które najlepiej zaspakajają jego wymagania. Taka analiza jest wielokryterialna i często wymaga komunikacji między lokalnymi i globalnymi bazami danych i wiedzy. 4. Nawiązać dialog z oferentami i doprecyzować warunki kontraktu oraz negocjować sposób realizacji transakcji. 5. Wybrać ofertę, podpisać odpowiednie dokumenty i realizować transakcję. W tym miejscu jesteśmy pełni obaw o jej bezpieczeństwo. Dlatego istotne jest: sprawdzenie wiarygodności osób biorących udział w transakcji odpowiednie bazy danych (patrz rys. III.19), stosowanie, w miarę możliwości, przedstawionego wcześniej tzw. podpisu elektronicznego. Sprzedający z kolei również postępuje w określonej sekwencji. Jeżeli nie zna dokładnie potrzeb rynku to może zastosować system elektronicznego badania, w którym prezentuje swoje zamierzenia i zbiera oferty. Ten sposób jest bezpieczny i zmniejsza ryzyko podjęcia nieprawidłowych decyzji rozwojowych w tym decyzji inwestycyjnych. Informacje otrzymane z takiego badania są podstawą podjęcia decyzji o uruchomieniu produkcji. Jednak istnieją tu pewne niebezpieczeństwa, a mianowicie: kupujący nie zawsze chce lub może zaczekać na zaspokojenie swoich potrzeb, konkurencja wcześniej zna plany produkcyjne i może zmodyfikować swoje programy. W opisanym przypadku mamy do czynienia z funkcjonowaniem tzw. przezroczystej organizacji. 239

240 O niektórych zastosowaniach procedur e-zarządzania Wtedy, kiedy organizacja oferuje na elektronicznym rynku swoją produkcję lub usługę, to możliwych wariantów działań jest wiele. I tak: Sprzedający oferuje swój produkt/usługę i czeka na zgłoszenie jest to więc sytuacja, którą można określić jako bierną postawę organizacji. Jednak w zależności od umiejętności posiadanych służb marketingowych, jak i dysponowanych środków organizacja może stosować bardzo różne rozwiązania aktywności na rynku tradycyjnym i elektronicznym. Sprzedający stosuje aktywną politykę na rynku elektronicznym, wykorzystując w tym celu możliwości, jakie daje system informacyjny. Potencjalni nabywcy otrzymują bezpośrednio adresowane do nich oferty. Oferty takie uwzględniają ich preferencje i potrzeby. Następne kroki to: negocjacje z klientami, a w sytuacji udzielenia kredytu całkowitego lub częściowego sprawdzenie wiarygodności klienta. Istnieje tu możliwość skorzystania z wywiadowni gospodarczych. Jest to istotne podczas działania na rynku globalnym. Szybkość i zasięg funkcjonowania elektronicznego rynku zwiększa poważnie możliwość nieetycznego zachowania się uczestników transakcji. Jedną z form czystej realizacji rynku elektronicznego są tzw. sklepy internetowe, o których wspomniano przy okazji prezentacji wirtualnych organizacji. Są one samodzielnymi podmiotami gospodarczymi lub stanowią dodatkowy kanał dystrybucji dla istniejących już organizacji. Można za K. Subietą [2007] określić następujące kategorie sklepów internetowych: sklepy z prezentami i towarami kupowanymi pod wpływem impulsu (gdy wpadną nam w oko); istota takiego sklepu polega na zaciekawieniu klienta produktem, a dopiero potem oferowanie mu możliwości zakupu; witryny sprzedające artykuły, o których można powiedzieć, że są w każdym sklepie takie same; takie sklepy muszą mieć przede wszystkim dobrze opracowane systemy wyszukiwawcze oferowanych towarów; sklepy oferujące towary, których zakup wymaga zastanowienia; klient powinien mieć możliwość porównywania towarów tak, aby miał pewność, że dokonuje właściwego wyboru; sklepy zajmujące się sprzedażą towarów konfigurowanych, a więc takich, których cena zależy od wybranych przez klienta elementów; sklepy oferujące towary, których skatalogowanie znacznie ułatwia przeszukiwanie całego asortymentu. Systemem informatycznym wspomagającym funkcjonowanie handlu elektronicznego jest CRM (Customer Relationship Management). Termin ten tłumaczony jest jako zarządzanie relacjami z klientem lub Zarządzanie kontaktami z klientem [por I. Dembińska-Cyran, J. Hołub, J. Iwan, J. Perenc, 2004; J. Dyche, 2002]. W literaturze określa się, że jest to budo- 240

241 Zarządzanie i informatyka cz. III wanie wartościowych relacji z klientami, dzięki informacyjnej technologii, w tym sieci komputerowych, oraz stosowania systemu motywacji najlepszych klientów do lojalności czyli dalszego korzystania z usług firmy. Stosuje się też określenia, że jest to strategia biznesowa polegająca na optymalizacji wszelkich relacji z klientem pod kątem uzyskania obopólnych korzyści w długim czasie Według D. Buchowskiej [2006] CRM jest to strategia zorientowana na klienta. W działaniu CRM możemy wyróżnić pięć obszarów jego funkcjonowania: Rysunek III.20. Obszary funkcjonowania CRN Źródło: J. Dyche [2002] Zastosowanie systemu CRM to po pierwsze zmiana filozofii działania organizacji, a następnie zakup odpowiedniego oprogramowania. Na rynku oferowanych jest wiele rozwiązań programowych takich, jak między innymi: SAS CRM (firmy SAS Insitute Inc.), My SAP CRM (firmy SAP), IFS/CRM (firmy IFS), MS Dynamice CRM (firmy Microsoft) i wiele innych. Na podstawie przeprowadzonych analiz i literatury przedmiotu możemy określić, że dzięki zastosowaniu CRM można uzyskać następujące efekty w porównaniu z dotychczasowym tradycyjnym podejściem: całościowy proces kontaktów z klientami (marketing, sprzedaż, obsługa opłaty), powiązania kontaktu z klientami z całością zarządzania organizacją (HR, logistyka, finanse), stworzenie systemu doradztwa dla pojedynczego klienta, możliwość podłączenia wielu klientów, poprawienie dokładności realizacji usług, jak i zmniejszenie czasu oczekiwania klienta na obsługę (średnio 7 9-krotnie), 241

242 O niektórych zastosowaniach procedur e-zarządzania możliwość tworzenia raportów dla kadry zarządzającej w czasie rzeczywistym, uproszczenie cyklu sprzedaży (sprawdzanie dostępności usług, wierzytelności klientów), integracja danych pochodzących z różnych źródeł, na przykład sprzedaży i marketingu, zintegrowana i globalna informacja o klientach i produktach. Podstawowym minimum stawianym wobec systemów CRM jest zapewnienie możliwości obsługi klientów w sposób ciągły [D. Buchowska, 2006]. Dlatego też w systemach tej klasy można wyróżnić następujące moduły: Wsparcie sprzedaży (TES Technology-enabled selling). Wsparcie marketingu (TEM Technology-enabled marketing). Obsługa klienta i serwis (CSS Customer services and support). Większość abonentów Orange spotyka się z systemem CRM, np. korzystając z tak zwanej Błękitnej Linii. Czy klient jest z tego systemu zadowolony to już inny problem. W chwili pracy nad książka autor nie był entuzjastą tego systemu. Klient dzwoniąc na infolinię, po podaniu swoich danych jest identyfikowany przez obsługującą go osobę, która uzyskuje te dane z systemu CRM. W przypadku operatorów linii komórkowych klient dzwoniąc ze swojego numeru jest bardzo szybko identyfikowany i też czeka dość długo na zrealizowanie jego reklamacji. Systemy CRM najczęściej są elementem całego systemu informatycznego. Przykładem może być połączenie w systemach dostarczonych przez firmę SAP czy IFS. Systemy CRM wykorzystywane są też w organizacjach korzystających z sieci wirtualnych sprzedawców. Ciekawym i nowym podejściem w elektronicznym handlu jest crowdsourcing. Jak pisze D. Dziuba [2013] jest to metoda komunikacji elektronicznej, traktowana jako nowa forma współpracy podmiotów na globalnym rynku. Jest to między innymi metoda dystrybucji, rozwiązywania problemów i odkrywania nowych, tworzenia interakcji społecznych. Autor książki stosował crowdsourcing do poszukiwania tytułu tej książki. Oto list skierowany do społeczności moich znajomych na Facebooku: Obecnie coraz bardziej popularny jest, jako metoda komunikacji elektronicznej na globalnym rynku, crowdsourcing. Postanowiłem ją zastosować do poszukiwania tytułu mojej nowej książki. Książka ta bazuje na moich dotychczasowych podręcznikach: Systemy informacyjne biznesu (wydana z prof. H. Sroką) MIS, czyli Systemy informatyczne zarządzania. Sylwetka czytelnika to na pewno nie informatyk, ale światły użytkownik informatyki, czyli: student ekonomii lub zarządzania; menedżer różnych szczebli zarządzania, który pragnie wzbogacić swoją wiedzę teoretyczną i praktyczną o stoso- 242

243 Zarządzanie i informatyka cz. III waniu współczesnej infrastruktury zarządzania; osoba, która nie pełni funkcji kierowniczych, a interesuje się problematyka społeczeństwa informacyjnego. Moje propozycje to: Zarządzanie wspomagane informatyką; Zarządzie i informatyka; Informatyka zarządcza; Decyzyjne systemy informatyczne. Oczywiście przewijają mi się inne tytuły. Te tytuły, które podałem na pewno są adekwatne do treści. Co Wy myślicie? Będę wdzięczny za sugestie. Jeżeli ktoś chce ze mną dyskutować na priv. to podaję mój adres: jerzy@kisielnicki.edu.pl Serdeczności Na ten list otrzymałem ciekawe propozycje. Czy je wykorzystałem możecie się sami przekonać. Wiem też jakie powinienem pisać książki przez najbliższe 20 lat. Najczęściej uważa się, że jest to proces, w ramach którego organizacja (firma, instytucja publiczna, organizacja non-profit) przeprowadza outsourcing zadań wykonywanych tradycyjnie przez pracowników do niezidentyfikowanej, zwykle bardzo szerokiej grupy ludzi, w formie open call (crowd tłum, sourcing czerpanie ze źródeł). Crowdsourcing umożliwia wszystkim użytkownikom Internetu partycypację w zadaniach, które kiedyś były zarezerwowane dla wąskiej grupy specjalistów. Termin crowdsourcing został po raz pierwszy zdefiniowany i użyty przez dziennikarza magazynu Wired Jeffa Howe a w artykule Rise of Crowdsoucing z 2006 r. Crowdsourcing pozwala wykorzystać mądrość konsumentów (u mnie czytelników) by kreować nowe produkty, ulepszać istniejące, proponować innowacyjne rozwiązania i aktywnie kształtować marki. Dzięki crowdsourcingowi wiele firm, o globalnym zasięgu, zmieniło swoje podejście do komunikacji. W wymyślanie nowych rozwiązań włączają swoich: pracowników, klientów, konsumentów. Dziesiątki, setki, tysiące ludzi! O tym jest crowdsourcing!. Specjalizuje się w opracowaniu koncepcji i realizacji akcji angażując konkretną grupę docelową danej marki. W odróżnieniu od jednostronnej komunikacji w tradycyjnym modelu reklamy model crowdsourcingowy buduje dialog i relacje na linii konsument marka. Platforma MillionYou od 2007 roku realizuje intrygujące, świeże kampanie, które poprzez zaangażowanie odbiorców dostarczają pożądany przez nich content i maksymalizują czas, jaki konsumenci spędzają z daną marką. Niestandardowość podejścia oraz szeroki zasięg przynoszą efekty, które często przekraczają oczekiwania klientów. Crowdsourcing już na stałe wszedł do zestawu narzędzi wykorzystywanych przez handlowców na całym świecie i staje się coraz bardziej popularny również w Polsce. 243

244 O niektórych zastosowaniach procedur e-zarządzania Bankowość elektroniczna Gdybyśmy analizowali szybkość rozprzestrzeniania różnych typów usług związanych z zastosowaniami informatyki, to na pewno w czołówce znalazłyby się usługi bankowości elektronicznej. O niektórych zagadnieniach bankowości elektronicznej pisaliśmy w części poświęconej wirtualizacji, tu chcemy je rozszerzyć. Przez bankowość elektroniczną rozumiemy taką formę korzystania z usług bankowych, w której dzięki stosowaniu ICT nie jest wymagany bezpośredni kontakt klient bank. W literaturze pojęcie to określa się różnie. I tak większość autorów pisze, że w bankowości elektronicznej transakcje zawierane są przez Internet lub inne prywatne linie [E. Turban, 2002]. D. Dziuba [1998] określa elektroniczną bankowość (electronic banking, e-banking, remote banking, cyber banking) lub bankowość zdalną jako sposób przeprowadzenia operacji bankowych spoza fizycznego miejsca funkcjonowania banku. W tym ujęciu idea bankowości elektronicznej i jej zakres sprowadzają się głównie do teleinformatycznego (oprogramowanie, sieci, sprzęt) wspomagania procesów łączności między: szeroko pojętymi klientami a bankiem, różnego rodzaju kontrahentami za pośrednictwem banku lub instytucji parabankowych, bankami lub ich składowymi elementami organizacyjnymi, innymi instytucjami sfery finansowej a bankami [por.: W. Chmielarz, 2005]. Bankowość elektroniczna, jak pisze B. Święcka [2007], może być rozumiana jako forma komunikacji klienta z bankiem, forma świadczenia usług bankowych przy wykorzystaniu elektronicznych urządzeń takich, jak: komputer (home/corporate banking, internet banking), telefon, także elektroniczne instrumenty płatnicze i urządzenia do ich przyjmowania (bankomaty, elektroniczne terminale do akceptowania kart płatniczych czy też kioski multimedialne). Występują w niej dwa obszary: 1. Wewnętrzny szeroko rozumiana platforma elektryczno-informatyczna integrująca bank i funkcjonowanie wewnątrz banku. 2. Zewnętrzny czyli elektroniczne kanały dystrybucji produktów i usług bankowych. Syntetyczne i trafne jest określenie D. Korenik [2006], że jest to bankowość oparta na wykorzystaniu pieniądza elektronicznego. W prawie polskim zgodnie z art. 2 pkt 21a ustawy o usługach płatniczych pieniądz elektroniczny oznacza wartość pieniężną przechowywaną elektronicznie, w tym magnetycznie, wydawaną, z obowiązkiem jej wykupu, w celu dokonywania transakcji płatniczych, akceptowaną przez podmioty inne niż wyłącznie wydawca pieniądza elektronicznego. Pieniądz elektroniczny to cyfrowy odpowiednik gotówki. Można nim dokonywać płatności bez pośrednictwa rachunku bankowego. Pieniądz elektroniczny działa na zasadzie przedpłacenia, czyli, aby móc z niego korzystać, trzeba najpierw wpłacić pewną kwotę na dedykowane elektroniczne subkonto w systemie internetowym banku lub operatora. Kwota ta jest cyfrowo przypisana użytkownikowi na specjalnym fizycznym nośniku, np. na chipie umieszczonym na karcie elektronicznej lub brelo- 244

245 Zarządzanie i informatyka cz. III ku, bądź w postaci wirtualnej, dostępnej online informacji zapisanej na serwerze [Puls Biznesu ]. Reasumując różne określenia możemy przyjąć, że bankowość elektroniczna jest to taka forma usług oferowanych przez banki lub parabanki, która umożliwia dostęp do rachunku za pomocą takich urządzeń, jak: komputer, bankomat, terminal, telefon i linie telekomunikacyjne. Często takie usługi bankowości elektronicznej są określane jako telebanking. Schemat obsługi płatności za pomocą karty płatniczej, jako pieniądza w bankowości elektronicznej, przedstawia rysunek III.21. Rysunek III.21. Schemat płatności za pomocą karty elektronicznej Źródło: K. Subieta [2006] Bankowość elektroniczna zmieniła, najbardziej zauważalnie, dystrybucję usług bankowych. W systemie dystrybucji rozumianej jako sposób realizacji usług i dostarczenia użytkownikowi produktów wyrówna się następujące elementy: 245

246 O niektórych zastosowaniach procedur e-zarządzania miejsce sprzedaży, urządzenia służące sprzedaży, sieć połączeń telekomunikacyjnych, obecnie coraz częściej sieć bezprzewodowa. W bankowości elektronicznej nie ma ograniczenia miejsca. Tam gdzie mój laptop/komputer/terminal (np. POS Point of Sale Terminal) ewentualnie kiosk czy też bankomat tam jest punkt dystrybucji. Coraz częściej kanałami elektronicznymi usług bankowych są telefony i telewizory. Rzeczywisty poziom bezpieczeństwa zależy od zastosowanych rozwiązań oraz ich szczegółów technicznych. Nie jest on jednak jednoznaczny z poczuciem bezpieczeństwa wśród klientów banków. Ważną rolę odgrywają w tym przypadku subiektywne odczucia, opinie usłyszane od innych klientów, oraz stopień znajomości stosowanych zabezpieczeń w danej usłudze oferowanej przez dany bank. Bankowość internetowa wiodący instrument bankowości elektronicznej jest alternatywnym w stosunku do oddziału bankowego kanałem dystrybucji wykorzystującym Internet do świadczenia usług bankowych. Podstawową ideą bankowości elektronicznej jest elektroniczna obsługa klienta przez włączenie go, jako użytkownika, do skomputeryzowanego systemu bankowego. Istotą jej jest zaś możliwość korzystania z usług bankowych niezależnie od miejsca i czasu. Witryna internetowa banku umożliwia klientom dokonywanie on-line różnorodnych operacji na ich rachunkach. Do korzystania z zalet i-bankowości potrzebny jest komputer, zainstalowana na nim przeglądarka stron WWW oraz dostęp do sieci Internet. Phone Banking i Mobile Banking Usługi bankowe dostępne za pośrednictwem telefonu nazywamy bankowością telefoniczną lub phone bankingiem. Usługi dostępne dzięki urządzeniom przenośnym, głównie telefonom komórkowym, określamy jako bankowość mobilną lub mobile banking. Operacje bankowe przez telefon mogą być realizowane na kilka sposobów: przez kontakt z operatorem (Call Center) lub automatyczny serwis telefoniczny IVR oraz przy użyciu telefonu komórkowego za pomocą SMS lub technologii WAP. 246

247 Zarządzanie i informatyka cz. III Rysunek III.22. Mobilny Bank to aplikacja bankowa, która dostępna jest na telefonach komórkowych, Źródło: [2013] Operacje wykonywane za pomocą bankowości telefonicznej możemy podzielić na pasywne i aktywne. Pasywne to takie, gdzie klient odbiera jedynie informacje dotyczące rachunku. Najprostszą i najczęściej wykonywaną operacją pasywną jest sprawdzenie salda rachunku. Inne, dostępne w większości serwisów telefonicznych usługi, to sprawdzanie historii rachunku bądź uzyskiwanie informacji o aktualnych stopach oprocentowania lub kursach walut. Usługi aktywne bankowości telefonicznej to takie, które powodują zmianę salda i historii rachunku. Do typowych operacji aktywnych zaliczyć możemy przelewy oraz dyspozycje dotyczące lokat terminowych. Telegazeta Istnieje też możliwość sprawdzenia stanu konta przez telegazetę. W Polsce taką usługę proponował wyłącznie Invest Bank. Klient musiał zadzwonić do teleserwisu banku, podać (tonowo) swój numer PESEL oraz hasło. Serwis podawał numer strony telegazety. Od tej chwili na podanej stronie telegazety programu Polsat przez 3 minuty były wyświetlane dane konta (saldo i operacje). Tak wyświetlane informacje dostępne były dla wszystkich osób posiadających telewizor z telegazetą. Mimo iż bank nie wyświetlał nazwy klienta i numeru rachunku, a czas wyświetlania danych konta był stosunkowo krótki to taki sposób prezentacji oznaczał brak poufności danych. Banki oferują również dostęp do konta przez . Jest to dostęp pasywny, tzn. klient nie może wykonywać żadnych operacji. Dobrym przykładem jest PKO BP, który wysyła swoim klientom każdego dnia informacje o zmianach na rachunku za pomocą SMS. Jeśli danego dnia nie zostanie wykonana żadna operacja bank nic nie wyśle. Wysyłany to normalny wyciąg bankowy. Zawiera informacje o saldzie początkowym, wykonanych operacjach, ich dacie oraz na koniec o saldzie końcowym. Karty płatnicze Za pomocą karty płatniczej klienci mogą dokonywać operacji w bankomatach oraz zawierać transakcje za pośrednictwem terminali POS. Terminal POS point of sale punkt handlowy urządzenie instalowane w punktach handlowo-usługowych. 247

248 O niektórych zastosowaniach procedur e-zarządzania Używane jest do kontaktu z bankiem za pośrednictwem centrum autoryzacyjnego (acquirer) w sytuacji, gdy klient za nabywany towar lub usługę płaci kartą płatniczą w celu rozliczenia transakcji. Jak wykazują analizy statystyczne, przeprowadzone między innymi przez European Central Bank, Raporty Gertner Group, procent osób korzystających z usług bankowości elektronicznej nie odpowiada liczbie tych, którzy mają dostęp do tej formy usługi i mogliby z niej korzystać. W krajach o rozwiniętej ICT tylko ok. 30% klientów używa bankowości elektronicznej jednak nadal 70% z nich co najmniej raz w miesiącu przychodzi osobiście do oddziału banku. W krajach mających niższy poziom rozwoju ICT udział osób korzystających z bankowości elektronicznej nie przekracza 15% posiadaczy kont bankowych. Tu można postawić pytania: Dlaczego istnieje znaczna dysproporcja między możliwością korzystania z bankowości elektronicznej a faktycznym jej użytkowaniem? Jakie czynniki wpływają na opłacalność bankowości elektronicznej? Inwestycje w sferze bankowości elektronicznej nie przynoszą oczekiwanych efektów, a to z dwóch powodów: 1. braku zaufania klientów do tej formy usług czyli brakiem zaufania do transakcji bankowych dokonujących się przez Internet i poczucia ich bezpieczeństwa, 2. przywiązania większości klientów do korzystania z tradycyjnych form usług bankowych. Oba te czynniki istotnie wpływają na uzyskanie przez bank oczekiwanych przez właścicieli efektów. Tak więc można postawić uzupełniającą hipotezę, że obecnie rozwój ICT, stosowane rozwiązania programowo-sprzętowe, w przypadku bankowości elektronicznej, mają jeszcze ograniczony wpływu na intensywność ich stosowania. Jak w będzie w przyszłości? Jestem optymistą. W zakończeniu tego paragrafu pragnę zwrócić uwagę na kryptowalutę (cryptocurrency), zwaną rzadziej walutą kryptograficzną lub też wirtualną walutą. Jest to waluta, która funkcjonuje w świecie wirtualnym. Dlatego też mogła być ona prezentowana w części poświęconej problematyce wirtualizacji. Obiegiem wirtualnej waluty jest rozproszony system księgowy, bazujący na kryptografii, przechowujący informację o stanie posiadania w umownych jednostkach pieniędzy. Stan ich posiadania związany jest z poszczególnymi węzłami systemu ( portfelami ) w taki sposób, aby kontrolę nad danym portfelem miał wyłącznie posiadacz odpowiadającego mu klucza prywatnego. Niemożliwe jest dwukrotne użycie w obiegu tej samej jednostki pieniężnej [Satoshi Nakamoto]. Możemy powiedzieć iż kryptowaluta to rodzaj elektronicznego pieniądza (dla niektórych raczej towaru, niż pieniądza), której wartość może być powiązana z absolutnie dowolnym czynnikiem. Dobrym przykładem jest XNF, kryptowaluta stworzona przez firmę Nofiatcoin. Jej wartość zależy od ceny metali szlachetnych jak pisze Mark Gerban, dyrektor ds. płatności w firmie Innogames oraz członek zarządu MRC [ 248

249 Zarządzanie i informatyka cz. III Obecnie na świecie funkcjonuje około 85 różnych kryptowalut. Liczba rozmaitych pieniędzy wirtualnych, jak i ich notowania są zmienne. Mimo faktu, że wiele osób widzi ją jako zagrożenie dla systemu płatności elektronicznych, to jednak są i tacy, którzy uważają, że jest to zjawisko korzystne. Kryptowaluty mają ogromny potencjał, szczególnie dla tych, którzy korzystają z transakcji peer-to-peer (Peer-to-Peer model komunikacji w sieci komputerowej, zapewniający wszystkim hostom węzłom te same uprawnienia). Wynika to z faktu, że korzystanie z takiej waluty nie pociąga za sobą żadnych bezpośrednich kosztów. Kryptowaluta nie jest przez większość krajów (w tym Polskę) uznawana za jednostkę walutową, czy pieniądz elektroniczny, dzięki czemu tworzenie jednostek w ramach wbudowanego w system algorytmu jest legalne. Zwykle z tych samych powodów nie korzysta jednak z ulg podatkowych przewidzianych dla handlu walutą, np. może dotyczyć jej VAT. Jedną z najpopularniejszych kryptowalut jest bitcoin. Została ona pierwszy raz opisana w 1998 r. przez Wei Daia [1998]. Bitcoin został wprowadzony w 2009 roku przez osobę (bądź grupę osób) o pseudonimie Satoshi Nakamoto. Bitcoiny mogą zostać przesłane przez Internet do dowolnego posiadacza adresu bitcoin. Każdy bitcoin dzieli się na mniejszych jednostek, zwanych czasem satoshi [od nazwy twórcy tej waluty]. Bitcoin jest walutą cyfrową, którą można posługiwać się w transakcjach osobistych lub biznesowych. Portale zajmujące się nią reklamują, że jest to waluta, która ma duże obroty i niskie koszty transakcyjne. W Polsce wydobywanie oraz obrót bitcoinami, zdaniem Ministerstwa Finansów, nie narusza prawa, jednak ministerstwo odmawia bitcoinowi statusu waluty lub jakiegokolwiek innego instrumentu finansowego (w tym jednostki pieniężnej, instrumentu rynku pieniężnego, papieru wartościowego, elektronicznego instrumentu płatniczego) w sensie ustawy o obrocie pieniędzmi. Waluta ta, mimo że istnieje tylko w Internecie, jest używana jako środek płatności. I tak w wielu państwach istnieje możliwość płatności za usługi lub dobra właśnie tą walutą, nawet przy zakupie drobnych rzeczy. W Polsce bitcoinami można płacić m.in. w bydgoskiej kawiarni, gdzie transakcja odbywa się za pomocą zeskanowania kodu QR przez smartfon. Jednocześnie płacący nie musi być posiadaczem takiej waluty, a z jego konta zostanie pobrana kwota według kursu w PLN. W roku 2013 w Kanadzie ruszył pierwszy bankomat na bitcoiny. Za jego pomocą można wymienić gotówkę na bitcoiny lub sprzedać bitcoiny i wypłacić dolary kanadyjskie. Można za nią kupić coraz więcej realnych towarów i usług także w Polsce. Już dziś zapłaci się tak za noclegi w niektórych miejscach na Pogórzu Izerskim i w Gdańsku, a także za wyjazdy żeglarskie. Działa serwis wymiany bitcoinów na kupony żywnościowe firmy Sodexo. W Szczecinie jest nawet zakład kosmetyczny, w którym można sobie przedłużyć rzęsy, płacąc bitcoinami. [za: P. Rochowiczem, 2013]. Jakie cechy ma obrót bitcoinem: natychmiastowe transakcje P2P, płatności na całym świecie, transakcje niemalże bez opłat. To są główne jej cechy. Niektóre rządy zaczynają 249

250 O niektórych zastosowaniach procedur e-zarządzania dostrzegać skalę zjawiska. Według raportu Dow Jones MarketWatch, po upadku Mt.Gox, japońskiej giełdy Bitcoin, największa chińska giełda kryptowalut Huobi.com odnotowała 69% wzrost obrotów. Jedną z największych wątpliwości dotyczących bitcoin jest anonimowość transakcji. Trudno jest stwierdzić, kto dokładnie dokonuje danego zakupu. Powoływany już Mark Gerban uważa, że jest to swoisty test dla e-detalistów, którzy muszą lepiej zrozumieć swoich klientów. Według niego niezbędna jest konsolidacja branży w celu wprowadzenia bardziej niezawodnego systemu płatności bitcoin, który działałby równolegle do systemu zapobiegania oszustwom oraz praniu brudnych pieniędzy. Bitcoin mimo, że funkcjonuje w świecie wirtualnym, ma swój obraz realny rysunek III.23. Rysunek III.23. Jedna z wizji wyglądu wirtualnej waluty Źródło: Kupno bitcoin, jak i innej waluty wirtualnej jest dość proste. I tak rozpoczynamy od przekazania pieniędzy tradycyjnych na konto Bitstamp [ Aby zrobić to, musisz być zalogowany na koncie Bitstamp, następnie przejść do sekcji złożenia depozytu i wybrać preferowaną metodę przekazywania funduszy. Wtedy otrzymujesz unikatowy kod odniesienia (11 cyfr) i informacje o koncie, do którego muszą trafić fundusze. Po otrzymaniu środków zasilane jest twoje konto i potem już możesz od razu dokonać zakupu bitcoin. Można także umieścić limitowane zlecenie, przy którym można ustawić cenę, za którą jesteś gotów kupić bitcoiny. Czy można zostać w ten sposób milionerem? Spójrz na rysunek, jak zmieniała się w okresie ostatnich dwóch lat cena jednostki wirtualnej waluty w stosunku do dolara. Wydaje się to atrakcyjną lokatą. 250

251 Zarządzanie i informatyka cz. III Ale czy ryzykować? Nie wiem. Moja wiedza na ten temat pochodzi z literatury, ale też z wywiadów z osobami, które posiadają walutę wirtualną, nie tylko bitcoiny. Niektórzy nawet, zarabiając na kursie wirtualnej waluty, po jej zamienieniu na złotówki, opłacają swoje studia. Obserwując dyskusje na forach internetowych zauważyć można [kwiecień 2014] iż trwa zmasowany atak na kantory bitcoina. Może więc lepiej wstrzymać się ze wszystkimi transakcjami, ale to są Wasze pieniądze i Wasza decyzja E-logistyka E-logistyka jest trzecią grupą rozpatrywanych szczegółowych elementów zastosowań e-zarządzania. W literaturze przyjętych jest wiele określeń logistyki i systemów logistycznych. Czytelnikowi, który jest szerzej zainteresowany tym tematem polecić można ciekawe monografie autorstwa: S. Abta [1998], E. Gołembskiej [2002, 2005, 2006] lub A. Szymonika [2007]. Większość autorów zajmujących się logistyką uważa, że system logistyczny jest to celowo zorganizowany i połączony zespół takich elementów (podsystemów) jak: produkcja, transport, magazynowanie, klienci i dostawcy. Elementy te rozpatrywane są wraz z relacjami zachodzącymi między nimi oraz ich własnościami, warunkującymi przepływ strumieni towarów, środków finansowych i informacji. 9 W tej części opracowania została wykorzystana koncepcja zastosowania rozwiązań e-logistyki dla Orlen SA prowadzona przez autora we współpracy ze specjalistami z SAP i Architektami Rozwiązań Transportu Kolejowego Computerlandu. 251

252 O niektórych zastosowaniach procedur e-zarządzania System logistyczny Zdaniem E. Gołembskiej [2006] system logistyczny zdefiniować można ze względu na: relacje między elementami systemu: System logistyczny to zbiór takich podsystemów, jak: zaopatrzenie, produkcja, transport i magazynowanie, zbyt, wraz z relacjami między podsystemami i między ich własnościami, ze stałą dążnością do wzrostu stopnia zorganizowania systemu. dynamikę systemu logistycznego oraz przepływy w nim: System logistyczny to celowo zorganizowany i połączony, w obrębie określonego układu gospodarczego, fizyczny przepływ strumieni towarów, któremu towarzyszy przepływ środków fizycznych i informacji W tym punkcie prezentowane są tylko wybrane elementy zastosowań informatyki w logistyce i dlatego rekomendujemy specjalistyczne monografie takie, jak: P. Adamczewskiego [2001] lub J. Majewskiego [2006]. Systemy informatyczne dla logistyki zaliczyć można do systemów zintegrowanych. Możemy również stwierdzić, że są one elementem (podsystemem) zintegrowanego systemu klasy ERP i jako takie zawierają one funkcje wszystkich opisanych wcześniej trzech generacji. Trudno jest wskazać jeden system jako podstawowy. Najczęściej noszą one nazwy: IRP Infrastructure Resource Planing (Planowanie zasobów infrastrukturalnych przedsiębiorstwa) System komputerowy do wspomagania zarządzania zasobami infrastruktury przedsiębiorstwa, SCM Suply Chain Management (Zarządzanie łańcuchem dostaw), EAM Enterprise Asset Management (System zarządzania środkami trwałymi), WMS Warehousing Management System (System zarządzania magazynem), LRP Logistics Requirements Planing (Planowanie potrzeb logistycznych), TMS Transport Management System (System zarządzania transportem). Systemy, które je wspierają to: GIS Geografical Information System (System informacji geograficznej), CRM Customer Relationship Mangement (System zarządzanie relacjami z klientem), BI Business Intelligence (System raportowania i informowania kierownictwa), ADC Automatic Data Capture (Automatyczne zbieranie danych), EDI Electronic Data Interchange (Elektroniczna wymiana danych), RFID Radio Frequency IDentification (System do przechowywania danych i przesyłania ich drogą radiową. 252

253 Zarządzanie i informatyka cz. III Oczywiście nie przedstawimy analizy wszystkich wymienionych systemów stosujących rozwiązania TI, lecz tylko wybrane. Należy jeszcze raz powtórzyć, że nie mamy tu do czynienia z ostrymi granicami między systemami wspierającymi zarządzanie procesami logistycznymi, a innymi systemami wspomagającymi zarządzanie. Na rysunku III.24 przedstawiono współdziałanie systemów wspomagających procesy logistyczne mianowicie kompleks systemów IRP/GIS. Kompleks ten może być uznany jako jeden z podstawowych systemów stosownych w zarządzaniu e-logistyką. Jego zastosowanie umożliwia uzyskania odpowiedzi miedzy innymi na takie pytanie, związane z zarządzaniem logistycznym, jak: Co posiadasz? Gdzie to jest? Jakie to jest? Kto i w jakim celu tego używa? Kto i kiedy to naprawia? Kiedy należy wymienić? Ile Cię to kosztuje? Na ile wspiera to realizację wyznaczonych celów biznesowych? Jak obniżyć koszty eksploatacji? Rysunek III.24. Współdziałanie elementów TI w e-logistyce Źródło: opracowanie na podstawie materiałów otrzymanych od Zespołu Architektów Rozwiązań Transportu Kolejowego Computerlandu. 253

254 O niektórych zastosowaniach procedur e-zarządzania Większość informacji na temat infrastruktury transportu ma odniesienie przestrzenne, ponieważ fizycznie wszystkie elementy infrastruktury transportu są rozlokowane na terenie całego kraju. Dokładna informacja o tym, jakie urządzenie i gdzie się znajduje, jaka jest historia tego urządzenia oraz jakie są możliwości dojazdu pozwoli nie tylko na szybszą reakcję w sytuacjach awaryjnych i kryzysowych, ale także, przy normalnym użytkowaniu i okresowych pracach serwisowych, ułatwi efektywne planowanie eksploatacji posiadanej bazy transportowej i powiązanej infrastruktury. Przestawiony na rysunku system IRP/GIS pozwala na wspomaganie następujących działań: ewidencję elementów infrastruktury, pod względem formalnym (lokalizacyjnym), geograficznym, ewidencji gruntów (własnościowym), technicznym, dokumentacyjnym, wartościowym itp., wspomaganie organizacji procesów dotyczących między innymi: utrzymania tzw. floty, analizy jej planu remontów, analizy ponoszonych nakładów na funkcjonowanie systemów dostawy towarów, napraw awaryjnych, zarządzania zmianami dokumentacji, inwestycyjnych dotyczących prowadzenia całości działań logistycznych czyli nakładów na: rozwój budowę nowych linii oraz modernizację istniejących, analitycznych dotyczących ponoszonych kosztów na realizację projektów logistycznych w różnych przekrojach itp. Warunkiem powodzenia zastosowania systemu IRP/GIS jest jego współdziałanie z innymi tj.: systemy transakcyjne, systemy informowania kierownictwa, systemy doradcze a szczególnie systemy klasy e-bi. Jednak najbardziej jest on zintegrowany z systemami ERP. Współdziałanie umożliwi systemowi informatycznemu e-logistyki działać bez opóźnień tzn.: wszystkie informacje są dostępne on-line, informacje są modyfikowane w trakcie obsługi procesów bez opóźnień, System dla e-logistyki musi być zasilony danymi, które dostępne są w formie elektronicznej lub papierowej. Systemy IRP/GIS powinny współpracować z systemem ERP w obszarze zasilania go danymi na temat ewidencji ilościowej i wartościowej elementów będących przedmiotem działań logistycznych. Można przyjąć, że systemy informatyczne e-logistyki stanowią jeden z modułów Zintegrowanego Systemu Zarządzania Organizacją często też nazywanego systemem MRP II. Dla e-logistyki użyteczny jest wyspecjalizowany system TMS (System Zarządzania Transportem). Rozwiązania TMS wspomagają obsługę procesów przemieszczania towarów. Jednym z rekomendowanych rozwiązań funkcjonującym na polskim rynku jest oferowany przez ComputerLand system Transport. Jest on częścią systemu opracowanego przez holenderską firmę Intechain B.V. Aktywna analiza przepływu procesów przy zastosowaniu narzędzi jak ChainWare Nawigator umożliwia komunikację między uczestnikami procesu biznesowego oraz klientami. Opracowanie i monitorowanie tych uzgodnień wykonywane jest przez tzw. wirtualnych agentów. Obecnie oferowana wersja systemu jest dostosowana do wymagań i procedur obowiązujących w Unii Europejskiej. Informacja na temat pojazdów dostępna jest w czasie 254

255 Zarządzanie i informatyka cz. III rzeczywistym. itransport rekomendowany jest dla szerokiego grona usługodawców logistycznych: przewoźników, operatorów sieci, usługodawców 3PL/Third Party Logistics (organizacja dysponująca własnymi zasobami i kapitałem, zarządzająca i wykonująca określoną funkcję logistyczną w imieniu innej firmy). Podstawowe zalety itransport to: krótki czas wdrożenia; identyfikacja i ustanowienie standardowych procesów z odpowiadającymi im schematami kont; integracja z większością komputerowych systemów celnych w Europie umożliwiająca wymianę dokumentów celnych; wspieranie standardów NCTS (New Computerised Transit System) oraz opracowanie kompleksowych raportów celnych; analiza kosztów i zysków z dokładnością do pojedynczej przesyłki, kierowcy, pociągu, składu. System pozwala na rozszerzenie usług dla klientów, bez dodatkowych kosztów, wspieranie standardu EDI. Systemy stosowne w e-logistyce pozwalają również na ewidencję i zarządzanie flotą (pojazdami, wagonami, środkami trakcyjnymi). Koncepcja systemu opiera się na cyklu zarządzania flotą pojazdów (patrz rys. III. 25), na który składają się następujące etapy: Finanse ocena i tworzenie finansowych modeli ułatwiających wybór między różnymi alternatywami pozyskania transportu. Wybór i pozyskanie składnika floty narzędzia planistyczne oraz baza danych zawierająca pełne dane kosztowe z całego cyklu życia środków transportu. Ewidencja zasobów pełna informacja o posiadanych zasobach, ich zmianach i dostępności. Zarządzanie operacyjne zarządzanie częściami zamiennymi, serwisem, narzędziami umożliwiające w pełni aktywne zarządzanie flotą. Śledzenie zmian narzędzia i baza danych umożliwiające porównywanie kosztów i wydajności poszczególnych zasobów. Odnawianie parku sprzedaż, ewentualnie rozliczenia z dostawcami pojazdów i wagonów, wymiana u dealerów lub złomowanie. System pozwala na monitorowanie on-line całości systemu zarządzania flotą. E-logistyka umożliwia monitorowanie przesyłek, wagonów oraz całych składów pociągów. Od wielu lat jest to podstawowy cel działania wielu operatorów transportu samochodowego i kolejowego na całym świecie. Podstawą procesu monitorowania jest z jednej strony chęć podniesienia jakości oferowanych usług, a z drugiej dążenie do obniżenia kosztów bieżących działalności. W tym przypadku obydwa niesprzeczne cele da się osiągnąć wprowadzając jeden system. System taki powinien także zarządzać taborem oraz usprawniać pracę całej organizacji. Przewoźnik towarowy jest zainteresowany nie tyle pociągiem jako obiektem, lecz wagonami, ładunkiem, rozrządem i zestawianiem składu. Podstawowym elementem jest rejestrowanie zdarzeń, które mają miejsce w procesie formowania i ekspediowania pocią- 255

256 O niektórych zastosowaniach procedur e-zarządzania gu, zdarzenia, które mają miejsce w czasie jego ruchu oraz zdarzenie związane z opuszczeniem i przybyciem wagonów na polską sieć kolejową. Innym istotnym aspektem opracowania jest zarządzanie eksploatacją wagonów zarówno własnych, jak i obcych, zarówno pod względem finansowym, jak i eksploatacyjnym. Z materiałów wynika, że system informatyczny dla nowoczesnej logistyki [ Logistyka, 2004 nr 6] rekomendowany jest dla identyfikacji i zbierania danych technologią RFID (Radio Frequency Identification). Podstawowy system RFID składa się z czytnika znaczników oraz znacznika (tag), zwanego także transponderem, który służy do przechowywania danych. Typowy czytnik znaczników (transponderów) składa się z układu radiowego do komunikacji ze znacznikami, mikroprocesora przetwarzającego odczytane dane, pamięci oraz anteny. Układy identyfikacji radiowej (RFID) przeznaczone są do zdalnego zapisu/odczytu informacji na nośnikach identyfikujących. Nośniki (tagi) wykonywane są w kilku wersjach, a mianowicie jako małe pastylki niewymagające zasilania albo w postaci sztywnych lub elastycznych kart. Rysunek III.25. Cykl zarządzania flotą (pojazdami, wagonami, środkami trakcyjnymi) Źródło: opracowanie własne. Układy oferują szerokie możliwości zmiany informacji zapisanej w nośnikach za pomocą fal elektromagnetycznych. Informacja zapisana w tagach może być wielokrotnie zmieniana i przechowywana nawet 10 lat. Schemat funkcjonowania systemu monitorowania przedstawia rysunek III

257 Zarządzanie i informatyka cz. III Rysunek III.26. Monitorowanie przesłanki wg technologii identyfikacji radiowej (RFID) Źródło: opracowanie własne. Wdrażając system e-logistyki trzeba pamiętać, że sukces zależy zarówno od wiedzy merytorycznej i informatycznej osób wdrażających, jak i jest procesem wymagającym odpowiedniej organizacji. Ok. 60% wdrożeń na świecie nie kończy się sukcesem, [materiały firmy doradczej Gartner, 2005] nie z braku wiedzy informatycznej lub merytorycznej, lecz z powodu źle przeprowadzonego i zaplanowanego procesu wdrożenia. Jak istotny jest to problem świadczą również inne dane firmy Gartner [2005], a mianowicie, całkowite wydatki firm w sektorze transportu na TI wynoszą ok. 3,8% obrotów. Większą cześć kosztów stanowi utrzymanie infrastruktury informatycznej (ok. 70%). Czy są to wydatki opłacalne? To będzie analizowane w ostatniej części książki. Wszystkie jednak znane badania wykazują wysoką opłacalność zastosowań e-logistyki E-nauczanie Problematyka zastosowania ICT do edukacji była już wielokrotnie w książce wspominana. Jest to również jedno z zastosowań ICT, które rozwija się bardzo burzliwie, a liczba słuchaczy korzystających z tej formy nauczania stale rośnie. E-nauczanie (e-learning) jest określane jako nauczanie prowadzone z wykorzystaniem sieci komputerowych i Internetu. Polega ono na wspomaganiu procesu dydaktyki wykorzystując komputery osobiste i Internet. Pozwala na ukończenie kursu, szkolenia, a nawet studiów bez konieczności fizycznej obecności w sali wykładowej. Nie zawsze taka obecność jest konieczna, nawet na egzaminach. Czy może ono w pełni zastąpić nauczanie tradycyjne? Chyba jeszcze nie, może w przyszłości. E-nauczyciel jest cierpliwy i może wielokrotnie powtarzać daną frazę. Nie irytuje się i nie męczy. Doskonale uzupełnia tradycyjny proces nauczania. E-learning to tylko je- 257

258 O niektórych zastosowaniach procedur e-zarządzania den z elementów edukacji, bowiem ta w czasie rzeczywistym dotyczy znacznie obszerniejszego zasięgu usług niż e learning. Elementy e-learningu są przedstawione na rysunku. Rysunek III.27. Charakterystyka e-learningu Źródło: M. Plebańska, E-learning. Tajniki edukacji na odległość, C. H. Beck, Warszawa, 2011, s. 10. E-learning, odnosi się do stosowania w nauczaniu ICT w o wiele szerszym zakresie niż w ramach tradycyjnych szkoleń komputerowych, czy też nauczania wspomaganego komputerowo z połowy lat osiemdziesiątych. Jest również o wiele szerszy od pojęć nauczania i edukacji online, które oznaczają nauczanie tylko przez sieć internetową. ICT w nauczaniu wykorzystuje także możliwości technologii mobilnych. W tym przypadku właściwy jest termin m-lerning (mobile learning). Jest to taki etap e-nauczania, które wymaga bezprzewodowej technologii, a jego istnienie i popularność są konsekwencją obserwowanego przez nas gwałtownego rozwoju telefonii komórkowej oraz bogactwa i dostępności urządzeń mobilnych. Tu pragniemy zwrócić uwagę na stosowanie niekiedy zamiennie z e-nauczaniem lub e-learningiem pojęcia d-learning lub dlearning (distance learning) czyli metody uczenia się na odległość. Charakteryzuje się ona odseparowaniem nauczyciela od ucznia oraz ucznia od grupy uczących się, zastępując bezpośrednią komunikację interpersonalną (typową dla konwencjonalnej edukacji) komunikacją, w której pośredniczy tradycyjna poczta i technologia komunikacyjna. Przykładami zastosowania d-learningu są szkoły korespondencyjne. Jednym z warunków d-learningu jest zapewnienie komunikacji w obie strony, tak aby możliwy był dialog między słuchaczem a nauczycielem, jednakże nie jest tu wymagana jednoczesność miejsca i czasu. E-learning, który jest tylko jedną z form uczenia się na odległość, jest nowocześniejszą formą d-learningu. Rozwój e-nauczania zauważalny jest szczególnie w szkolnictwie wyższym. Wzrasta tendencja do tworzenia środowisk VLE (Virtual Learning Environment), które w połączeniu z systemami kontroli informacji (Managed Informaton System, MIS), tworzą system kon- 258

259 Zarządzanie i informatyka cz. III troli środowiska e-learningowego (Managed Learning Environment). W środowiskach tych wszelkie informacje związane z kursem przekazywane są przez interfejs użytkownika zgodny ze standardami obowiązującymi na uczelni. Coraz więcej szkół wyższych oferuje przez Internet wybrane programy dyplomowe na wielu poziomach i w wielu dziedzinach. Zazwyczaj studenci zobowiązani są do uczęszczania na zajęcia, jednak wiele kursów jest udostępnianych wyłącznie on-line. Ponadto, coraz częściej uczelnie oferują studentom wsparcie on-line, np. w formie informacji i rejestracji w sieci, e-doradztwa, sprzedaży podręczników przez Internet, stron samorządów czy gazet studenckich on-line. Istotą e-learningu jest dwukierunkowość. Uczelnia decydująca się na prowadzenie studiów za pośrednictwem Internetu ma możliwość przekazywania wiedzy, ale również jej sprawdzenia. Dzięki realizacji procesu nauczania w systemie e-learningu uzyskuje się nowe wartości, jak też zmienia się tradycyjny model nauczania w szkołach wyższych. Metodyki zdalnego nauczania, definiujące dany model e-learningu, dotyczą zarówno sposobów wykładu treści, ich prezentacji i wizualizacji, jak również form komunikacji i współpracy na linii nauczyciel student oraz student student [A. Stanisławska, 2006]. Możemy wyróżnić następujące bazowe modele nauczania w systemie e-learningu: 1. Model nauczania e-learningowego jako model podstawowy. 2. Model nauczania e-learningowego jako model wspierający nauczanie tradycyjne. W zależności od stosowanych rozwiązań udział e-learningu w całości procesu edukacji jest różny. W pierwszym modelu student ma bezpośrednią styczność z uczelnią jedynie w czasie egzaminów, a wszelkie treści dydaktyczne są mu dostarczane za pomocą platformy e-learningowej. Zaznaczyć tu należy, iż w niektórych krajach nawet weryfikacja uzyskanej wiedzy może odbywać się zdalnie. Technologia nauczania stosowana w tym modelu dotyczy wykorzystania różnych procedur takich, jak między innymi: korzystanie z różnych platform oraz uzyskiwania wspomagających materiałów dydaktycznych w postaci tradycyjnej (skrypty) lub na e-nośnikach (płyty CD, pamięć USB znana także pod nazwami: pendrive, USB Flash Drive, Flash Disk, Flashdrive, Finger Disk, Massive Storage Device, Flash Memory Stick Pen Drive, USB-Stick). Na rysunku III.28 przedstawiono reklamę e-lerningu pokazującą siłę jego oddziaływania 259

260 O niektórych zastosowaniach procedur e-zarządzania Rysunek III.28. E-learning dociera wszędzie Źródło: [2014] Drugi model jest stosowany jako technologia wspomagająca nauczanie tradycyjne. Jest to tak zwane nauczanie mieszane, czyli b-learning (blended learning). Proporcje między modelem tradycyjnym a e-learningowym są tu bardzo różne i wahają się w praktyce od 80% do 20%. Ciekawe byłyby studia nad optymalizacją tych wielkości. W współczesnych modelach nauczania właśnie taki model przynosi największe korzyści [J. Kisielnicki, 2010]. Jak wykazały badania N. Walla [2012] studenci na Uniwersytecie Humboldta w Berlinie uważają, że wzbogacenie systemu tradycyjnego przez e-learning jest pożyteczne i efektywne z punktu widzenia podwyższenia jakości procesu nauczania. Jednak istnieje też wiele zarzutów takich, jak: skomplikowana struktura systemu, duża liczba niepotrzebnych funkcji, nieatrakcyjna i mało przyjazna grafika, trudna nawigacja. Są to jednak wady, które mogą zostać usunięte w trakcie unowocześnienia platformy informatycznej. Niezależnie od przyjętego modelu e-learning wymaga istnienia i rozbudowywania, zgodnie z wymaganiami użytkowników (studentów, trenerów wykładowców i administracji), platformy e-learnigowej. Jej konstrukcja ma zasadniczy wpływ na zastosowane mechanizmy prowadzenia danych studiów e-learningowych. Zwykle powstaje oddzielna strona WWW (lub sekcja serwisu w subdomenie), gdzie umieszczane są materiały wykładowe (wykłady, ćwiczenia, analiza przypadków), udostępniane studentom. Administrator systemu ma możliwość podziału na grupy, wyznaczania obszarów dostępu itd. W literaturze podaje się również inne podziały modeli. I tak W. Kołodziejczyk [2008] wyróżnia następujące postacie e-learningu: Nauczanie wspomagane materiałami elektronicznymi. Kursy on-line w tym kursy bez nauczyciela, samouczki. Klasyczny e-learning, w tym nauczanie z możliwościami komunikacji synchronicznej i asynchronicznej, jak też za pomocą lms-u (learning management system). 260

261 Zarządzanie i informatyka cz. III Blended learning, w których są stosowane sale wirtualne i spotkania w salach rzeczywistych wspomagane nauczaniem elektronicznym. Modele e-lerningowe można też podzielić na: bezplatformowe, gdzie proces dydaktyczny realizowany jest przez bezpośrednie przekazywanie słuchaczom materiałów dydaktycznych w postaci tradycyjnej (skrypty) lub na e-nośnikach oraz platformowe, w których używa się narzędzi internetowych. Rozwija się oferta masowych, otwartych kursów on-line (MOOC massive open online courses), które pozwalają zdalnie i bezpłatnie brać udział w wybranym kursie akademickim, czasem zakończonym egzaminem. Nie jest przy tym wymagany status studenta uczelni wyższej. E-learning może również odnosić się do edukacyjnych stron internetowych, udostępniających np. scenariusze lekcji, arkusze ćwiczeń, czy interaktywne ćwiczenia dla dzieci. Rysunek III.29 przedstawia ekran z kursu e-learningowego dla dzieci. Kurs ten skierowany był do uczniów szkół podstawowych. Tematem przewodnim składającego się z 7. części kursu było bezpieczeństwo w sieci. Zrealizowano go w konwencji interaktywnej kreskówki. Szkolenia w organizacjach biznesowych wykazują dwie przeciwstawne tendencje: Pierwsza z nich to konieczność stałego szkolenia pracowników dla dostosowywania ich kwalifikacji do wymagań współczesnej organizacji, funkcjonującej w turbulentnym i stale zmieniającym się świecie. Kierownictwo zdaje sobie sprawę, że bez szkoleń spada jego konkurencyjność, a tym samym zmniejsza się jego wartość. Druga to szukanie oszczędności przez ograniczenie kosztów niezwiązanych bezpośrednio z działalnością, a więc zmniejszanie między innymi kosztów szkoleń, jak i maksymalizację pracy bezpośredniej pracowników w organizacji (szkolenie to najczęściej odrywanie pracowników od bieżącej pracy). 261

262 O niektórych zastosowaniach procedur e-zarządzania Rysunek III.29. Ekran z kursu e-learningowego dla dzieci Źródło: Kierownictwo organizacji staje przed dylematem podejmowania takich decyzji, które pozwalają na znalezienie strategii zarówno akceptowalnej z punktu widzenia ponoszonych nakładów, jak i prowadzących do wzrostu jej wartości. Problem polega na odpowiedzi jak, przy podejmowaniu decyzji co do szkoleń, uwzględniać te dwie przeciwstawne tendencje. Konsekwencją decyzji jest wybór skutecznej i efektywnej strategii szkoleń, która będzie je godziła. Uważa się, co uzasadniają wyniki badań przedstawione w tabeli III.4., iż to właśnie strategia e-learningowa najpełniej realizuje kryteria skuteczności i efektywności procesu szkolenia. Tabela III.4. Analiza SWOT dla szkoleń prowadzonych metodą e-learning Mocne strony S Dostosowanie programu szkoleń do indywidualnych potrzeb użytkowników (indywidualizacja tempa i treści) Kiedy chce wtedy zdobywam wiedzę, czyli tam gdzie mój laptop, tam moja uczelnia Możliwość szkolenia pracowników w miejscu pracy Możliwość szybkiej reakcji na zmiany w otoczeniu, czyli na nową wiedzę Łatwość absorpcji i transformacji wiedzy Słabe strony W Konieczność posiadania środków technicznych na uruchomienie szkolenia Pracochłonność opracowania pierwszych studiów Trudności w egzekwowaniu wiedzy Uzależnienie wyników kształcenia od niezawodności funkcjonowania sprzętu komputerowego, oprogramowania oraz sieci Duży odsetek osób niekończących szkolenia 262

263 Zarządzanie i informatyka cz. III Praktycznie nieograniczona liczba słuchaczy Możliwość nieustannego doszkalania pracowników (lifelong learning) Interaktywność szkoleń Możliwość bezpośredniej weryfikacji efektów szkolenia Szanse O Możliwość zdobywania wiedzy przez tych, którzy w innych warunkach nie mieliby szans uczestniczenia Możliwość bezpośredniej wymiany poglądów Szybkie reagowanie na potrzeby rynku pracy Szybkie uzupełnianie potrzebnej wiedzy Większa niż w tradycyjnych systemach edukacji efektywność wymiany wiedzy między uczestnikami procesu nauczania Zagrożenia T Awarie sprzętu Brak szerokiego dostępu do Internetu Bariera ekonomiczna Międzynarodowa konkurencja Brak popytu na ten rodzaj szkolenia Opory pracodawców przeciwko traktowaniu tej formy nauczania jako pełno prawnej Źródło: opracowanie własne. Należy zwrócić uwagę, że modele nauczania w uczelniach, a modele szkolenia korporacyjnego różnią się i to znacznie. Modele korporacyjne są szersze i bardziej rozbudowane [J. Kisielicki, O. Sobolowska 207] niż modele stosowane w szkolnictwie wyższym. Przewaga e-learningu nad innymi metodami polega na przeniesieniu środka ciężkości w nauczaniu z nauczyciela na uczącego się pracownika. E-learning umożliwia mu samodzielne wybranie preferowanego formatu dostarczania wiedzy i tempa jej przekazywania. Czy e-learning jest uważany za lepszą technikę uczenia od standardowych wykładów? Wiele firm, instytucji i szkół coraz częściej wprowadza kształcenie oparte na technologiach webowych. Świadczy to o świadomości większych możliwości, jakie daje kształcenie online. Na rynku możemy spotkać liczne rozwiązania techniczne, które umożliwiają realizację szkoleń przez sieć Internet. Jedną z nich, najbardziej znaną i najpowszechniej użytkowaną, jest platforma Moodle. (Modular Object Oriented Dynamic Learning Environment). Została ona stworzona na bazie Apache, PHP i MySQL lub PostgreSQL przez Martina Dougiamasa, którego celem było wsparcie nauczycieli w tworzeniu kursów on-line takich, które umożliwiałyby interakcję i współpracę w budowie kursu również przez studentów. Pierwsza wersja Moodle powstała 2 sierpnia 2002 roku i od tego czasu jest w nieustannej ewolucji. Platforme Moodle można uruchomić w systemach Linux, MS Windows, Mac OS X, NetWare 6. Moodle jest rozprowadzany za darmo jako oprogramowanie open source zgodnie z licencją GNUGPL3 co oznacza, że użytkownicy maja prawo do korzystania z oprogramowania w dowolnym celu, mogą je modyfikować oraz udostępniać innym zarówno samo oprogramowanie, jak i dokonane samodzielnie zmiany. Jest to ułatwione dzięki modułowej budowie systemu, która umożliwia szybkie odnalezienie kodu programu odpowiedzialne- 263

264 O niektórych zastosowaniach procedur e-zarządzania go za konkretną funkcję. Taka konstrukcja pozwala na sprawną modyfikację i daje mo żliwość szybkiego rozszerzenia systemu oraz dostosowywania go do własnych, indywidualnych potrzeb. Moduły zawarte w systemie Moodle to: moduł zasobów pozwalający na umieszczanie na platformie treści w postaci dokumentów tekstowych i prezentacji, moduł zadań umożliwiający tworzenie zadań dla studentów oraz ich ocenę przez nauczycieli, moduł forum jego zadaniem jest uruchomienie forum dyskusyjnego, moduł ankiet, moduł quizów, moduł wyboru pozwalający na przygotowanie składowej w głosowaniu. Aktualnie z systemu Moodle korzysta zarejestrowanych użytkowników (w tym użytkowników to osoby prowadzące szkolenia nauczyciele) z 220 krajów na całym świecie. W samej Polsce z platformy Moodle korzysta zarejestrowanych stron (na całym świecie stron zarejestrowanych jako użytkownicy tego rozwiązania jest ). Wśród użytkowników platformy Moodle znajdują się zarówno firmy, jak i uczelnie, choćby Uniwersytet Warszawski, Politechnika Warszawska, Akademia Górniczo-Hutnicza w Krakowie, Szkoła Główna Gospodarstwa Wiejskiego, czy Akademia Marynarki Wojennej w Gdyni. Schemat funkcjonowania systemu pokazuje rysunek III.30. Rysunek III.30. Schemat funkcjonowania platformy Moodle Źródło: iformatyka.wroc.pl/kursy/mod/page/view.php?id= Wszystkie statystyki związane z platformą Moodle pobrane zostały ze strony moodle.org (stan ). 264

265 Zarządzanie i informatyka cz. III Można wydzielić następujące trzy podstawowe strategie nauczania z zastosowaniem ICT: asynchroniczna, synchroniczna, konwergencyjna. Strategie te mogą być realizowane rozmaicie. Strategia asynchroniczna jest to szkolenie zindywidualizowane. Uczący korzystają z systemu edukacyjnego, gdzie chcą i kiedy chcą. Nauczanie bazuje m.in. na CD-ROMach, danych pozyskiwanych z sieci internetowej lub interanetowej. Podczas uczenia się można korzystać z różnego rodzaju forum lub brać udział w grupach dyskusyjnych. W tym systemie można przyjąć, iż stosowana jest zasada: tam gdzie jest mój laptop, tam jest moja sala wykładowa. Strategia synchroniczna ma na celu bezpośrednią naukę, a więc naukę i jej odbiór w tym samym czasie. Mamy tu stały, dwustronny, interaktywny kontakt między wykładowcą a słuchaczem. Może on być pisemny (np. IRC Internet Relay Chat), głosowy (np. Gadu-Gadu) a nawet wzrokowy dzięki wideokonferencji. Strategia konwergencyjna, czyli tzw. blended learning (strategia mieszana) jest najczęściej stosowana i polecana. Wykorzystuje się w niej elementy tradycyjne (wykłady i ćwiczenia) i nowoczesne, wymienione wcześniej technologie nauczania na odległość. Każda z wymienionych uprzednio strategii może być wspomagana przez dwa systemy zarządzania procesem nauczania, jak: LMS (Learning Management System), LCMS (Learning Content Management System). System LMS pozwala na administrowanie kursami i prezentowanie przedstawianych na nich treści. Umożliwia on monitorowanie postępów w nauce studenta oraz określanie praw dostępu do poszczególnych modułów i kursów dla poszczególnych użytkowników. Zaawansowane LMS-y pozwalają na realizowanie studiów we wszystkich strategiach kształcenia. Systemy LCMS są bardziej zaawansowane technologicznie. Prócz funkcji systemu LMS, posiadają dodatkowe moduły służące do tworzenia treści dydaktycznych, tzw. kursów WBT (Web Based Training). Systemy LMS mogą jedynie prezentować multimedialne treści dydaktyczne. Każda z wymienionych strategii może być realizowana za pomocą różnych środków technicznych, czyli tzw. platform. W Polsce, na przykład, oferowane są m.in.: Platforma WBT firmy Digital Spirit. Platforma zawiera dwa programy: WBTExpress 3.0 oraz WBTServer 3.1. Adres: 265

266 O niektórych zastosowaniach procedur e-zarządzania Platforma ReadyGo! firmy Mindworx będąca specjalistyczną aplikacją przeznaczoną do przygotowywania szkoleń dla systemów e-learningu. Adres: Platforma Lotus Learning Space to skalowalna jednostka programowo-sprzętowa zapewniająca wsparcie dla złożonych projektów szkoleniowych. Moduły Learning Space Core i Learning Space Collaboration obsługują asynchroniczny i grupowy tryb nauczania. Adres: electurer powstała w wyniku współpracy badawczej firmy PMP IT Consulting z Wydziałem Zarządzania Politechniki Warszawskiej. Platforma jest udostępniana bezpłatnie dla wszelkiej edukacji niekomercyjnej. Adres: Platforma dostępna w ramach bezpłatnego oprogramowania tzw. open sources Moodle. Na platformie Moodle zbudowany jest m.in. Wirtualny Campus UMCS i zdaniem jednego z wykładowców (M. Bałtowskiego), prowadzącego na nim zajęcia, działa bardzo dobrze. W wymienionych rozwiązaniach istnieją możliwości: definiowania struktury i treści wykładu (teksty, wzory itp.); zamieszczanie plików z grafiką (np.: schematy, mapy, plany), animacją, video; zamieszczanie komentarzy audio (nagranych uwag i notatek wykładowcy do wybranych partii materiału); definiowanie treści pytań i odpowiedzi testowych i egzaminacyjnych; przeglądanie raportów na temat aktywności studentów; przeprowadzanie i ocenianie testów i egzaminów końcowych. Zastosowanie każdej z wymienionych uprzednio platform wymaga użycia Internetu, czyli zastosowanie tzw. ILM (Internet Based Learning) [por.: R. Saade, 2003 i 2006]. Obserwujemy stale rosnącą ofertę usług edukacyjnych. Jak wykazują badania przeprowadzone w różnych ośrodkach [SGH, 2005] jednych przedmiotów przez Internet jest się nauczyć łatwiej, innych trudniej. Podobnie łatwiej jest prowadzić kursy przez Internet w rodzaju: Psychologia odchudzania lub Kurs czytania pisma majów, niż zajęcia zmierzające do uzyskania dyplomu ukończenia studiów inżynierskich z informatyki w PJWSTK. To ostatnie stwierdzenie pozwala nam zdać sobie sprawę z ogromnej rozpiętości celów, jakie są realizowane w nauczaniu e-edukacyjnym. Wzorem do naśladowania mogą być serwisy edukacyjne, działające przy renomowanych uczelniach. Można wymienić następujące: HBS Working Knowledge (Harvard Business School), Insead Knowledge (działający przy elitarnej szkole biznesu INSEAD) oraz Knowledge@Wharton (The Wharton School, University of Pennsylvania). Wszystkie te serwisy oferują dostęp (po rejestracji) do obszernej biblioteki artykułów poruszających tematykę szeroko pojętego zarządzania w ramach wyraźnie wyodrębnionych sekcji tj.: biznes, marketing, finanse, zarządzanie strategiczne itp. Pisząc o e-edukacji należy również wspomnieć o prekursorze, stosowanej na szeroką skalę, e-edukacji, którym jest grupa Phoenix, stworzona na University of Phoenix (kilkadziesiąt punktów e-edukacji i ok. 200 tysięcy studiujących ludzi z całego świta). 266

267 Zarządzanie i informatyka cz. III Uruchamianie e-edukacji może mieć różne przyczyny. W małych uczelniach problemem jest brak kadry nauczającej. Ustawa o szkolnictwie wyższym mówi, że jeśli uczelnia chce otworzyć określony kierunek studiów powinna dysponować tzw. minimum kadrowym (określona liczba samodzielnych nauczycieli akademickich i doktorów zatrudnionych na etacie (pierwszym lub drugim). Problemem jest też konieczność przemieszczenia się słuchaczy z małych ośrodków do większych miast ośrodków akademickich Dla uczelni mających swoje filie w małych ośrodkach, problemem jest realizacja obowiązku, który wynika z przepisu o konieczności przeprowadzenia 30% zajęć w uczelni macierzystej. Studenci, którzy mieszkają w takich ośrodkach preferują, ze względów ekonomiczno-czasowych, studia w miejscu zamieszkania. Strategia e-edukacyjna byłaby pewną możliwością spełnienia wymagań Ustawy. Badania nad motywacją studentów przeprowadzane są w szeregu ośrodkach, zarówno za granicą, jak i w Polsce. Na szczególną uwagę zasługują polskie badania prowadzone przez M. Dąbrowskiego i M. Zając [2006]. Według tych autorów nie zawsze mamy do czynienia z pozytywną motywacją studiowania przez Internet. Słuchacze podają, że narzędzia e-edukacji generują, w stosunku do systemu tradycyjnego, dodatkową pracę dla studenta, którą przeciętny uczestnik kursu chciałby ograniczyć do minimum, tj. tylko do studiowania e-podręcznika. Przy przyjętym obecnym modelu e-edukacji akademickiej, w którym zajęcia nie są jedynie wykładami, ale mają charakter zbliżony do seminariów lub wykładów połączonych z ćwiczeniami, nie zawsze jest to możliwe. Dodatkowo, użycie internetowych narzędzi komunikacyjnych powoduje natychmiastowe efekty (także negatywne, wynikające z nieporadności lub błędów), widoczne dla pozostałych członków wirtualnej społeczności. W konsekwencji potęguje to opory wobec stosowania nowoczesnych technologii. Cytując sformułowanie o jakości stosowanego w nauczeniu systemu komunikacji, z forum dyskusyjnego SGH, poświęconego e-edukacji stosunkowo duża grupa, 35% respondentów, uznała je za narzędzia niespełniające oczekiwań interaktywności, a 20% studentów wyraziło opinię, iż są to narzędzia nieużyteczne. W pełni zasadna jest opinia M. Zając [2006], która uważa, że warto zwrócić uwagę na różnice między tzw. e-learningiem korporacyjnym nastawionym często na ćwiczenie pewnych umiejętności (a zatem bogato ilustrowanym testami interaktywnymi, ćwiczeniami, zadaniami, nawet elementami gier), a wykładem akademickim prowadzonym w trybie on-line, gdyż celem jest tu przede wszystkim przekazanie określonej wiedzy. Jak pisze M. Zając postulatem kolejnych grup studenckich jest to, aby każdemu z prowadzonych w SGH wykładów on-line towarzyszyło dedykowane forum dyskusyjne. Na takim forum studenci powinni mieć możność wypowiedzi zarówno w ramach wątków zaproponowanych przez wykładowców, jak też sformułować własne problemy i zapytania. I tu właśnie pojawia się kwestia czasu, jaki trzeba przeznaczyć na naukę on-line. Wykład prowadzony w formie tradycyjnej nie wymusza systematyczności studenta, częstą praktyką jest zapoznawanie się z treściami wykładu dopiero bezpośrednio przed egzaminem. W przypadku wykładów on-line, które swoją formą bardziej przypominają seminaria, gdzie udział w dyskusjach na 267

268 O niektórych zastosowaniach procedur e-zarządzania forum jest punktowany, ale występują także prace pisemne, wskazana jest aktywność przez cały semestr. I to rzeczywiście może dla niektórych studentów stanowić trudność, bądź to właśnie ze względu na ową wymaganą systematyczność, bądź po prostu przez samą konieczność większego zaangażowania, które dla osób pracujących może być kłopotliwe. Jeff Bezos twórca księgarni internetowej Amazon sformułował następujący pogląd: moja księgarnia powinna czymś zrekompensować czytelnikowi zapach farby drukarskiej i niepowtarzalny szelest kartek nowiutkiej książki branej do ręki. I teraz pytanie do Czytelnika czy elektroniczny nauczyciel zrekompensuje faktycznego wykładowcę i co zrekompensuje brak adrenaliny, która wytwarza się przy zdawaniu kolokwium w świecie realnym i niepowtarzalną atmosferę giełdy egzaminacyjnej. 268

269 269 Część IV Zarządzanie projektami

270 11. Projekt Podejście projektowe w zarządzaniu Organizacja procesu projektowania systemy komunikacji stosowane w zespołach projektowych 12. Analiza organizacji Miejsce analizy w cyklu życia systemu Procedura i modele analizy podstawy Identyfikacja użytkowników i stawianych przez nich celów Wybrane modele analizy organizacji 13. Projektowanie systemu informacyjnego zarządzania O rozwiązaniach metodycznych Metodyki projektowania systemów Jakość projektu i procedur realizujących Doskonalenie projektu (kaizen, reengineering, X-engineering) Strategia realizacji projektu 14. Wdrażanie systemów informacyjnych Miejsce wdrażania w cyklu zycia systemu Procedura wdrażania Zarządzanie procesem wdrażania Czynniki wpływające na efektywność wdrażania systemu 270

271 Rozdział 11 Projekt Podejście projektowe w zarządzaniu System informacyjny funkcjonujący w organizacji powinien zmieniać się wraz z zachodzącymi w niej zmianami. Zarządzanie jest bowiem nauką o zmianach, które dokonują się stale w organizacji i otaczającym ją świecie. A jak przedstawiono w poprzedniej części, zmiany powinny być stale absorbowane przez system informacyjny. Dokonujące się procesy: deregulacji, prywatyzacji, globalizacji, zwiększająca się konkurencja, fuzje i przejęcia, powodują konieczność informacyjnej osłony tych zmian. Zapewniają ją systemy informacyjne organizacji. Projektowaniu relewantnych systemów informacyjnych sprzyja współczesna technologia informacyjna i komunikacyjna. Tworzony, współczesny system informacyjny musi być elastyczny i stale dostosowujący się do zachodzących zmian. Każdy projekt rozpoczyna się od pomysłu. Co mamy zrobić? Jest to najbardziej istotny punkt całej procedury powstania i realizacji projektu. Dobry pomysł, to już połowa sukcesu. Powstaje w różny sposób. Najprościej, gdy użytkownik/cy, którego nurtuje jakiś nie zawsze precyzyjne zdefiniowany problem pragnie go rozwiązać. Do tego celu uruchamia działania, które można zakwalifikować do kategorii projektów tu wspomagających zarządzanie. W różnym czasie i miejscu doznajemy olśnienia wiemy, co i jak robić. Najpierw jest w naszym umyśle chmura, mgła. Kontury niekiedy lekko zarysowane, a potem stopniowo wszystko się porządkuje. Czas zmian to czas wielkich szans dla tych, którzy potrafią te nowe realia zrozumieć, zaakceptować i wykorzystać. Na ten fakt zwraca między innymi uwagę A. K. Koźmiński [2005, s.7], który pisze o konieczności poszukiwania nowych metod i technik niezbędnych dla zarządzania zmianami. Problem ten formuje on następująco: Trudno sobie wyobrazić, by w tak zmienionych warunkach można było spokojnie kontynuować wypracowane w latach 60. i 70. XX wieku wzorce i metody zarządzania firmami, które muszą dziś sprostać odmiennym jakościowo, coraz szybciej zmieniającym się wyzwaniom. Jak realizować dostosowanie się systemów informacyjnych do dokonujących się zmian? Wyróżnić można dwa typy projektowania systemów. Możemy: 1. projektować taki system, który wspomaga działania kierownictwa organizacji w jego reakcji na zmiany, 271

272 Projekt 2. projektować system bierny, którego zadanie polega jedynie na stwierdzeniu występowania zakłóceń w działaniu organizacji i informowaniu o tym kierownictwa organizacji, które podejmuje działania amortyzujące albo zgoła kosmetyczne. Systemy informacyjne wspomagające bierne metody zarządzania, nastawione na harmonizację działań prostych i powtarzalnych, okazują się mało skuteczne wobec nowych wyzwań. Zarządzanie, które koncentrowało się na działaniach prostych i powtarzalnych ustępuje miejsca zarządzaniu koncentrującemu się na działaniach złożonych i niepowtarzalnych, określanych mianem zarządzania projektami [por.: K. Ziemniewicz, 2006, s. 77]. Przedstawiając zagadnienia tworzenia i zarządzania projektami informacyjnymi pragniemy zwrócić uwagę na podstawowe, nie zawsze jednoznacznie prezentowane w literaturze, pojęcia, a mianowicie: projekt, zarządzanie projektem, proces projektowania, metodyka projektowania. Projekt systemu informacyjnego jest to dokumentacja opisująca zarówno nowy system informacyjny, jak też modernizację już istniejącego. Tworzenie projektu obejmuje również wdrażanie zmian organizacyjnych, technologicznych, czy też wspomaganie procesów wprowadzania na rynek nowych produktów lub usług. Dla pewnego uproszczenia przyjmujemy, że w wyniku realizacji projektu uzyskujemy określony produkt system informacyjny. Pisząc o projekcie mamy na uwadze podwójne znaczenie tego pojęcia a mianowicie: 1. projekt jako dokument, 2. projekt jako czynność, przedsięwzięcie. Tworzymy więc projekt systemu informatycznego (pierwsze znaczenie) przez proces projektowania systemu (drugie znaczenie). R. Wysocki, R. McGary [2005] określają projekt, jako sekwencję niepowtarzalnych, złożonych i związanych ze sobą zadań, mających wspólny cel, które przeznaczone są do: wykonania w określonym terminie, bez przekraczania ustalonego budżetu, zgodnie z założonymi wymaganiami. Projektowanie składa się więc z wielu działań, które powinny być wykonane w określonej kolejności (sekwencji). Zarządzanie projektami oraz tzw. podejście projektowe to nie kolejna moda, ale precyzyjny i nowy kierunek w zarządzaniu. Podejście to stosujemy powszechnie, choć nie zawsze zdajemy sobie sprawę z konsekwencji, jakie ono niesie. Tradycyjne metody zarządzania nastawione na harmonizację działań prostych i powtarzalnych okazują się mało 272

273 Zarządzanie i informatyka cz. IV skuteczne we współczesnych stale zmieniających się warunkach. Zarządzanie skoncentrowane na działaniach prostych i powtarzalnych ustępuje miejsca zarządzaniu złożonemu i niepowtarzalnemu, realizowanemu w turbulentnym świecie. Takie współczesne zarządzanie nosi często nazwę zarządzanie projektami lub podejście Hollywood. W tej to bowiem fabryce marzeń dąży się do stworzenia produktu, czyli filmu, który odniesie sukces na rynku, a jego realizatorom zapewni sławę i zyski. Realizując film, stosuje się niepowtarzalne i indywidualne metody produkcji. I jak głosi legenda, na wzór produkcji filmów, przyjęto założenia do realizacji dowolnego projektu. W ostatnich latach jednymi z najczęściej używanych terminów, zarówno w literaturze, jak i programach wykładów na temat zarządzania, są dwa powiązane pojęcia, a mianowicie: projekt i zarządzanie projektem. Mimo, że każdy z nas nie ma najmniejszych trudności ze rozumieniem, co jest przedmiotem tych pojęć, to już z ich zdefiniowaniem, a tym samym określeniem zakresu ich oddziaływania, mogą być problemy. Termin projekt jest kalką angielskiego słowa project. Wydaje się, że dla języka polskiego bardziej odpowiednie byłoby używanie terminu przedsięwzięcie. Trudno byłoby jednak zmieniać powszechnie stosowany termin projekt. Najważniejsze, abyśmy wiedzieli, co autor ma na myśli, a także mieli dość energii i środków, aby realizować ambitne i korzystne projekty. I tu może pojawić się pytanie: dlaczego właśnie teraz nastąpiło ogromne zainteresowanie problematyką projektów i zarządzania nimi? Zarządzanie obiektowe, czyli statyczne, ukierunkowane najwyżej na modernizację istniejącego obiektu, przestało być skuteczne. W zmieniającym się świecie konieczne jest zastosowanie takich metod, które będą skuteczne wobec nowych, złożonych i niepowtarzalnych, ciągle zmieniających się wyzwań. Takie właśnie działania określamy mianem zarządzania projektami. We współczesnym świecie stale dokonują się zmiany. Mówimy o uciekającym i wirującym świecie, o globalnej wiosce i o turbulentnym otoczeniu. Odpowiedzią na potrzeby związane z zarządzaniem zmianami jest podejście projektowe i zarządzanie projektami. Jeżeli dojdziemy do wniosku, że trzeba wprowadzać zmiany, to należy zadać sobie pytanie i znaleźć sposób jak je realizować? Odpowiedź jest prosta: oczywiście na drodze opracowania projektu i jego realizacji, a następnie wdrożenia. Stosujemy podejście, które w literaturze przedmiotu określa się mianem zarządzania projektami. Naturalnie byłoby nieprawdą pisanie, że dawniej nie tworzono nowych obiektów. Punkt ciężkości nie był jednak położony na tworzenie nowych fabryk czy domów. Tendencję tę możemy zaobserwować w praktyce gospodarstw domowych, gdzie mało kto remontuje lub naprawia stary sprzęt. Bardziej opłacalne jest kupno czegoś nowego niż reperowanie np. telewizora, telefonu czy butów. Oczywiście to stwierdzenie jest pewnym uproszczeniem, ale pokazuje ogólne tendencje i zachowania konsumentów. 273

274 Projekt Przedstawiając zagadnienia zarządzania projektami, pragniemy zwrócić uwagę na dwa zasygnalizowane już wcześniej pojęcia: projekt i zarządzanie projektem. Projekt jest pojęciem szerokim znaczeniowo. Projektem mogą być nawet tak proste czynności, jak zorganizowanie romantycznego spotkania przy świecach tu naszym produktem jest spotkanie. W praktyce jednak projekty bywają bardzo złożone, jak np. lot na Marsa czy wojna z terroryzmem. Natomiast takie przedsięwzięcie, jak wspomniane spotkanie przy świecach określa się terminem zdarzenie lub wydarzenie (event). W praktyce bowiem małe projekty, takie jak np. organizacja uroczystości rodzinnych, firmowych czy politycznych typu prawybory noszą potoczną nazwę eventów (kolejny termin zaczerpnięty z języka angielskiego). Jednym z największych projektów realizowanych w ostatnich czasach w Polsce były mistrzostwa Europy w piłce nożnej, czyli Euro Typowe projekty, które są realizowane powszechnie w praktyce gospodarczej, to m.in. budowa domu, stworzenie systemu komputerowego, prywatyzacja stoczni, wyprodukowanie określonego rodzaju lekarstwa, budowa pływalni czy wprowadzenie nowego towaru na rynek. M. Pawlak [2006] zawęża pojęcie projektu. Przedstawia on go, jako przedsięwzięcie realizowane w określonej organizacji, które jest nowe, nietypowe, odmienne od działań rutynowych. We wszystkich definicjach projektu autorzy bardzo mocno podkreślają, że jego zadaniem jest realizacja celu ogólnego, który może składać się z celów szczegółowych. Złożone projekty mogą być dzielone na podprojekty. Podprojekty powinny być realizowane w określonej kolejności (sekwencji). Pomocne jest tu zastosowanie określonych narzędzi opisanych w naukach o zarządzaniu, tj.: drzewa celów, WBS, harmonogramów PERT/CPM, karty wyników (niektóre ze wspomnianych narzędzi zostaną omówione w innych rozdziałach książki). Jakich użyjemy narzędzi? Odpowiedź zależy od wielkości i złożoności projektu. Jeżeli przy dużej dekompozycji wszystkie podprojekty zostaną zrealizowane prawidłowo, to możemy uznać, że cały projekt został wdrożony. Problem leży w dobrze zbudowanej mapie drogowej realizacji projektu o czym w dalszej części książki. Projekt to system działań charakteryzowany przez triadę przedstawioną na rysunku IV.1. Parametry projektu to jego zakres, terminy realizacji i zasoby (ludzkie, kapitałowe, materialne, technologiczne, informacyjne) potrzebne do realizacji projektu. Niekiedy dodaje się do wymienionych jeszcze dwa nowe: jakość i koszty. Można przyjąć, że te parametry są zawarte w już wymienionych cechach, a mianowicie jakość jest elementem zakresu projektu, a koszty są elementem zasobów (koszt pozyskania zasobów). W literaturze przedmiotu pisze się też o takich cechach projektu, jak niepowtarzalność, złożoność, identyfikowalność. Cechy te są pożądane, ale nie są konieczne. Tak jak nie wchodzi się drugi raz do 274

275 Zarządzanie i informatyka cz. IV Rysunek IV.1. Trójkąt elementów charakteryzujących projekt Źródło: Z. Szyjewski, Metodyki projektowania systemów informatycznych, Placet, Warszawa tej samej rzeki, tak też nie realizuje się drugi raz identycznego projektu. Zmieniają się warunki, ludzie nie są tacy sami, stale mamy nowe wyzwania. Czasami te zmiany są większe, czasami mniejsze. Problem złożoności nie jest jednoznaczny. Co dla jednych jest bardzo proste, dla innych stanowi niezwykle złożony problem. Również jak przedstawimy w dalszej części książki bardzo często realizujemy projekty, których identyfikacja dokonuje się w trakcie ich powstawania. R. Turner [2011 cyt. za: J.Stawickim] uważa, iż istnieją następujące szkoły zarządzania projektem: Szkoła optymalizacji, traktująca projekt jako maszynę, obejmująca m.in. metodę ścieżki krytycznej, PERT, złoty trójkąt oraz teorię systemów; Szkoła modelowania, będąca rozwinięciem szkoły optymalizacji i traktująca projekt jako lustrzane odbicie rzeczywistości; Szkoła sukcesu, według której projekt jest traktowany jako cel biznesowy. Wyróżnia ona kryteria sukcesu (co ma być osiągnięte), czynniki sukcesu (jak będzie to osiągnięte) oraz wybór narzędzia, uzależniony od kryterium i czynnika; Szkoła governance, traktująca projekt jako jednostkę prawną, i jako tymczasową organizację. Według tej szkoły governance to: definiowanie celów, definiowanie środków dla realizacji tych celów, monitorowanie postępu na drodze realizacji tych celów; Szkoła behawioralna, traktująca projekt, jako system społeczny i mówiąca o takich zagadnieniach, jak m.in.: zachowania organizacyjne, zarządzanie zasobami ludzkimi oraz inteligencja emocjonalna; Szkoła marketingu, traktująca projekt jako billboard i zwracająca szczególną uwagę na takie zagadnienia, jak: wewnętrzny marketing projektu, zarządzanie interesariuszami, sprzedaż projektu na poziomie najwyższego kierownictwa; 275

276 Projekt Szkoła procesowa projekt jako algorytm. Przyjmuje jako podstawę ustrukturyzowany proces i obejmuje takie zagadnienia, jak cykl życia projektu, czy model stage-gates; Szkoła decyzji projekt jako komputer koncentrująca się na podejmowaniu właściwych decyzji, zarówno przy rozpoczynaniu projektu, przy przechodzeniu między fazami oraz w powiązaniu do strategii firmy; Szkoła contingency, traktująca projekt jak kameleona i zwracająca uwagę w szczególności na następujące zagadnienia: macierze cele metody, kategoryzację projektów oraz rozwijanie organizacyjnych zdolności realizacji projektów. Konsekwencją realizacji systemu zarządzania projektem jest zmiana w sposobie zarządzania całą organizacją. Zmienia się w niej system zarządzania. Staje się ona bardziej elastyczna, a jej dostosowanie do otaczającego ją świata jest szybsze i skuteczniejsze. Będziemy się starali również uzasadnić, że podejście projektowe niesie także pewne niebezpieczeństwa. Ludzie przyzwyczajeni do spokojnej i uporządkowanej pracy nie zawsze będą entuzjastami zmian. Przykładów na takie zachowania jest wiele. Tu wymienimy jeden, a mianowicie projekt transformacji polskiej gospodarki, której celem była zmiana formuły zarządzania z dyrektywnej na rynkową. Pracownicy byłych PGR-ów (Państwowe Gospodarstwa Rolne) nie są zadowoleni z konsekwencji wprowadzonych zmian. Najczęściej pod pojęciem projekt rozumiemy realizację określonego celu, na który dysponujemy określonymi zasobami i mamy go zrealizować w określonym czasie. Proces realizacji tak zdefiniowanego projektu nazywamy zarządzaniem projektem. W większości sytuacji, mając zadany cel, staramy się go zrealizować, minimalizując wydatkowanie zasobów i w jak najkrótszym czasie. Nie zawsze jednak takie założenie możemy wdrożyć i dlatego oba warunki są przyjmowane, jako wykonanie celu przy satysfakcjonującym wykorzystaniu zasobów i czasie realizacji. Niekiedy mówimy o optymalizacji wykorzystania zasobów i optymalnym czasie realizacji. Problematyka oceny projektów jest w tym miejscu tylko zasygnalizowana i będzie pogłębiona w dalszej części książki. Reasumując, możemy przyjąć, że: zarządzanie projektem to zbiór czynności wykonywanych po to, aby osiągnąć wyznaczone przez kierownictwo projektu cele główne i pośrednie w założonym czasie oraz przy wykorzystaniu określonych zasobów. Metodyki zarządzania projektem podkreślają, że każdy projekt jest zorientowany na stworzenie określonego produktu, usługi bądź innego konkretnego rezultatu. Tradycyjne zarządzanie projektami wiązało się z pracą inżynierów i techników. Współczesne podejście 276

277 Zarządzanie i informatyka cz. IV projektowe jest natomiast związane z całością działalności organizacji i realizowanymi w niej procesami. Na proces zarządzania projektami składają się cztery podstawowe grupy działania: zaplanowanie, organizowanie, motywowanie i kontrolowanie (por. rys. IV.2). Rysunek IV.2. Zarządzanie projektami cykl działań Źródło: J. Kisielnicki, Zarządzanie, PWE, Warszawa Etap kontrola wykonania zamyka cykl zarządzania projektem. Wynik kontroli to uzyskanie odpowiedzi na pytanie, czy projekt zakończył się sukcesem, czyli czy został on wdrożony, czy użytkownicy są zadowoleni oraz czy koszty i czas realizacji zostały dotrzymane? Jeżeli uzyskujemy odpowiedzi negatywne, następuje rekonstrukcja i zmiana parametrów projektu. Problem ten jest tu tylko zasygnalizowany i będzie rozwinięty w dalszej części książki. Czytelnikowi zainteresowanemu problemami praktycznymi można polecić opracowanie H. Kerznera [2005], gdzie analizuje się wiele interesujących projektów pod kątem takich elementów, jak wdrażanie projektów, style działania firmy a zarządzanie projektami, struktura zarządzania projektami, realizacja projektu, rozwiązywanie konfliktów. Problematyka projektowania jest multidyscyplinarna i korzysta ze zdobyczy wielu nauk, takich jak filozofia, socjologia, psychologia, zarządzanie, ekonomia, nauki techniczne, matematyka. Realizacja projektu, czyli termin projektowanie, nie ma jednoznacznej definicji. Za J. Ch. Jonesem [1997], jednym z najwybitniejszych pionierów ruchu unowocześniania projektowania, przedstawiamy, jako uzupełnienie wcześniej podanych definicji, następujące określenia procesu projektowania: celowo ukierunkowane działanie polegające na rozwiązywaniu problemu [Archer]. 277

278 Projekt podejmowanie decyzji w obliczu niepewności i przy wysokiej karze za błąd [Asimov]. realizacja bardzo złożonego aktu wiary [Jones]. działanie twórcze, powołanie do istnienia czegoś nowego i użytecznego, czegoś, co poprzednio nie istniało [Reswick]. Mimo upływu czasu te definicje są wciąż aktualne. J. Ch. Jones pisze, że projektowanie jest czynnością hybrydową polegającą na właściwym przemieszaniu sztuki, nauk ścisłych i matematyki. Nie powinno być ono identyfikowane z którąkolwiek z tych dziedzin oddzielnie. Opierając się na wcześniejszych założeniach, możemy przyjąć, że: Zarządzanie projektami to zespół logicznie uporządkowanych czynności dotyczących realizacji podstawowych funkcji zarządzania, czyli planowania, organizowania, motywowania i kontroli, których zastosowanie zmierza do realizacji postawionego przez inicjatora celu stworzenia nowego wyrobu lub usługi. Określenie nowego wymaga komentarza. Przez nowy rozumiemy stworzenie wyrobu lub usługi, którymi jego właściciel nie dysponował. Opis takiego zespołu czynności nazywamy metodyką projektowania. Próba odpowiedzi na pytanie, jak należy zarządzać projektem, aby jego realizacja była skuteczna i efektywna, to przedmiot naszych rozważań. Osoba, która odpowiada za zarządzanie projektem, jest kierownikiem zarządzającym jego realizacją. Inne określenia stanowiska kierownika to dyrektor, szef, kierownik, menedżer. W literaturze przedmiotu stosuje się często termin Project Manager. To określenie jednoznaczne, a co ważne przy posługiwaniu się nim nie można być posądzonym o męski szowinizm. Czytelnikowi zainteresowanemu problematyką dotyczącą opisu funkcji Project Managera i metod przez niego stosowanych można polecić obszerną monografię napisaną w języku angielskim przez zespół H. Schelle, R. Ottmann i A. Pfeiffer [2006] z German Association for Project Management. Możemy wydzielić następujące sposoby zarządzania projektami [R. K. Wysocki i R. McGary 2005]: tradycyjne (Traditional Project Management TPM), gdzie realizacja projektu odbywa się według ściśle określonego planu; 278

279 Zarządzanie i informatyka cz. IV adaptacyjne (Adaptive Project Framework APF), gdzie realizację projektu poprzedza analiza i zdefiniowanie jego struktury, a następnie odbywa się jego realizacja; ekstremalne (Extreme Project Management XPM), zwane też zarządzaniem projektami w warunkach ekstremalnych, gdzie realizacja projektu opiera się na zasadzie szybkiej reakcji na zachodzące zmiany i radzenia sobie ze złożonymi sytuacjami. Praktyka pokazuje, że w zarządzaniu projektami należy stosować metody hybrydowe, czyli mieszankę metod. Zestaw metod jest dobierany do konkretnej sytuacji. W zarządzaniu projektami możemy wydzielić następujące fazy: 1. Prace przedprojektowe, gdzie próbuje się odpowiedzieć na pytanie, czy jest potrzebne podejmowanie projektu i jakie są szanse na jego realizację pod względem technicznym, kadrowym oraz finansowym? 2. Analiza, podczas której projekt jest szczegółowo diagnozowany, ustanawia się cele, opracowuje plan prac, określa potrzebne zasoby i czas wykonania, buduje zespoły realizujące i organizuje prace nad projektem. Efektem przeprowadzonej analizy jest plan realizacji. 3. Wykonanie, kiedy to wykonuje się prace projektowe oraz rozwiązuje powstałe problemy. 4. Wdrożenie, podczas którego przekazuje się gotowy produkt użytkownikowi. 5. Doskonalenie, które ma na celu dostosowanie projektu do stale zmieniających się warunków. Projektowanie zależy od wielu czynników, między innymi zastosowanych narzędzi i metod wspomagających, kwalifikacji i doświadczenia wszystkich osób zainteresowanych realizacją projektu, uwarunkowań organizacyjnych. Wynik procesu projektowania zależy również od przyjętego w społeczeństwie systemu wartości i kultury organizacji. Szczególne zasługi dla rozwoju ogólnej metodologii projektowania mają takie organizacje międzynarodowe, jak: IPM (Institute Project Management), IPMA (International Project Management Associate), Design Research Society (Towarzystwo Badań nad Projektowaniem) w Wielkiej Brytanii. Właśnie w wymienionej kolejności zostaną przedstawione w tej części książki poszczególne fazy procesu tworzenia i zarządzania projektami. 279

280 Projekt Organizacja procesu projektowania - systemy komunikacji stosowane w zaspołach projektowych Projekt powinien być opracowywany z uwzględnieniem dwóch podstawowych podejść metodycznych, a mianowicie analizy systemowej i inżynierii informacyjnej. W tym miejscu może pojawić się zarzut, że w realizacji projektów stosujemy także inne podejścia, na przykład podejście holistyczne. Zgoda, ale uważamy, że wszystkie one wywodzą się ze wspólnego pnia analizy systemowej oraz inżynierii informacyjnej i należy wybrać te, które są najbardziej uniwersalne. Oczywiście wielu kierowników projektu stosuje te podejścia nie zdając sobie z tego sprawy. Dzieje się to jak u Moliera, kiedy bohater nie wiedział, że mówi prozą. W definicji projektu jest słowo system. W charakterystyce tego pojęcia zawierają się niezbędne informacje o zakresie, czasie i zasobach (patrz rys. IV.1). To są elementy, którymi zajmuje się inżynieria informacyjna. Dla przypomnienia: analizę systemową zapoczątkowały prace dwóch uczonych: biologa Ludwiga von Bertalanffy [1984] i cybernetyka Norberta Wienera. Według inżynierii informacyjnej każdy projekt można określić jako system składający się z podsystemów. Między wyodrębnionymi podsystemami zachodzą określone relacje (interakcje). Kierownik projektu musi uwzględniać złożoność projektu jako całościowego systemu i wpływ jaki wywiera na niego otoczenie (sprzężenie zwrotne między projektem i otoczeniem). Klasyczną definicję systemu podaje L. von Bertalanffy [1984]: System jest to zespół elementów znajdujących się we wzajemnej interakcji. Powszechnie przyjmuje się również, że system jest to zbiór wzajemnie powiązanych elementów funkcjonujących jako całość [por. J. Habr i J. Veprek, 1979]. Projekt, w terminologii teorii systemów, może być określony jako system otwarty, tzn. system wchodzący w interakcje z otoczeniem. Analiza otoczenia i jego wpływ na projekt jest jednym z najbardziej istotnych elementów analizy systemowej. W praktyce analizujemy różny kontekst otoczenia projektu. Projekt, o czym będziemy szerzej pisać w następnym punkcie, jest realizowany m.in. w otoczeniu ekonomicznym, społecznym, technicznym i prawnym. Nie zawsze interesuje nas cały projekt, a tylko jego część, dlatego używamy pojęcia podsystem albo subprojekty. Podsystem to wyodrębniona na podstawie określonego kryterium część systemu (projektu). Na przykład w projekcie reorganizacji organizacji handlowej możemy, na podstawie kryterium funkcjonalnego, wyodrębnić podsystemy zaopatrzenia, obsługi klientów, logistyki, rekla- 280

281 Zarządzanie i informatyka cz. IV my i promocji. Na podstawie kryterium branżowego możemy natomiast wyróżnić podsystemy usprawnienia magazynowania i sprzedaży owoców, logistyczny, zapewniający klientom wyrobów cukierniczych szybką dostawę, unowocześnienia działu konfekcji itp. Możemy też potraktować podsystem jako system i wtedy określa się, że podsystem jest to system działający w ramach szerszego systemu. Istotnym odkryciem w analizie systemowej jest efekt synergii. Synergia występuje wtedy, gdy dwa współpracujące z sobą systemy lub ich większa liczba przynoszą więcej efektów, niż wynosiłaby łącznie suma efektów każdego z nich, gdyby pracowały osobno. Typowym przykładem zastosowania efektu synergii jest sytuacja, kiedy tworzy się konsorcjum do realizacji bardziej złożonych projektów, takich jak projekty energetyczne czy produkcji samochodów. Samodzielna realizacja projektu najczęściej nie jest możliwa lub trwałaby bardzo długo. Aby zrealizować takie zadania, tworzone są często specjalistyczne powiązania, na przykład koncerny czy holdingi. Powstają właśnie w celu wykorzystania efektu synergii. Jeżeli w celu usprawnienia zarządzania supermarketem realizowalibyśmy niezależne projekty dla poszczególnych jego działów, na przykład wprowadzenie systemu CRM (Customer Relationship Management system obsługi klienta) niepowiązanego z systemami innych działów, by usprawnić zarządzanie działem wędlin, konsekwencją przyjęcia takiej strategii modernizacji byłoby: (1) poniesienie wyższych kosztów, (2) uzyskanie mniejszych efektów. Jeżeli natomiast realizujemy projekt informatyzacji dla całego supermarketu - przyrost efektów uzyskanych w wyniku podejścia systemowego w stosunku do efektu uzyskanego przy realizacji niezależnych projektów będzie efektem synergii. Dla sprawnego przeprowadzenia całości prac, od analizy do stworzenia gotowej dokumentacji systemu informacyjnego, należy zaprojektować odpowiednie ramy procedury realizacji, które przedstawiono na rysunku IV.3. Rysunek IV.3. Cykl projektowania Źródło: opracowanie własne. 281

282 Projekt Całość prac powinien nadzorować specjalnie powołany Komitet Sterujący, którego zarys w uproszczeniu przedstawiono na rysunku IV.4. Członkami jego są przedstawiciele trzech stron, a mianowicie: użytkowników, wykonawców, zaproszonych ekspertów i mediatorów pochodzących spoza organizacji. Rysunek IV.4. Struktura zarządzania w organizacji tworzącej system informacyjny Źródło: opracowanie własne. Kierownictwo Komitetu Sterującego powinien sprawować użytkownik. Komitet Sterujący, w zasadzie, nie podejmuje decyzji operatywnych, lecz formułuje zalecenia, które jako opinie przekazywane są kierownictwu taktycznemu odpowiedniej fazy procesu projektowego. Kierownictwo to, które jest w zasadzie komórką zadaniową użytkownika, rozpatruje zalecenia Komitetu Sterującego, jak też problemy wnoszone przez kierowników operacyjnych, czyli kierowników zespołów zadaniowych. Działalność Komitetu Sterującego jest okresowa, natomiast kierownictwa taktycznego poszczególnych faz projektu, np.: analizy projektu, wdrożenia, jest stała. Kierownictwo strategiczne, na czele którego powinien stać kompetentny członek najwyższego kierownictwa, powinno podejmować wiążące decyzje szczególnie finansowe i personalne. Podstawowym szczeblem pracującym nad poszczególnymi zadaniami organizacji jest zespół lub zespoły zadaniowe. Kierownictwo zespołów zadaniowych powoływane jest bezpośrednio lub pośrednio przez kierownictwo taktyczne. Pośrednio z wyznaczeniem kierownictwa zespołów zadaniowych mamy do czynienia wtedy, kiedy analizę wykonuje 282

283 Zarządzanie i informatyka cz. IV zespół zewnętrzny. Wybierając właśnie taką drogę decydujemy tylko pośrednio o składzie zespołu. Liczebność i kwalifikacje poszczególnych zespołów zadaniowych zależą od konkretnego problemu, w tym od wielkości organizacji. Dla małej organizacji może to być jedna osoba. Cechą charakterystyczną wszystkich zespołów jest ich mobilność i działanie na ściśle określony czas. Często następuje przekształcenie tych zespołów (po pewnych modyfikacjach) w zespoły projektowe i wdrożeniowe. Komitet Sterujący postuluje, a kierownictwo taktyczne zatwierdza zakres oraz metodę postępowania. Sukcesy i porażki realizacji wielu analiz organizacji i realizacji samych projektów zależą od różnorodnych czynników. Bardzo duży wpływ ma organizacja zespołu projektowego, czyli szczebla operacyjnego. Zastosowany system organizacji wyznacza bowiem rodzaj komunikacji i przekazywania wiedzy w układzie: zespół projektujący otoczenie (użytkownicy, dostawcy, inne zespoły projektowe itd.), zespół projektujący i jego uczestnicy, czyli komunikacja wewnątrz zespołu. Oczywiście mamy tu też do czynienia z wzajemnymi relacjami między wewnętrznymi i zewnętrznymi systemami komunikacyjnymi. W monografiach dotyczących zarządzania projektami (project management) problematyce organizacji zespołów projektowych poświęca się dużo miejsca [Candle, Yeates 2003; Maylor 2003, H. Kerzner 2003, M. Pawlak 2006, M. Flasiński 2006, Z. Szyjewski 2007, W. Chmielarz 2013]. Z analizy publikacji dotyczących budowy efektywnych systemów projektowych na szczególną uwagę zasługują badania L. Mullins [1993]. Dotyczyły one badania podstawowych sprzeczności występujących w zespołach projektowych. L. Mullins zwraca uwagę na fakt, że liderzy grup projektowych wymagają od pracowników zarówno gotowości do kompromisu i podporządkowania, jak i wysokiego poziomu indywidualizmu, kreatywności. Z kolei J. Chafre [2001, s 102, 103] pisze, że większość ludzi w trakcie pracy zawodowej traci kreatywność i indywidualizm na rzecz konformizmu i standardowości. Liderzy wolą więc tworzyć zespoły z młodych pracowników zdając sobie sprawę z braku ich doświadczenia zawodowego. Oddzielny, chociaż pochodny problem, to dobór członków zespołu projektującego. J. Adair [2001, s. 171] wskazuje na trzy kryteria, które powinny być brane pod uwagę przy doborze członka zespołu projektującego: kompetencje, motywacja do pracy, atrybuty osobiste. W trakcie realizacji zadań można stosować rozmaite systemy komunikacyjne przekazywania zadań i oceny ich realizacji. Ich użyteczność w kontekście rezultatów pracy zespo- 283

284 Projekt łu jest bardzo różna. Uważamy, że dla zarządzania projektami systemów informacyjnych najbardziej efektywną metodą przekazywania informacji i wiedzy między poszczególnymi członkami zespołu projektującego jest sieciowy system komunikacji. Przez sieciowy system komunikacji rozumiemy taki system, w którym powiązania między uczestnikami zespołu projektującego są bezpośrednie i różnorodne. W takim systemie rola lidera polega na budowie sytemu przekazywania informacji i wiedzy, jak i budowie systemu wzajemnego zaufania między poszczególnymi członkami zespołu. W praktyce stosowane są dwa systemy organizacyjne w zespołach tworzących systemy informacyjne: 1. Sieciowy system komunikacji, który w podstawowej formie został przedstawiony na rysunku IV.5. W praktyce jest on bardziej złożony ze względu na złożoność problematyki obok lidera projektu muszą istnieć również pracownicy odpowiedzialni za realizację poszczególnych zadań. 2. Tradycyjny hierarchiczny system komunikacji, który przedstawia, również w podstawowej formie rysunek IV.6. Rysunek IV.5. Sieciowy system komunikacji w zespole projektującym Źródło: opracowanie własne. Systemy organizacyjne przedstawione na rysunkach składają się z cegiełek (rys. IV.7). Sprawność całego systemu zależy właśnie od ich funkcjonowania. Przekazywanie informacji między poszczególnymi elementami systemu, i to niezależnie od stosowanych rozwiązań technicznych, ulega deformacji na skutek działania różnych szumów. 284

285 Zarządzanie i informatyka cz. IV Rysunek IV.6. Tradycyjny trójpoziomowy system organizacji zespołu projektowego Źródło: opracowanie własne. Deformacja ta jest wywołana czynnikami, o których była mowa w rozdziale pierwszym, czyli: technicznymi istniejące środki hardwarowo-softwarowe nie radzą sobie z formą, jak i treścią przesłanej informacji, semantycznymi, kiedy nasz odbiorca nie umie odczytać lub zinterpretować przesłanej informacji, pragmatycznymi, kiedy otrzymana informacja nie wnosi nic nowego do posiadanej wiedzy, a odbiorca tylko stracił czas na jej pozyskanie. Rysunek IV.7. Powiązania między poszczególnymi pracownikami w zespole projektowym Źródło: opracowanie własne. 285

286 Projekt W projektowaniu systemów zarządzania należy przyjąć zasadę, że dla zwiększenia efektywności funkcjonowania systemu należy maksymalnie eliminować ogniwa pośrednie. System powiązań przedstawiony na rysunku IV.7 a i c należy uznać za najmniej pożądany. Pracownik otrzymuje tylko polecenia. To, co jest możliwe w teorii, w praktyce, w czystej postaci nie występuje. Zawsze istnieje sprzężenie zwrotne, gdzie podległy pracownik przekazuje informacje o stopniu realizacji zadania. Jednak, jak powiedziano wcześniej, relacja podległości powoduje trudności w procesie absorpcji wiedzy. Pracownik podległy raczej niechętnie przekazuje wiedzę liderowi. Można powiedzieć, że pracownik uznaje za swój obowiązek przekazywanie informacji o realizacji projektu, ale nie dotyczy to przekazywania swojej wiedzy na ten temat. Wydaje się, że powód tego leży bardziej w sferze psychiki. W przeprowadzonych badaniach na postawione bezpośrednio pytanie: Jakie są przyczyny tego, że pracownik niechętnie lub wcale nie przekazuje swojej wiedzy liderowi? nie otrzymano jednoznacznej odpowiedzi. Również dyskusje przeprowadzone w zespołach projektowych nie pozwoliły na jednoznaczną diagnozę. Jednak z bezpośrednich rozmów można było wysunąć wniosek o konkurencyjnym traktowaniu lidera przez liniowych pracowników. Jeżeli jest on liderem i otrzymuje odpowiednio wyższe wynagrodzenie, to ja mu nie będę dawał rad niech sam podejmie decyzje to jedna z charakterystycznych odpowiedzi. G. Morgan [1997], w pracy poświęconej obrazom organizacji, pisze że hierarchia jest źródłem rozmaitych rozgrywek między pracownikami. W ich trakcie nie są istotne problemy merytoryczne. Rozgrywka toczy się natomiast o pozycję pracowników w strukturze organizacyjnej. Sytuacja jest analogiczna jak w saniach ciągnionych prze husky. Każdy z ciągnących psów ma swoje miejsce. Z przeprowadzonych obserwacji praktycznych można stwierdzić, że inaczej jest, gdy ocena pracy jest zależna od oceny wspólnie wykonanego zadania. Współpraca wtedy staje się koniecznością. Między pracownikami następuje znaczący transfer wiedzy. Lider powinien tak oddziaływać na zespół, aby utrwalać w nim postawę: dzielenie się wiedzą ze współpracownikami (kolegami) leży w interesie wszystkich i jest wręcz obowiązkiem. F. Savatera [1998] pisze Grek wolał dyskutować z równym sobie, niż mieć nad sobą pana. Popełniać głupstwa na własny rachunek, niż wypełniać choćby i trafne rozkazy kogoś innego. Uważamy, że takimi współczesnymi Grekami są ludzie realizujący projekty w branży ICT. Projekty związane z systemami informacyjnymi możemy podzielić na dwie kategorie: Projekty polegające na wdrożeniu zakupionego pakietu, np. przedstawiane w dalszej części książki, systemy kompleksowe dla zarządzania klasy MRP II/ ERP, a więc kreatywność zespołu nie jest tu elementem pierwszoplanowym, najistotniejsza jest ścisła realizacja opracowanych i sprawdzonych procedur. Projekty polegające na tworzeniu oprogramowania w nowych i unikalnych warunkach, w których staramy się w największym stopniu korzystać z kreatywności i wiedzy wszystkich realizatorów. 286

287 Zarządzanie i informatyka cz. IV System komunikacji przedstawiony na rysunku IV.7b jest skuteczny w pierwszym przypadku, czyli kiedy następuje sprawdzenie wykonania poszczególnych punktów procedury. Natomiast w drugim pojawia się już przewaga systemu przedstawiona na rysunku IV.7d. Możemy przyjąć, że w systemie organizacji hierarchicznej przeważają powiązania przedstawione na rysunkach IV.7a,b,c. Natomiast w systemie organizacji sieciowej dążymy do tworzenia powiązań przedstawionym na rysunku IV.7d. W praktyce, sieciowy system organizacji jest stosowany w bardziej złożonej postaci i najlepiej sprawdza się w małych, 5 7. osobowych zespołach projektowych. Przy większych zadaniach, gdzie wymagana jest współpraca około 10. i więcej osób, rekomendowany system zarządzania jest modyfikacją systemu przedstawionego przez H. Mintzberga [2004]. Dla realizacji złożonego zadania projektowego rekomenduje się więc system organizacji i komunikacji przedstawiony na rysunku IV.8. System ten sprawdzono w realizacji kilku złożonych projektów z branży ICT. Został on dobrze przyjęty przez osoby realizujące projekt, a co najważniejsze, okazał się także efektywny i skuteczny. Rysunek IV.8. Struktura organizacyjna i schemat komunikacji w zespole projektowym zorganizowanym sieciowo Źródło: opracowanie własne. 287

288 Projekt Strukturę organizacyjną i komunikacyjną przedstawioną na rysunku VI.8 można scharakteryzować tak: 1. Podział na zespoły zadaniowe zmienia się dynamicznie w trakcie realizacji projektu. Stosuje się tu, jako wspomaganie systemów zarządzania, dwie techniki organizatorskie, a mianowicie: analizę sieciową PERT/CPM oraz analizę drzewa celów. Bierze się też pod uwagę analizę profilu umiejętności i osobowości poszczególnych członków zespołów projektujących (metoda budowy zespołu projektowego będzie tematem oddzielnego opracowania). 2. W zarządzaniu stosowany jest system bezpośredniego podporządkowania. Jedyną osobą koordynującą całość prac jest lider projektu. Lider, oprócz tej roli jest szeregowym członkiem zespołu projektującego, czyli pracownikiem wykonawczym. Z zasady, po zakończeniu zadania, zespół jest rozwiązywany, a dla nowego zadania powołuje się nowy zespół z nowym liderem. Doświadczyłem tego uczestnicząc w Colloquium on Participant Centered Learning organizowanym przez Harvard Business School. W trakcie dyskutowania nad prezentowanymi przypadkami (case), po upływie określonego czasu, zmieniano lidera, jak też skład zespołu. W ciągu całego kursu byłem tylko raz liderem i co tydzień pracowałem w innym zespole. Dla nikogo z nas taki sposób pracy nie podlegał dyskusji. Również w badanych przeze mnie projektach realizacji systemów ICT nie było oporów dla zmiany liderów zespołów zadaniowych. Zmiana taka była zapowiedziana na początku budowy zespołu i spotkała się ze zrozumieniem. Zasady finansowe były również tak ustalone, że pozycja lidera była traktowana jako pewien rodzaj obowiązku, chociaż i wyróżnienia, ale nie jako podstawowe źródło uzyskania dochodu. Problemy pojawiły się natomiast, kiedy miały nastąpić zmiany w składach zespołu. Zmiana składu była utrudniona z powodu dwóch przyczyn: różnic w czasie realizacji poszczególnych zadań oraz tworzenie się w trakcie realizacji zadań silnej więzi interpersonalnej między poszczególnymi pracownikami. Tę lojalność członków zespołu traktowano jako istotny element wspierający system przekazywania wiedzy wewnątrz zespołu zadaniowego. Jak wykazały badania autora, dobre rezultaty osiąga się, kiedy grupa wykonawców z jednego zespołu bierze udział w realizacji zadań innego zespołu (wybrana grupa bardziej doświadczonych pracowników 20 30% swojego czasu pracy przeznaczała na udział w realizacji zadań innego zespołu). Taki system zarządzania wzmacnia więź między pracownikami z różnych zespołów i tworzone są warunki dla przepływu i zarządzania wiedzą. W ustanowieniu zasad, z jakimi zespołami ma być tworzona taka sieć powiązań, pomocne są techniki organizatorskie stosowane do tworzenia zespołów zadaniowych. Sieciowy system organizacji prac nad projektami systemów informacyjnych ma przewagę nad systemem hierarchicznymi szczególnie w następujących elementach: 288

289 Zarządzanie i informatyka cz. IV 1. Monitoringu realizacji projektu. Zagrożenia w realizacji i odstępstwa od planowanych kosztów, czasu realizacji zadań, założonych parametrów systemu są w systemie sieciowym wcześniej dostrzegane, niż w systemie hierarchicznym, wcześniej więc można podjąć interwencję. 2. Współpracy i przekazywaniu wiedzy w realizacji zadań. Między członkami istnieje duża współpraca zarówno w realizacji zadań, jak i w przekazywaniu dysponowanej wiedzy. Nie są tworzone sztuczne bariery między liderami i pracownikami. W zasadzie każdy jest, zależnie od sytuacji, liderem i wykonawcą. 3. Rozwiązywaniu problemów. Konflikty w realizacji zadań są o wiele mniejsze w systemie sieciowym niż w hierarchicznym, a jeżeli już powstały, są szybko rozwiązywane wewnątrz grupy zadaniowej. System komunikacji stosowany w zespole zorganizowanym sieciowo wymaga spełnienia szeregu warunków. Najbardziej istotny jest poziom kwalifikacji poszczególnych pracowników i ich chęć do wspólnej pracy. System ten jest trudny dla tak zwanych indywidualistów i osób pragnących zrobić karierę administracyjną. W rekomendowanym systemie ścieżka kariery jest związana bezpośrednio z rozwojem profesjonalnym. Jednak należy sobie zdawać sprawę z tego, że jest to system trudny dla kierowania projektem. Lider całości projektu ma dużą odpowiedzialność. Odpowiada za dobór zespołu, organizację pracy oraz za stworzenie odpowiedniego klimatu. W stosunku do systemu hierarchicznego lider projektu powinien zrezygnować z wielu swoich uprawnień kierowniczych i przekazać je do zespołów realizujących. Jego odpowiedzialność za realizację projektu nie ulega zmianie. Dlatego wielu liderów projektów uważa system hierarchiczny za łatwiejszy do sprawowania kontroli nad terminową realizacją zadań. Dość trudno jest bowiem jednoznacznie odpowiedzieć na pytania: Który z analizowanych systemów komunikacyjnych jest skuteczniejszy w każdych warunkach projektowania systemu informacyjnego? Jaka jest efektywność ekonomiczna zastąpienia systemu komunikacji hierarchicznej sieciową? Skuteczność i efektywność zależy od wielu czynników. I dlatego na zakończenie tego punktu należy zwrócić uwagę, iż nie tylko system zarządzania decyduje o efektywności pracy zespołu projektowego. Bardzo istotny jest też dobór pracowników do zespołu i stosowany system motywacji. Ten pierwszy aspekt był już wcześniej zasygnalizowany, natomiast generalną zasadą powinno być wsparcie sytemu zarządzania odpowiednim systemem motywacji. Budowa takiego systemu to odrębne zagadnienie, zależne od kultury organizacji i rzeczywistej sytuacji na rynku pracy. Inny system będzie stosowany w Indiach, Anglii, Polsce czy w Stanach Zjednoczonych. Jednak system organizacji i związany z nim 289

290 Projekt system komunikacji jest tym elementem, który ma wpływ na efektywność funkcjonowania zespołu projektowego niezależnie od metody doboru pracowników i motywacji. W dalszych częściach książki uzupełnimy problematykę organizacyjną o rozwiązania stosowane w realizacji prac wdrożeniowych. System komunikacji w realizacji projektu jest bardzo istotny w fazie analizy. Dobrze wykonana analiza to dobrze sformułowane zadanie projektowe, a to już połowa sukcesu. 290

291 Rozdział 12 Analiza organizacji Miejsce analizy w cyklu życia systemu System informacyjny przechodzi wraz z organizacją kolejne stadia rozwoju. Od momentu powstania organizacji i burzliwego jej rozwoju, często zwanego okresem dzieciństwa, do jej okrzepnięcia, a następnie likwidacji lub restrukturyzacji. Zmiany te określamy jako cykl życia systemu. Cykl życia systemu informacyjnego składa się z następujących faz: Cykl życia systemu informacyjnego: Analizowanie Projektowanie Zastosowanie (wdrożenie) utrzymane w tym doskonalenie W cyklu tym analiza stanowi pierwszą fazę procedury wytworzenia i eksploatacji systemu. Niekiedy uważa się, że faza analizy powinna być poprzedzona badaniem wykonalności tzw. feasibility study. Wynika to z tego, że już przeprowadzenie analizy pociąga za sobą wydatki. Dobrze jest więc wcześniej rozważyć ich zasadność. Dobrze wykonana analiza to dobrze sformułowane zadanie projektowe, a to już połowa sukcesu. Podkreślam to, ponieważ bardzo dużo użytkowników o tym zapomina. Podczas analizy systemu należy odpowiedzieć na kilka pytań. Poznanie tych odpowiedzi jest niezbędne do stworzenia nowego systemu informacyjnego lub rekonstruowania już funkcjonującego. Zestaw pytań dla projektowanego systemu informacyjnego zależy od konkretnej sytuacji. Najczęściej są to następujące kwestie: Co będzie przedmiotem analizy? Gdzie będzie ona przeprowadzana? 291

292 Analiza organizacji Kto będzie ją przeprowadzał? Jak analiza będzie przeprowadzana jaką filozofią i metodami? Dla kogo będzie ona przeprowadzana, czyli dla jakich decydentów? Kiedy będziemy ją przeprowadzali, a więc kiedy się ona rozpocznie i przez jak długi okres będzie realizowana? Jakie, i w jakiej wysokości, środki są niezbędne aby wykonać analizę? Z. Bubnicki [1993] uważa, że analiza systemu oznacza badanie jego zachowania. W zależności od postawionych zadań rozróżnia się następujące rodzaje analizy: 1. analizę ilościową (niekiedy zwaną analizą techniczną), która polega na wyznaczeniu wartości interesujących nas wielkości lub wskaźników jakości charakteryzujących system, 2. analizę jakościową (określaną też jako analiza społeczna), która akcentuje organizacyjne, psychologiczne oraz społeczne problemy systemu. Jak wykazały badania przeprowadzone przez M. Schindlera [1990], w fazach analizy i projektowania generuje się ok. 50% późniejszych błędów. Koszt usunięcia błędu jest tym większy im później się go w systemie dostrzeże. Tak więc najbardziej kosztowna jest naprawa błędów, które zostały popełnione już w fazie analizy, a zostały zauważone dopiero w fazie eksploatacji. Wynika to z faktu, że na etapie analizy przyjmuje się rozwiązania, które są wiążące dla całego cyklu realizacji systemu. W analizie określa się niezmiernie istotne elementy systemu, jak jego cele. Element ten jest wyznaczany na podstawie analizy potrzeb informacyjnych użytkowników. Analiza (A) rozumiana jest więc jako ciąg działań, w wyniku których identyfikujemy następującą sytuację problemową: gdzie: A = {P, C, D, W, H, R} P zbiór podmiotów decyzyjnych, na który składają się: podzbiór osób w organizacji, jak i na zewnątrz, które można określić jako użytkowników systemu. System będzie więc budowany dla zaspokojenia ich potrzeb informacyjnych, dlatego przeprowadzenie identyfikacji tego zbioru jest pierwszą czynnością procedury; C zbiór celów, a więc podzbiory wymagań, które użytkownik pragnie osiągnąć w wyniku funkcjonowania systemu. Zbiór ten jest artykułowany różnie kwantyfikowalny czy też opisowy (niekwantyfikowany). Analityk systemu powinien identyfikować obok celów również zachodzące między nimi związki, szczególnie ważności i podległości (cel wyższego rzędu jest środkiem do realizacji celu niższego rzędu); 292

293 Zarządzanie i informatyka cz. IV D zbiór metod i technik, dzięki którym możemy określić wymagania użytkownika, a więc przeprowadzić identyfikację celów i relacji zachodzących między nimi. Praktyka wykazuje, że stosowane są rozmaite metody i techniki. Jedne z nich są podejściami zdroworozsądkowymi, inne zaś bardzo złożone, wymagające znajomości zaawansowanych działów matematyki, jak teoria zbiorów rozmytych, metod heurystycznych czy też technik symulacji komputerowej. Rekomendowane jest stosowanie co najmniej dwóch metod, z których jedna jest podstawową, druga zaś prezentuje zupełnie inne podejście metodyczne, co służy weryfikacji uzyskanych rezultatów; W zbiór warunków, w jakich przeprowadzamy analizę. Warunki te tworzą dwa podzbiory (1) warunków wewnętrznych, (2) warunków zewnętrznych wynikających z otoczenia organizacji. W myśl podejścia systemowego warunki wewnętrzne są właśnie kształtowane przez otoczenie. Organizacja chcąc efektywnie funkcjonować musi albo dostosować się do otoczenia, albo też, jeżeli jest na tyle silna, sama je kształtować. Warunki mogą być bardzo zróżnicowane i dotyczyć zarówno tych czynników, które oddziałują pozytywnie, jak też są ograniczeniami. Warunki te mają różny wymiar i dotyczyć mogą takich problemów, jak: techniczne, ekonomiczne, socjopsychologiczne i organizacyjne; H zbiór hipotez o wielkościach charakteryzujących poszczególne, wymienione uprzednio zbiory, a więc podmioty decyzyjne, cele, metody i techniki, warunki. Organizacji nie można rozpatrywać statycznie, lecz dynamicznie. W trakcie jej rozwoju zmieniają się rozpatrywane zbiory. Ponieważ najczęściej nie można określić z całkowitą pewnością wszystkich elementów zbiorów, dlatego też przyjmujemy hipotezy kształtowania się ich. Najczęściej hipotezy przedstawione są w postaci określenia współczynnika prawdopodobieństwa zaistnienia określonego stanu organizacji lub jej otoczenia. R zbiór relacji zachodzących miedzy wymienionymi wcześniej zbiorami Procedura i modele analizy podstawy Procedura wykonania analizy organizacji jest bardzo różnorodna i wieloetapowa. Przedstawiony na rysunku IV.9 sposób postępowania jest procesem iteracyjnym. Specyficznym krokiem procedur jest dobór dla realizacji określonego zadania odpowiedniej metody i techniki. W bazie metod i technik dysponujemy odpowiednim ich zbiorem stale weryfikowanym i uzupełnianym. Realizując określony etap procedury przesyłamy do bazy metod i technik zapytanie: czy dysponujemy odpowiednim narzędziem dla rozwiązania naszego problemu? Jeżeli odpowiedź jest pozytywna, pobieramy z bazy potrzebną metodę lub technikę. Często jednak uzyskujemy odpowiedź negatywną i wtedy należy albo zmodyfikować i przystosować do naszych potrzeb metodę i technikę lub opracować zupełnie nową. Pytanie o metodę i technikę pojawia się stale przy identyfikacji zbiorów użytkowników, celów, warunków i hipotez. Sporządzając analizę musimy się liczyć, że użytkownik może jej nie przyjąć. Należy wtedy zidentyfikować przyczyny tego stanowiska i zweryfikować odpowiednie zbiory. Analiza 293

294 Analiza organizacji jest najbardziej istotnym dokumentem w całym cyklu prac projektowo-wdrożeniowych, który jest punktem wyjścia do przystąpienia do prac projektowych. Rysunek IV.9. Procedura postępowania przy przeprowadzeniu analizy organizacji Źródło: opracowanie własne. W prowadzeniu analizy stosowane jest najczęściej podejście modelowe. Jest ono rozpowszechnione w teorii i praktyce zarządzania i nie dotyczy tylko projektowania. O wiele taniej i łatwiej jest eksperymentować na modelu projektu niż na realizowanym projekcie. Wychodzimy z założenia, że jeżeli jest taka możliwość, to decyzje, zanim zostaną wdrożone w realnym świecie, powinny być sprawdzone w świecie wirtualnym, czyli na modelu. 294

295 Zarządzanie i informatyka cz. IV Co to jest model? Według W. Findeisena [1985] model jest to pojęcie niejednoznaczne. Zazwyczaj przez model rozumie się pewne odwzorowanie lub wzorzec. Czasami model utożsamiany jest z pewnym bardzo szeroko rozumianym sposobem działania. Model samego projektu i procesu jego realizacji jest uproszczonym obrazem rzeczywistości. W nim bowiem koncentrujemy się na tym, co jest najbardziej istotne, pomijając to co jest mniej ważne. Jego budowa opiera się na podstawach analizy systemowej, w której opisujemy model jako zbiór elementów i relacji zachodzących między nimi. Koszty pomyłki w świecie modeli są o wiele niższe niż tych w świecie realnym. W tym punkcie książki zajmujemy się określoną klasą modeli, a mianowicie modelami decyzyjnymi menedżerskimi. Jest to bardzo szeroka klasa różnych modeli. Modele decyzyjne mają różną konstrukcję. Są to zarówno modele matematyczne, jak i strukturalizowane. Podstawowe i użyteczne modele, z punktu widzenia tematyki książki, zostaną przedstawione w dalszej części rozdziału. Każdy z prezentowanych modeli ma bardzo dużą rodzinę różnych mutacji. Oczywiście pokażemy tylko modele podstawowe. Pragniemy również zaznaczyć, iż w praktyce nie stosuje się żadnego modelu w postaci nieprzetworzonej. Konkretny przypadek wymaga modyfikacji modelu bazowego i jego dostosowania do realiów. Można zaryzykować stwierdzenie, iż w praktyce nie spotyka się dwóch takich samych modeli. Model decyzyjny to pojęcie z obszaru teorii i praktyki zarządzania. Przedstawia on odwzorowanie całości lub fragmentu rzeczywistości, który w sposób syntetyczny opisuje problem decyzyjny. Jego zadaniem jest pozwolenie na określenie zbioru decyzji dopuszczalnych, kryteriów oceny, warunków realizacji po to, aby można było wybrać zbiór decyzji optymalnych, jeśli tylko takie rozwiązania istnieją. Jeżeli takiego zbioru nie możemy określić, wtedy zadowalamy się zbiorem decyzji satysfakcjonujących. W praktyce zarządzania projektami dążymy do tworzenia modeli o możliwie największym udziale sformalizowanych elementów. Ze względu na interdyscyplinarny charakter procesów podejmowania decyzji w realizacji projektów badawczo-rozwojowych zdarza się, że zastosowane modele są modelami statystycznymi, ekonometrycznymi, ekonomicznymi, semantycznymi. Istnieją nawet takie, które można zaliczyć do modeli psychologicznych, czy filozoficznych. Przedstawione w tym rozdziale modele mają różną postać formalną. Po omówieniu matematycznych modeli, rozpoczynamy prezentację stosowanych w realizacji projektów badawczo-rozwojowych modeli najprostszych blokowych, by na koniec przejść do modeli hybrydowych, w których stosuje się zarówno podejście heurystyczne, jak i metody matematyczne model TAM (model akceptacji technologii Technology Acceptance Model). Zanim zaczniemy budować model powinniśmy sformułować problem decyzyjny. Warunki, które przyjęto w formułowaniu takiego problemu stają się jednocześnie założeniami modelu decyzyjnego. W modelu klasycznym stosującym podejście człowieka ekonomicznego, istnieje przekonanie o możliwości optymalizacji decyzji. Uważa się, że racjonalne, wyrozumowane i systematyczne działania sprzyjają znajdowaniu trafnych rozwiązań pro- 295

296 Analiza organizacji blemów. W modelu menedżerskim zdajemy sobie sprawę, że praktycznie nie jest możliwe podejmowanie optymalnych decyzji. Należy jednak dążyć do takiego rozwiązania. Dlatego też kierownik projektu (Project Manager) i jego zespół powinien starać się uzyskać pełną informację o sytuacji decyzyjnej oraz dążyć do minimalizacji ryzyka. Takie działania wymagają uzyskanie jak najpełniejszego zbioru informacji. W procesie podejmowania decyzji korzystamy z doświadczenia zespołu ekspertów i stosujemy różne narzędzia, między innymi heurystyczne tj. mapę myśli i burzę mózgów. W podejściu twardym, który nazywamy inżynieryjnym, model jest precyzyjny i w miarę jednoznaczny. Powstał on przy użyciu określonych sformalizowanych języków (o których mowa będzie dalej), jak też sformalizowanych technik. W praktyce używane są określone pakiety komputerowe, takie jak np. Statistica. Jest to uniwersalny, zintegrowany system służący do: statystycznej analizy danych, tworzenia wykresów, operowania na bazach danych, wykonywania transformacji danych i tworzenia aplikacji. Środowisko programu jest w pełni dostępne w polskiej wersji językowej. W skład sytemu wchodzi wszechstronny zestaw zaawansowanych procedur analitycznych stosowanych w nauce, biznesie, technice oraz analizie danych. Modelowany problem może być również przedstawiony za pomocą określonego dokumentu. Wzory takich dokumentów (tzw. standardy projektowe) przedstawiane są w szeregu monografii. Większe firmy tworzące oprogramowanie wspomagające zarządzanie, tj. IBM, Oracle, SAP, mają również własne metodyki, według których wypełnia się obowiązujące w nich formularze. Szerzej o wybranych metodykach będzie w dalszych częściach książki. Niektóre metody modelowania omówiono między innymi w pracach J. Kisielnickiego [2004, 2013]. W sformalizowanym podejściu do budowy modelu stosuje się metody ilościowe, a zwłaszcza modelowanie matematyczne. W tabeli IV.1 pokazano, jakie funkcje zarządzania projektem są wspomagane przez różnego typu modele ilościowe. Matematyczne modele ilościowe zostały podzielone na następujące modele: optymalizacyjne, symulacyjne, ekonometryczne, teorii grafów. Tabela IV.1. Najbardziej istotne funkcje zarządzania projektami wspomagane przez modele sformalizowane (matematyczne) FUNKCJE ZARZĄDZANIA MATEMATYCZNE MODELE ILOŚCIOWE optymalizacyjne symulacyjne ekonometryczne prognostyczne Prognozowanie X X X X X teorii gier Programowanie X X X Planowanie X X X X X X Koordynowanie X X Monitorowanie X X Uwaga: znak X oznacza, że dana funkcja jest szczególnie często wspomagana przez metody ilościowe. Źródło: opracowanie własne. teoria grafów 296

297 Zarządzanie i informatyka cz. IV Jak przedstawiono w tabeli IV.1 do podejmowania decyzji menedżerskich dysponujemy zbiorem różnorodnych modeli. Można stwierdzić, że współczesny kierownik projektu badawczo-rozwojowego i jego współpracownicy są wyposażeni w ogromny zestaw metod i technik, które umożliwiają modelowanie projektu i wspomagają podejmowanie decyzji. Opis ich zawierają zarówno specjalistyczne monografie, jak i podręczniki na temat zarządzania. Niektóre z nich zostały podane w załączonej bibliografii. Omówione narzędzia mają charakter: ilościowy, jakościowy i mieszany (hybrydowy). Przykłady są bardzo różnorodne ze względu na stosowany model i metody rozwiązywania. Większość przedstawionych modeli stanowi dorobek szkoły ilościowo-systemowej. Najbardziej popularne i stosowane w praktyce projektowania to w kolejności: 1. Modele optymalizacyjne. Wywodzą się z matematycznej teorii decyzji i badań operacyjnych i mają na celu wyznaczenie optymalnej decyzji. Mając określone kryterium funkcję celu oraz ograniczenia, dążymy do otrzymania takich wielkości, które pozwalają na optymalizację modelu. Konsekwencją działań, zgodnych z rekomendacjami uzyskanymi dzięki modelowi, jest uzyskanie najwyższych korzyści lub najmniejszych strat. W zależności od postaci modelu i zastosowań mamy do czynienia z takimi modelami jak: liniowe, nieliniowe, jednokryterialne, wielokryterialne, cało-liczbowe, transportowe itd. Jeżeli problem zostanie przedstawiony za pomocą modeli optymalizacyjnych, to dla jego rozwiązania stosujemy najczęściej metody programowania matematycznego z użyciem standardowego oprogramowania. Najbardziej popularny jest model liniowy. Stosowany jest on do podjęcia optymalnych decyzji wtedy, kiedy znany jest cel oraz zasoby, które mogą być przeznaczone na realizację projektu. 2. Modele symulacyjne. Za pomocą tych modeli, można rozwiązać wiele problemów decyzyjnych dotyczących zarządzania projektami. Występują jako modele samodzielne, ale też skojarzone z innymi. W modelu symulacyjnym, podobnie jak w każdym modelu, decydent stara się o jak najlepsze opisanie rzeczywistości. Modele tej klasy stosuje się dla złożonych sytuacji, kiedy zawodzą metody optymalizacyjne. Stosowane są takie schematy postępowania, które pozwolą na uzyskanie odpowiedzi na pytania: Jakie poniesiemy straty, jeżeli nie będziemy realizować danego projektu, Jakie efekty lub straty będą wynikiem zaistnienia, podczas realizacji projektu, określonych zdarzeń? Jakie musimy ponieść nakłady, aby zrealizować projekt, i jak wpłyną ograniczenia, np. finansowe, na czas realizacji lub zakres? Jeżeli odniesiemy sukces i przyznane zostaną na system określone środki, to na co je przeznaczymy? Itd. Możemy podjąć rozmaite decyzje w modelowo zbudowanym świecie. W ten sposób, zanim będzie się eksperymentować na żywym organizmie projekcie systemu informacyjnego o różnej złożoności, można eksperymentować na modelu. W rezultacie prowadzi to do znacznej obniżki kosztów realizacji projektu, zmniejsza się też okres opanowania nowej techniki. Takie postępowanie stosowane jest w technice (np. przy 297

298 Analiza organizacji projektach mających na celu budowanie nowych tras komunikacyjnych). Trudności, jakie pojawiają się przy zastosowaniu tego typu modelowania to konieczność dysponowania odpowiednim modelem, jak też środkami technicznymi (komputer, oprogramowanie). Narzędzia te pozwalają na przeprowadzenie odpowiednich obliczeń i zastosowanie procesu symulacyjnego. Aby zbadać wszystkie przesłanki i zbudować odpowiedni scenariusz, często korzystamy z pomocy ekspertów zewnętrznych. Modele symulacyjne stosowane są w budowie biznes planów. Organizacja finansująca, najczęściej bank, chce wiedzieć, co stanie się z przyznanymi kredytami. 3. Modele prognozowania. Narzędzia używane do budowy modelu prognoz obejmują różne techniki, konieczne do podjęcia decyzji. Cechą wyróżniającą te narzędzia jest to, że służą one do podejmowania decyzji przyszłościowych. Podstawą tych decyzji jest określenie, czy w przyszłości badana wielkość będzie kształtować się korzystnie, czy też nie. W tej drugiej sytuacji będziemy mieli do czynienia z prognozą ostrzegawczą. 4. Modele ekonometryczne. Ekonometria jest nauką o metodach badania ilościowych zależności występujących między zjawiskami ekonomicznymi. Proces poznania mechanizmu problemu decyzyjnego w zarządzaniu projektami za pomocą modelowania ekonometrycznego polega na budowie modelu, oszacowania parametrów oraz wnioskowania na jego podstawie. Model jest układem równań, w szczególnym zaś przypadku równaniem, które w sposób przybliżony przedstawia zasadnicze powiązanie ilościowe między rozpatrywanymi zjawiskami ekonomicznymi występującymi w projekcie. Zależności te są bardzo złożone i wielokierunkowe. Na badany problem decyzyjny wpływa wiele zjawisk o charakterze ekonomicznym, jak też społecznym, demograficznym, przyrodniczym itp. Oddziaływanie tych czynników jest zróżnicowane. Model wspomagający decyzje jest, we wszystkich modelach, sformalizowanym opisem badanego fragmentu rzeczywistości, który uwzględnia tylko istotne elementy i pomijającym (zdaniem osoby budującej model) mniej ważne. Istnieją różne typy modeli ekonometrycznych. Do procesu podejmowania decyzji najbardziej przydatne są modele przyczynowo-skutkowe, w których między zmiennymi objaśniającymi, a zmienną objaśnianą zachodzi związek przyczynowo-skutkowy. 5. Modele z zastosowaniem gier decyzyjnych. Budowa takiego modelu pozwala na przeprowadzenie analizy i przewidywanie racjonalnego zachowania ludzi w takich projektach, w których występuje czynnik konkurencyjny. 6. Modele z zastosowaniem teorii grafów. Zastosowanie tej teorii jest chyba najbardziej popularne w prezentacji modeli zarządzania. W książce również, w wielu miejscach, pojawiają się modele, w których wykorzystana jest teoria grafów. W pewnym uproszczeniu przyjmuje się, że graf to zbiór wierzchołków (punktów), które mogą być połączone krawędziami, w taki sposób, że każda krawędź kończy się i zaczyna w którymś z wierzchołków. Modele tego typu, ze względu na ich przejrzystość i komunikatywność, stosowane są do podejmowania decyzji dotyczących harmonogramów realizacji systemu informacyjnego. Powszechnie stosowane są wykresy Gantta i wykresy sieciowe np. 298

299 Zarządzanie i informatyka cz. IV PERT, CPM, GERT. Model realizacji projektu składa się z jednostkowych działań, które zostały przedstawione za pomocą linii poziomych. Działania charakteryzują następujące parametry: czas trwania oraz termin rozpoczęcia i zakończenia. Dla tych działań, które są szczególnie ważne uzupełnia się wykresy przez wyznaczenie wspomnianych już wcześniej kamieni milowych. Takim kamieniem milowym może być data podjęcia decyzji w sprawie: dostarczenia klientom oprogramowania, opracowania założeń projektu, zakupu systemu komputerowego itp. Metoda kamieni milowych zwraca uwagę na te czynności, które są najbardziej istotne z punktu widzenia realizacji projektu. Reasumując możemy stwierdzić, iż podstawą współczesnego podejścia do zarządzania projektami, niezależnie od ich zastosowania, są obok modeli matematycznych inne modele, w których dąży się również do formalnej analizy realizowanego projektu na wszystkich jego etapach, ale mają one nieco inną budowę i funkcje. Nazywamy je modelami strukturalnymi (w modelach tego typu również stosujemy dla rozwiązań częściowych modele matematyczne a szczególnie teorie grafów). Określenie to pochodzi z faktu, że w nich koncentrujemy się na prezentacji struktury projektów, a do prezentacji istniejących w nich zależności posługujemy się podejściem systemowym. W wyniku tej analizy tworzone są hierarchiczne lub sieciowe struktury, których elementami są: dane, funkcje i związki zachodzące między nimi. Podejście to jest obecnie dominujące w zarządzaniu projektami. W prezentacji modeli strukturalnych stosowanych jest wiele technik szczegółowych, opisanych w literaturze i zalecanych metodykach projektowania. Często ich zadaniem jest zaprezentowanie jak najbardziej dokładne sytuacji i decyzji w realizowanym projekcie. Nasze dążenie to zbudowanie, na podstawie istniejących danych i relacji zachodzących realnie między nimi, modelu. Do tego celu służą między innymi takie techniki szczegółowe, jak: modele (schematy) blokowe, diagram przepływu danych, modelowanie związków encji, język UML, modele zastosowane w podejściu ARIZ i ADONIS. Technikom tym poświęca się wiele miejsca w przedmiotach wspierających nauki zarządzania projektami. Do zbudowania modelu pomocne, a nawet niezbędne, jest użycie określonych notacji zapisu. Tak jak model semantyczny zapisujemy w określonym języku, posługując się słownikiem (tezaurusem) i gramatyką, tak w modelach strukturalnych do opisu projektu najczęściej stosujemy notacje graficzne. Dla ilustracji przedstawimy w dalszej części niektóre z najbardziej popularnych technik zapisu. 299

300 Analiza organizacji Identyfikacja użytkowników i stawianych przez nich celów System informacyjny budowany jest dla określonej organizacji lub pewnej ich grupy. Jest on przeznaczony zarówno dla organizacji jako całości, jak i dla grup użytkowników oraz użytkowników indywidualnych funkcjonujących w ramach tej organizacji. Podstawowe grupy użytkowników przedstawiono na rysunku IV.10. Rysunek IV.10. Główne grupy użytkowników w budowie systemu informacyjnego Źródło: opracowanie własne. Rysunek ten pokazuje, że zbiór użytkowników systemu jest szeroki i dotyczy grup o różnorodnych potrzebach i preferencjach. Jak wcześniej wspomniano analiza otoczenia jest niezmiernie istotna, ponieważ to ono ma ostateczny wpływ na funkcjonowanie organizacji. Podobnie na problemy otoczenia organizacji i jego rolę patrzy K. Obłój [1998], który uważa, że w firmie ważne są dwie sprawy pieniądze i klienci. Pieniądze dlatego, że bez nich firma nie może funkcjonować, a klienci są głównym motorem jej działania. Można powiedzieć, że wystarczą klienci. Jak mamy klientów to i będą pieniądze. Wiele znanych nam systemów informacyjnych zarządzania mimo, że zostały zaprojektowane bardzo nowocześnie, nie osiągnęło zakładanych efektów. Przyczyną tego stanu było właśnie nie uwzględnienie, w fazie analizy, potrzeb klientów jako pełnoprawnych użytkowników systemu. W organizacjach typu spółki akcyjne mamy do czynienia z nowym rodzajem użytkownika akcjonariuszem. Jest to dość liczna grupa użytkowników, którzy związali z organizacją swoje nadzieje, powierzyli jej swoje zasoby finansowe i teraz chcą mieć wgląd w jej dzia- 300

301 Zarządzanie i informatyka cz. IV łalność. Oddzielną grupą użytkowników są osoby, które nadzorują działalność organizacji z punktu widzenia różnych wykonywanych przez nią zadań. Będą to, na przykład, urzędy skarbowe, urzędy celne, urzędy statystyczne. Użytkownikami zewnętrznymi o specyficznych relacjach z organizacją są banki, które w przypadku udzielania kredytów pragną mieć obraz całej jej działalności oraz organizacje współpracujące, które zaopatrują albo odbierają produkcję lub usługi. Wśród użytkowników wewnętrznych, którzy są najłatwiejsi do identyfikacji, wydzielamy, jak przedstawiono na rysunku, cztery grupy, a mianowicie: 1. kierownicy najwyższego szczebla strategicznego (top management) odpowiadający za kluczowe decyzje, 2. kierownicy średniego szczebla, czyli szczebla taktycznego, 3. kierownicy bezpośrednio nadzorujący pracę, czyli szczebel operacyjny, 4. wykonawcy, zwykle stanowiący najliczniejszą grupę użytkowników. Pominięcie którejś z grup to potencjalnie duże trudności w eksploatacji systemu. Niebezpieczeństwo pominięcia którejś z grup użytkowników może spowodować, że w projekcie nie zostanie uwzględniona określona wiązka celów. Aktualizacja systemu w trakcie jego eksploatacji jest możliwa, lecz powoduje znaczny wzrost kosztów przedsięwzięcia. System informacyjny jest budowany i eksploatowany po to, aby organizacja reprezentowana prze użytkowników mogła zrealizować postawione przed nią cele i wypełniać swoją misję. Tak więc przed analitykami stoi zadanie bezpośredniego przełożenia celów organizacji na cele systemu informacyjnego. Cele organizacji wyznaczają jej zamierzenia oraz zadania. Organizacja ma do spełnienia wiele różnorodnych celów. Liczba ich jest znaczna i niekiedy może wynieść dziesiątki tysięcy poszczególnych celów jednostkowych. Jednak ze względów praktycznych jest ona ograniczana, a w miarę postępu prac rozszerzana. Cele są między sobą powiązane. Dla ich przedstawienia wykorzystuje się modele: hierarchiczne, sieciowe, relacyjne i obiektowe. Rysunek IV.11 przedstawia fragment hierarchicznego modelu drzewa celów dla modernizacji systemu informacyjnego w rozbudowanym banku. W modelu hierarchicznym możemy wyróżnić cele nadrzędne i podrzędne. Realizacja celów podrzędnych jest środkiem do realizacji celów nadrzędnych. Rysunek IV.11 ma również za zadanie ilustrację powiązań celów z systemami informacyjnymi na tle drzewa celów całej organizacji. Cele dotyczące budowy systemu informacyjnego są przedstawione na trzecim szczeblu hierarchii. Definiowanie celów jest najistotniejszym etapem realizacji każdego projektu nie tylko systemu informacyjnego. Podstawą procesu definiowania są zawsze wymagania stawiane przez inicjatora projektu najczęściej tego kto go zamawia. M. Trocki [2012] uważa, że wymagania, które są podstawą zdefiniowania projektu można określić akronimem BOSCARD. 301

302 Analiza organizacji Rysunek IV.11. Fragment drzewa celów operacyjnych kierownictwa banku dla usprawnienia jego działalności Źródło: opracowanie własne. Poszczególne litery akronimu oznaczają: tło (Background), cele (Objectives), zakres (Scope), ograniczenia (Constraints), założenia (Assumptions), ryzyko (Risk), rezultaty (Deliverables). Bardzo często w definiowaniu pomocny jest dokument noszący nazwę spisu wymagań, czyli SOW (Statement of Work). W metodykach, problematyce definiowania projektu poświęcone jest znaczące miejsce. W większości sytuacji proponowane są odpowiednie dokumenty (szablony), których wypełnienie ułatwia ten proces. W tym punkcie przedstawiamy model stosowane do definiowania celów projektu noszący nazwę Struktura Podziału Pracy. Struktura Podziału Pracy, czyli Work Breakdown Structure (WBS) jest jednym z podstawowych i tradycyjnych narzędzi stosowanych w zarządzaniu projektami. Wywodzi się z teorii ZPC, czyli zarządzania przez cele oraz zasad inżynierii informacyjnej, a ściśle z zasady dekompozycji. Postać graficzna WBS to hierarchiczna struktura odwróconego drzewa, w którym korzeń jest na górze, zaś gałęzie na dole. Dobrze zaprojektowana WBS opisuje oczekiwane cele. Cele niższego rzędu mogą być rozpatrywane jak zadania niezbędne do realizacji celu hierarchicznie wyższego. Można je określić z dużą dokładnością, dużo trudniej natomiast przewidzieć zadania stanowiące część planu realizacji projektu. Mając dobrze zaprojektowany model można każde zadanie związane z analizowanym przedsięwzięciem przypisać do jednego i tylko jednego liścia drzewa WBS. Narzędzie to pozwala na stałe aktualizowanie i dostosowanie do zmieniających się warunków realizacji projektu. WBS pomaga wszystkim uczestnikom, czyli wykonawcom i użytkownikom zrozumieć zakres projektu. Jest 302

303 Zarządzanie i informatyka cz. IV również podstawą do sformułowania przyszłych działań w projekcie. Często na podstawie modelu WBS budujemy tak zwaną mapę drogową, czyli plan realizacji działań projektu. Istnieje wiele rozwiązań na przedstawienie modelu WBS. W zależności od konkretnej sytuacji możemy zastosować taki układ, który jest dla nas najbardziej odpowiedni. W procesach zarządzania projektami często stosowane są rozwiązania, w których buduje się cały pakiet modeli WBS. Każdy z budowanych modeli ma różną szczegółowość prezentowanych elementów. Najczęściej model podstawowy master model, zawiera zagregowane wielkości, a modele wspierające jego szczegóły. Podstawowy model jest najbardziej ogólny, a modele szczegółowe (submodele) są używane jako dopełniające. Niekiedy są one przedstawione, w opisującym projekt dokumencie, jako odpowiednie załączniki (aneksy). Wspomniane wcześniej podstawy teoretyczne takie, jak inżynieria systemów i analiza systemowa mają za zadanie tak dekomponować projekt na części składowe, aby umożliwić organizację całkowitego zakresu prac. WBS pozwala na szczegółowe szacowanie i kontrolę kosztów oraz określenie odpowiedzialności poszczególnych osób za realizację projektu. Jest też pomocne w opracowaniu wytycznych do budowy harmonogramu i jego kontroli. To hierarchiczna dekompozycja projektu badawczo-rozwojowego na jednostkowe etapy, przy czym poszczególnym etapom można przypisać szczegółowe rezultaty, jak plany robocze ich realizacji. W zarządzaniu projektem model WBS jest rozwijany poprzez stopniową dekompozycję celu końcowego i sukcesywny podział zadań, aż do opanowania systemu zarządzania wszystkimi elementami pod względem wielkości, czasu i odpowiedzialności (np. systemy, podsystemy, składniki, zadania, podzadania i pakiety pracy). Dekompozycja obejmuje wszystkie etapy procedury zarządzania prowadząc do osiągnięcia celu. Przykłady struktury podziału pracy (WBS) przedstawione są na rysunkach IV.12 i IV.13. Rysunki te ilustrują podział prac przy realizacji projektu wymagającego instalowania kokpitu menedżerskiego do zarządzania tym projektem. Rysunek IV.12 to prezentacja całościowego podziału prac. Rysunek IV.13 to spojrzenie na ten problem z punktu widzenia funkcjonalnego (functional breakdown). Budowa modelu WBS polega na wydzieleniu z całego zakresu projektu poszczególnych jego elementów, a następnie przedstawienie występujących między nimi zależności. Jak pisze M. Pawlak [2007] WBS jest to zorientowana na produkt struktura określająca podział prac dotyczących przetworzenia materiałów, informacji i prac usługowych, które definiują i graficznie prezentują produkt, który ma być wytworzony, a także podaje dodatkowe działania, które muszą być wykonane, aby dany produkt powstał. Prezentacja projektu według standardów WBS spełnia następujące zadania: przekształca wymagania w zadania, prezentuje je w języku zrozumiałym dla realizatorów projektu, czyli zespołów, 303

304 Analiza organizacji Rysunek IV.12. Przykład podziału prac w modelu WBS dla projektu dostawa kokpitu menedżerskiego do systemu monitorowania badań naukowych Źródło: opracowano na podstawie: H. Maylor [2010] Rysunek IV.13. Podział prac w modelu WBS w ujęciu funkcjonalnym dla dostawy kokpitu menedżerskiego Źródło: opracowano na podstawie H. Maylor [2010] 304

305 Zarządzanie i informatyka cz. IV określa cele projektu dostosowane do poszczególnych interesariuszy, tworzy bazę czynności i zadań do dalszych prac (np. do opracowania harmonogramu p. autora). Podejście stosowane w budowie WBS to typowa prezentacja zadań w konwencji z góry do dołu (top-down). W ten sposób cele (zadania) umieszczone na niższych poziomach są bardziej precyzyjne i szczegółowe, niż odpowiednie cele umieszczone na wyższych poziomach struktury. Jest to podejście od ogółu do szczegółu. Oczywiście możliwe jest też podejście odwrotne, w którym pragnąc zrealizować jakieś precyzyjnie określone zadanie zastanawiamy się, co musimy zrobić, aby ten cel zrealizować. Jest to podejście od szczegółu do ogółu. To drugie podejście stosujemy np. do projektu budowy linii metra w Warszawie lub w Krakowie. I wtedy zastanawiamy się, jak ten projekt wpisuje się w projekt modernizacji całej sieci komunikacji Warszawy lub Krakowa. Takie podejście, rzadziej stosowane, nosi nazwę (od jego prekursora) podejścia Sherlocka Holmesa. W literaturze [H. Schelle, R. Ottmann, A. Pfeiffer 2006] podaje się następujące podstawowe zasady, których należy przestrzegać przy budowie schematu WBS: Zaleca się taką dekompozycję projektu, aby każde zadanie wyznaczone na najniższym poziomie mogło być wyznaczone do realizacji konkretnemu zespołowi lub osobie fizycznej. Każde zadanie jednostkowe powinno mieć określony i jednoznaczny cel. Poszczególne zadania są samodzielne i nie mogą na siebie zachodzić. Każde z określonych zadań może zostać przekazane do zarządzania określonej osobie, która za nie odpowiada i ma odpowiednie pełnomocnictwa do kierowania nim. Dla każdego zadnia można określić czas realizacji i potrzebne środki oraz oczekiwany rezultat. Powołani wcześniej H. Schelle, R. Ottmann, A. Pfeiffer [2006] podają następujące kryteria budowy WBS: orientacja obiektowa (rzeczowa) stosowana do takich projektów, jak budowa domu, autostrady, okrętu, samolotu; orientacja funkcjonalna, czyli pokazanie, co musimy zrobić, na przykład: przy projekcie budowy nowego domu należy zakupić działkę, uzyskać odpowiednie zezwolenia, podłączyć tzw. media, zatrudnić inspektora nadzoru itd.; hybrydowe, w którym nie stosuje się jednego tylko kryterium podziału. 305

306 Analiza organizacji Zastosowanie WBS jako narzędzia jest bardzo szerokie i dotyczy bardzo różnorodnych zagadnień: struktur organizacyjnych, harmonogramów projektu, struktury kosztów, opisu zakresu projektu, struktury wyrobów itd. Określając cele organizacji należy zdawać sobie sprawę, że mają one różne wagi ważności, jak też rozmaite współczynniki prawdopodobieństwa ich osiągnięcia. Jednym z typowych celów, zwłaszcza dla systemów informacyjnych, jest wysoka jakość przetwarzanych w nim informacji i całego systemu. Na podstawie dotychczasowej praktyki możemy stwierdzić, że warunek zapewnienia wysokiej jakości projektowanych systemów jest wymaganiem najczęściej stawianym przez użytkowników. Wysoka jakość systemu informacyjnego, jest misją projektantów systemu. Do tej problematyki powrócimy w dalszej części książki. Trudno jednak zrealizować i sprawdzić tak postawiony cel globalny. Dlatego też dekomponując cel globalny należy przyjąć cząstkowe cele jakościowe, takie jak: dostępność, wiarygodność, elastyczność, określona szybkość uzyskiwania informacji, zapewnienie poufności, bezpieczeństwo. Większość z tych kryteriów została omówiona w punkcie dotyczącym audytu sytemu informacyjnego. Podstawowym warunkiem powodzenia w realizacji celów jest wytworzenie w kierownictwie organizacji idei, iż należy usprawnić system informacyjny lub też, kiedy tworzona jest nowa organizacja, że potrzebny jest nowoczesny system informacyjny zarządzania. Działania w systemie zarządzania projektem możemy podzielić na cztery etapy: ETAP I ETAP II ETAP III ETAP IV Odmrożenie, a więc uświadomienie potrzeby zmian, czyli powstanie w kierownictwie firmy woli zmiany. Projekt zmian, a więc propozycja sposobu ich przeprowadzenia. Wprowadzenie zmian, a więc realizacja całości przedsięwzięcia. Zamrożenie, a więc stabilizacja projektu i osiągnięcie przez organizację wyższego poziomu. Przyczyn dążenia do zmian możemy upatrywać w rozmaitych czynnikach wpływających na organizację i działających wewnątrz niej. Określenie zaś ich zasięgu zależy od dysponowanych środków kadrowych i finansowych. Ograniczenia stawiane przez dysponowane środki mogą mieć charakter globalny lub cząstkowy. Globalne dotyczą całej organizacji, natomiast cząstkowe tylko pewnych, wybranych elementów. Należy je rozpatrywać zarówno w ujęciu statycznym (te, które występują w momencie przeprowadzenia analizy), jak też w dłuższym horyzoncie czasu, a więc w układzie dynamicznym. 306

307 Zarządzanie i informatyka cz. IV W trakcie analizy, nawet prowadzonej dla małej organizacji, należy brać pod uwagę postęp naukowo-techniczny w rozwoju możliwości sprzętu i oprogramowania. W projektowaniu należy stosować zasadę: Co dzisiaj nie jest wyobrażalne jutro może być realne Ograniczenia można też podzielić na trzy grupy: 1. aktywne, 2. nieaktywne, 3. pozorne. Aktywne ograniczenia wpływają zasadniczo na warunki przeprowadzenia analizy. Dlatego należy podejmować decyzje polegające na zmniejszeniu siły ich oddziaływania jako czynników limitujących. Nieaktywne ograniczenia, po podjęciu określonych decyzji, można je zniwelować. Okazuje się, na przykład, że nie można przeprowadzić analizy organizacji określoną metodą, ponieważ nie ma osób, które ją dobrze znają. Decyzja o przeszkoleniu analityków albo zatrudnieniu dodatkowych specjalistów powoduje, że ten początkowy warunek ograniczający zostanie zniwelowany. Pozorne ograniczenia to takie warunki, które na pierwszy rzut oka wydają się istotne, a później okazuje się, że nie mają one znaczenia. Wprowadzając komputeryzację może wydawać się, na przykład, że będziemy mieli poważne problemy kadrowe, ponieważ część naszych pracowników nie potrafi posługiwać się komputerem. Później okazuje się, że osoby te przechodzą na emeryturę lub też możemy je przenieść do innych zajęć, a na ich miejsce zatrudnić nowy personel, który jest przygotowany do pracy z komputerem. Analiza powinna odpowiedzieć na szereg pytań. Niektóre z nich zostały już postawione. Tu natomiast zwracamy uwagę na konieczność odpowiedzi na takie istotne pytania, jak: Jakie istnieją ograniczenia w realizacji celów i jaki mają one charakter? Ile kosztuje eliminacja warunku ograniczającego cele realizowanego projektu? Jakich spodziewamy się efektów w wyniku realizacji projektu? Jakie ponosimy ryzyko w realizacji zadań? Jak realizacja projektu wpłynie na funkcjonowanie organizacji i jak zmieni się jej pozycja konkurencyjna na rynku? Oczywiście pytań może być wiele i zależą od konkretnego projektu. 307

308 Analiza organizacji Wybrane modele analizy organizacji Przypomnijmy, że: Analizą nazywamy takie postępowanie, które ma na celu badanie organizacji dla zaprojektowania nowego lub zmodyfikowania systemu informacyjnego. Metody i techniki identyfikacji potrzeb informacyjnych i przebiegów stosowanych procedur przetwarzających informacje są częścią ogólnej metodyki projektowania i wdrażania systemu informacyjnego. Technika analizy jest pojęciem węższym niż metoda i ma za zadanie rozwiązanie konkretnego problemu. Rozwój metod i technik stosowanych w procesie analizy powoduje, że powstają wciąż nowe monografie na ten temat. W prezentacji wybranych, typowych, metod i technik analizy skoncentrowano się na następujących zagadnieniach: 1. analizie potrzeb informacyjnych użytkowników, 2. notacji prezentacji wyników analizy, 3. komputerowym wspomaganiu procesu analizy. Pragnę również zwrócić uwagę na niejednoznaczność pojęć. Można mieć nadzieję, że w niedługim czasie nastąpi standaryzacja. Obecnie jednak pojęcia znane, na przykład, z podejścia strukturalnego, mają inne znaczenie w podejściu obiektowym. Efektywność funkcjonującego w organizacji systemu informacyjnego mierzy się stopniem zaspokojenia potrzeb użytkownika. Niedocenianie znaczenia badania informacyjnych potrzeb użytkowników jest poważną wadą niektórych metodyk. Badanie prowadzone przez autora wykazuje, że wielu użytkowników nie jest zadowolonych z funkcjonujących systemów. Najczęściej stwierdzają, że proponowany przez firmy projektujące system nie jest w stanie zaspokoić wielu ich potrzeb. W konsekwencji, w fazie wdrażania systemu występuje konflikt między wdrażającymi a użytkownikami. Przedstawione tu prezentacje mają na celu pogłębić przedstawioną w poprzednim punkcie problematykę wyznaczenia celów, jak też być pomocne w zapisie danych, informacji i wiedzy w odpowiednich bazach. Do tego, aby określić cele systemu musimy poznać potrzeby decydentów. Jak pisze J. Czekaj [2012] decydenci z jednej strony cierpią na niedostatek informacji, z drugiej zaś działają w warunkach nadmiaru informacji. Potrzeby informacyjne są związane z podejmowaniem decyzji na wszystkich szczeblach zarządzania, jak też z koniecznością poszerzenia wiedzy członków organizacji na temat Występowania sytuacji problemowych. Próbę opracowania metodologicznych podstaw anali- 308

309 Zarządzanie i informatyka cz. IV zy potrzeb informacyjnych użytkowników podjął między innymi E. Kolbusz [1993]. Według jego propozycji badanie potrzeb informacyjnych powinno być traktowane następująco: Po pierwsze, mieć charakter postulatywny, a więc odnosić się do tego, co nie istnieje w danej chwili, ale może się pojawić w przyszłości. Potrzeby informacyjne rozpoznawane na bieżąco są natomiast konfrontowane z istniejącymi problemami kierowniczymi. Po drugie, usytuowanie analizy oraz jej charakter powoduje, że metody i techniki analizy muszą być spójne z ogólną strategią projektowania systemu. Taka ogólna strategia, jako metoda wyższej rangi, stanowi ramy całej procedury postępowania. Potrzeby informacyjne użytkownika można określić jako ilościowy i jakościowy popyt na informacje. Trudno ocenić jednoznacznie, jakie są te potrzeby. Model teoretyczny przyjmuje, że użytkownik jest doskonale przygotowany i zna obiektywny popyt na informacje, które są mu niezbędne do rozwiązania postawionych przed nim zadań. Założenie to jest poprawne od strony teoretycznej i akceptowalne z punktu widzenia budowy modelu teoretycznego, odbiega jednak od stanu faktycznego, a to dlatego, że w praktyce mamy do czynienia z wieloma użytkownikami i wieloma, trudnymi do zdefiniowania, problemami. Zdając sobie sprawę z niedoskonałości stosowanych metod i technik, konieczne jest określenie podstawowych potrzeb informacyjnych użytkowników tak w sensie ilościowym, jak i jakościowym. Mimo, że analiza potrzeb użytkowników jest pracochłonna i kosztowna, to rachunek efektywności wykazuje, że wydatki ponoszone na nią bardzo szybko zwracają się. Również konfliktogenność prac nad systemem zmniejsza się, jeżeli w procesie wdrażania dysponujemy wiarygodnymi materiałami analitycznym. Dla ustalenia potrzeb informacyjnych użytkowników możemy stosować podejście metodyczne przedstawione w tabeli IV.2. Dają one możliwość określenia zakresu funkcjonowania merytorycznego systemu informacyjnego. Jednak w następnym kroku działań należy wypełnić go szczegółową treścią. Przeprowadzając takie badania, należy zwrócić uwagę na następujące elementy: 1. Zakres tematyczny informacji rekomenduje się, aby był on jak najbardziej określony, a następnie, aby za pomocą różnych technik szczegółowych można było ustalić priorytety w zaspokajaniu potrzeb użytkownika na poszczególne podzakresy tematyczne. 309

310 Analiza organizacji 2. Dokumentację źródłową w tym przypadku istotna jest m.in. wiarygodność źródeł oraz porównywalność i ciągłość dokumentów źródłowych. 3. Technikę informowania użytkowników wybór techniki zależy od wielu czynników, tj. możliwości technicznych sprzętu, przyzwyczajenia użytkownika, istniejących aktów prawnych itd. 4. Jakość informacji zależy istotnie od celu, dla którego informacja jest zbierana; nie zawsze zapewnienie najwyższej jakości informacji jest konieczne, jeżeli powoduje wysokie koszty. 5. Opóźnienie dostarczenia informacji mierzone czasem, jaki upłynął od momentu zapytania o nią do momentu poinformowania użytkownika. 6. Rozmiar informacji dostarczonej użytkownikom (rozumianej jako objętość w sensie fizycznym). Tabela IV.2. Wybrane podejścia metodyczne stosowane dla ustalenia potrzeb informacyjnych użytkowników Nazwa metody Charakterystyka Rekomendacje dla zastosowania Badanie przez produkt (By Product) Całościowe studium (Total Study) Badania czynników warunkujących powodzenie (Critical Success Factors) System kluczowych wskaźników (Key Indicator System) badanie potrzeb jest efektem ubocznym, ponieważ właściwym celem jest badanie produktu finalnego badania dużej grupy kadry kierowniczej; przeprowadza się analizę porównawczą na podstawie określenia różnic z istniejącym systemem ustalenie obszarów działania, które powinny być stale pod kontrolą kierownictwa organizacji opiera się na wyselekcjonowaniu zbioru kluczowych identyfikatorów zdrowia w organizacji pod kątem zbierania takich danych, z których można redagować różne zestawy informacji stosowana przy tworzeniu podsystemów problemowych; zaletą jest mała pracochłonność badań, dość krótki czas ich prowadzenia; natomiast w większości przypadków potrzeby decydentów są tylko częściowo zaspokojone określa się obszary istotnych sfer działalności, wymaga to jednak dużych środków, dodatkowo nie ma pewności, że potrzeby zostały rzeczywiście ustalone kompleksowo analiza stanu zaawansowania realizacji zadań organizacji; pozwala na bieżącą ocenę skuteczności zarządzania; zakłada się prawidłowo zbudowaną hierarchię; duża pracochłonność prac pozwala na wyodrębnienie wspólnych poszczególnych typów funkcji, dla których spełnienia są potrzebne odpowiednie informacje, przeprowadza się też próbę identyfikacji otoczenia i ustalenia hierarchii celów; trudności obiektywne ich określanie i dekompozycja 310

311 Zarządzanie i informatyka cz. IV Model procesu gospodarczego (Business Proces Model) Macierz działalności przedsiębiorstwa (Enterprise Activity Matrix) zmierza do rozpoznania jednostek podstawowych, inicjujących wytwarzanie informacji wejściowych; realizowany w kolejnych fazach, m.in. opracowanie ogólnego planu, weryfikacja procesów gospodarczych przedsiębiorstwa podstawą jest teoria mówiąca, że w organizacji istnieje pewna ograniczona liczba zadań (czynności), w konsekwencji można stworzyć macierz uwzględniającą wszystkie działania organizacji; wymaga przede wszystkim zdefiniowania czynności organizacji (co się robi?), warunków środowiskowych (jak się to robi?) oraz przedmiotów działania (za pomocą czego wykonuje się te czynności?) możliwość tworzenia na papierze modelu procesów zachodzących w organizacji oraz analizy potrzeb i przepływów informacji związanych z tymi procesami; w konsekwencji umożliwia rozpoznanie danych przekazywanych między procesami gospodarczymi organizacji daje kierownictwu obraz wszystkiego, co dzieje się lub powinno się dziać; dotychczas stosowanie takiego podejścia dawało m.in. takie efekty, jak: eliminowanie dublowania systemów, poprawa komunikacji użytkownika z twórcą systemu, wspomaganie procesów zarządzania organizacją Źródło: opracowanie własne na podstawie materiałów firmy doradczej Diebolda (pełna analiza tych podejść przedstawiona jest w pracy J. Kisielnicki, H. Sroka [2005]). Zależnie od charakteru użytkownika można stosować różne techniki badawcze, jak: obserwacja (bezpośrednia, pośrednia, niejawna), wywiady standaryzowane i nie standaryzowane, kwestionariusze (ankiety), dzienniki, dyskusje. Wobec niedoskonałości wszystkich technik badawczych, pierwszą z zasad, jaką należałoby przyjąć przy badaniach potrzeb użytkowników, jest zastosowanie kolejno przynajmniej dwóch technik, aby można było zweryfikować uzyskane wyniki. Nie można również wykluczyć potrzeby stosowania trzeciej techniki w celu uzyskania większej pewności co do określenia potrzeb użytkownika. Metody wywiadów i kwestionariuszy (ankiet), czyli metody bezpośrednie, są i będą w najbliższym czasie podstawowymi dla określenia informacyjnych potrzeb użytkowników. Metoda wywiadów jest jedną z najpopularniejszych metod zbierania danych, jest powszechnie stosowana w badaniach socjologicznych i ma dość bogatą literaturę. Dlatego też zwracamy uwagę tylko na niektóre problemy, istotne z punktu widzenia systemów informacyjnych. Materiały uzyskane dzięki ankietom są wykorzystywane w metodach projektowania systemów informacyjnych, takich jak metody morfologiczne, burza mó- 311

312 Analiza organizacji zgów, metoda kolejnych prób. Ankiety są wypełniane samodzielnie przez respondentów lub przez osobę przeprowadzającą wywiad. Spełniają one dwojaką rolę. Po pierwsze, dostarczają danych o badanej dziedzinie. W związku z tym pytania powinny być tak zbudowane, aby uzyskać odpowiedź będącą dokładnym i całkowitym odbiciem postawy, poglądu i wiedzy badanego. Po drugie, nakłaniają badanego do udzielenia potrzebnej informacji. Metoda ankietowania oprócz metody wywiadów jest jedną z najpopularniejszych dróg zbierania danych i jest powszechnie stosowana zarówno w kraju, jak i za granicą. Projektantom kwestionariuszy dotyczących systemów informacyjnych należy zwrócić uwagę na takie podstawowe zagadnienia związane z ich budową, jak: język, układ odniesienia, stopień poinformowania, aprobata społeczna, kolejność pytań. Język. Składnia i słownictwo użyte w kwestionariuszu powinny zapewnić pełną komunikatywność między ekspertem a prowadzącym badania. Mówiąc najprościej, język kwestionariusza musi być zbliżony do języka eksperta. Uzyskanie tej zbieżności nie jest łatwe, ponieważ w przypadku systemów informatycznych istnieje problem niejednorodności populacji ekspertów (w jej skład wchodzą programiści, projektanci, kadra kierownicza). Każda z tych grup ma specyficzny i często hermetyczny język. W praktyce rozwiązanie problemu polega na użyciu języka zrozumiałego nawet dla niespecjalistów, a jednocześnie takiego, który nie uchodzi za zbyt infantylny do opisania problemu. Układ odniesienia. W literaturze oznacza to system wartości, w jakim dana osoba postrzega problem. Wiąże się to z koniecznością formułowania każdego zagadnienia w formie odpowiadającej percepcji badanego i uwzględniającej jego poglądy na temat tego, co ważne w badanym problemie. Ekspert może np. nie chcieć odpowiedzieć, jeśli nie widzi związku między pytaniem a własnym rozumieniem problemu. I tak, można spotkać postawę ekspertów, którzy uważają badanie potrzeby zastosowań systemów informacyjnych za zbędne, ponieważ przedsiębiorstwa (organizacje) muszą je, przy istniejącym stopniu złożoności problemu, stosować. Dzięki umiejętnie dobranemu zestawowi pytań o priorytety w budowie można uzyskać od eksperta mimo jego negatywnego stanowiska do badań istotne informacje. Stopień poinformowania. Pytanie musi być tak sformułowane, aby nawiązywało do stopnia poinformowania eksperta. Nie należy przyjmować nierealnych założeń o jego zasobie wiadomości. I tak nie uzyskamy odpowiedzi od dyrektora przedsiębiorstwa, jeżeli zapytamy go o efekty otrzymane w wyniku wprowadzenia nowego, szczegółowego rozwiązania w technicznej bazie systemu, albo, jeśli zapytamy, jakie efekty uzyskało przedsiębiorstwo w wyniku zastosowania optycznych czytników pisma. 312

313 Zarządzanie i informatyka cz. IV Aprobata społeczna. Pytania należy formułować tak, aby nie sugerowały żadnej odpowiedzi. Nie powinno się zadawać, na przykład, pytania w rodzaju: Czy zastosowanie nowoczesnych form zarządzania, jakimi są systemy informatyczne, przynosi korzyści? Odpowiedź przecząca powoduje, że ekspert stawia się w pozycji oponenta nowoczesności. Jeżeli chce się uzyskać odpowiedź obiektywną, należy unikać zabarwienia emocjonalnego w zadawanych pytaniach. Pytanie powinno się odnosić do jednego zagadnienia. Jeżeli pytanie dotyczy równolegle kilku zagadnień, wtedy na podstawie odpowiedzi nie można rozstrzygnąć, czy ekspert wypowiedział się na temat jednej, czy też wielu poruszonych w kwestionariuszu spraw. W tym miejscu należy zwrócić uwagę na szczegółowość postawionego pytania. W przypadku, gdy naszym celem jest zdobycie orientacji o ogólnym stosunku badanego, można zadać pytanie w rodzaju: Czy uważa Pan za celowe zastosowanie w gospodarce systemów informatycznych? Interpretacja odpowiedzi na takie pytanie powinna być jednak bardzo ostrożna i traktowana raczej jako wstęp do bardziej szczegółowych pytań. Kolejność pytań. Pytania powinny być tak ułożone, aby stanowiły sensowną całość. Kolejność pytań wyznacza zasada polegająca na zadawaniu początkowo pytania najbardziej ogólnego, obejmującego zagadnienie o najszerszym zakresie, a następnie pytań coraz bardziej szczegółowych. Układ taki nie dopuszcza, aby pierwsze pytania wyznaczały treść odpowiedzi na następne i pozwala na podstawie pierwszych ogólnych pytań ocenić poglądy eksperta. Ocena ekspertów, przedstawiona za pomocą drzewa celów, WBS lub w postaci kwestionariusza, pozwala na jej syntezę bardziej precyzyjnymi metodami, np. teorii gier, skrzynki morfologicznej, gier kierowniczych. Przy projektowaniu systemu informacyjnego, jeśli chcemy uzyskać właściwe dane o obiekcie, należy pamiętać o stosowaniu metod wywiadów. Ujemną stroną ankiety jest to, że w większości przypadków ludzie niechętnie wypełniają długie pochłaniające czas kwestionariusze. Dużo zawartych w ankiecie odpowiedzi będzie nieprzydatnych i dla ich wyjaśnienia trzeba będzie stosować i tak metodę wywiadów. Stosowanie metody ankietowej jest korzystne, gdy trzeba otrzymać niedużą ilość informacji od wielu osób lub gdy systematycznie bada się działalność z określonego ściśle obszaru. Ankiety są także niemal jedynym środkiem otrzymywania w krótkim czasie informacji o dużej zdecentralizowanej organizacji. Poprzedzenie wywiadu ankietą ma również tę zaletę, że pozostawia respondentowi czas na zgromadzenie potrzebnych informacji. Oszczędza się w ten sposób czas osoby badanej i badającej. W większości przypadków tworzenie i analiza ankiet jest już skomputeryzowane za pomocą wielu standardowych programów. Własne doświadczenia autora oraz analiza literatury dotyczącej badania potrzeb informacyjnych użytkowników pozwalają na ogólne stwierdzenia: 313

314 Analiza organizacji 1. Badanie potrzeb nie jest doceniane zarówno przez użytkowników, jak i projektantów; w konsekwencji system jest projektowany obok użytkownika, co powoduje zmniejszenie, niekiedy nawet znaczne, jego użyteczności. 2. Prace dotyczące analizy potrzeb użytkownika są relatywnie czasochłonne jednak ich koszt, w stosunku do kosztów całkowitych systemu informatycznego, jest niewielki i na ogół nie przekracza 5% całości kosztów. 3. Dla w miarę pełnego określenia potrzeb informacyjnych należy stosować różne podejścia metodyczne oraz rozmaite techniki zbierania danych, zaś wyniki tych badań powinny być stale weryfikowane. 4. Projektując system informacyjny dla organizacji, która realizuje nowe zadania lub też jest gruntownie modernizowana, należy wybierać rozwiązania aktywne i dynamiczne, jak dyskusje i wywiady. Techniki te powinny być wspomagane tzw. technikami twórczego myślenia (burza mózgów). Pozwalają one na w miarę pełne szacowanie przyszłych potrzeb informacyjnych użytkowników. Jeżeli jednak organizacja już funkcjonuje i naszym zadaniem jest usprawnienie systemu informacji tak, aby mógł być on pomocny w procesie podejmowania decyzji, to można stosować techniki prostsze: ankiety, wywiady standaryzowane, dzienniki, czy techniki obserwacji. W tym przypadku chodzi tylko o polepszenie wyników działalności organizacyjnej. Analiza organizacji powinna być udokumentowana. Wzory dokumentów (standardy) przedstawiane są w wielu monografiach. Większe firmy softwarowe (IBM, Digital, Oracle) mają również własną metodykę, według której wypełnia się obowiązujące w nich formularze. Profesjonalnym przewodnikiem dla przeprowadzenia analizy jest monografia M. E. Modella [1998]. Niektóre metody prezentacji omówiono we wcześniejszych pracach autora [J. Kisielnicki, 1986]. Rekomendować można również monografie Z. Martyniaka [1993], Z. Mikołajczyk [1995], S. Juchniewicza red [2005], M. Pawlaka [2005], Z. Szyjewskiego [2006], J Czekaja [2012]. Autorzy prezentują wiele technik, w tym też zaliczanych do metod organizatorskich. Techniki organizatorskie są również bardzo użyteczne przy dokumentowaniu materiałów opracowanych w trakcie analizy. Model danych, który powstaje w wyniku pracy analityka jest abstrakcją. Podstawowym założeniem przeprowadzenia analizy danych, zgodnie z podejściem analizy obiektowej, są teoretyczne założenia analizy strukturalnej. Polega ona na opisie początkowo zagregowanego, a następnie pełnego modelu danych. Model danych opisuje wyodrębnione przez analityka obiekty i powiązania, które między nimi zachodzą. Obiekty i powiązania w konsekwencji pozwalają na opis zadań, które mają być realizowane przez system. 314

315 Zarządzanie i informatyka cz. IV Czytelnikowi zainteresowanemu analizą i projektowaniem strukturalnym polecić można wydaną po polsku monografię E. Yourdona [Yourdon, 1996], a dla analizy i projektowania obiektowego opracowania P. Coada i E. Yourdona [Coad, Yourdon, 1994], czy też J. Płodzienia i E. Stembosza [2003]. Stosowane metody i techniki można podzielić na trzy grupy: Podejście socjo-psychologiczne niekiedy zwane społecznym, w którym zagadnienie analizy postrzega się nie w kategoriach technicznych (inżynieryjnych), lecz jako przedsięwzięcie społeczne. Takie podejście stosowane jest między innymi do badania potrzeb użytkownika i zostało opisane w poprzedniej części tego rozdziału. Dotyczy ono całego systemu, jak na przykład metoda SSM (Soft Systems Methodology), lub jego pewnej części, jak opisana dalej analiza strategiczna SWOT. W praktyce można zauważyć, że podejście strukturalne i obiektowe bardzo często jest poprzedzone podejściem socjo-psychologicznym. Podejście strukturalne, w którym dąży się do formalnej analizy systemu. W jej wyniku tworzone są hierarchiczne struktury, których elementami są: dane, funkcje i związki zachodzące między nimi. Podejście to obecnie dominuje. W analizie strukturalnej stosowanych jest wiele technik szczegółowych, które opisane są w cytowanej uprzednio literaturze. Są to między innymi takie techniki, jak: diagram przepływu danych, modelowanie związków encji, modelowanie infologiczne, modelowanie binarne, tablice decyzyjne. Jedną z najbardziej popularnych technik jest model związków encji, czyli tzw. E/R (Entity/Relationship) znany też jako obiekt atrybut związek. Model ten po raz pierwszy został sformułowany w roku 1977 przez P. P. Chena. Podejście obiektowe (object oriented analysis) jest obecnie bardzo dynamicznie rozwijającym się kierunkiem zarówno w sferze analizy, jak i projektowania. Pozwala na łączenie modelowania danych i procesów. Podstawą jest tu analiza obiektu [J. Martin, J. Odell, 1997]. Jak piszą P. Coad i E. Yourdon [1994] obiekt jest to abstrakcja czegoś w dziedzinie problemu, która odzwierciedla zdolność systemu do przechowywania informacji o tym, interakcji z tym czymś, lub obie te rzeczy. W analizie obiektowej ważnym pojęciem jest klasa, jako opis obiektu lub obiektów z jednolitym zbiorem atrybutów i usług. W trakcie przeprowadzania analizy buduje się sformalizowane modele używając w tym celu następujących pojęć: Obiekt zwany też entity (jednostką) lub też encją. Jest to pojęcie dotyczące obiektów istniejących i wyróżnianych w otaczającej nas rzeczywistości, lub też może być pojęciem abstrakcyjnym, związanym z rozważaną przez nas rzeczywistością. Obiekt stanowi moduł (tzw. kapsułę) i zawiera dane i procesy; ujmuje on statyczne i dynamiczne aspekty systemów. 315

316 Analiza organizacji Powiązania obiektów (relacje) Reprezentacja tych klas elementów modelu, które odpowiadają powiązaniom obiektów występujących w rzeczywistości. Własności (atrybuty) Reprezentacja tych klas elementów, które spełniają rolę cech charakterystycznych. Atrybut może mieć pojedynczą wartość lub zestaw wartości. Zmienia się on w czasie i stanowi o stanie obiektu. W tym miejscu przedstawimy zarówno wybrane notacje, jak i dwa podstawowe modele, które, jak wykazuje praktyka, są stosowane powszechnie w analizie procesów zachodzących w zarządzaniu projektami systemów informatycznych. Oczywiście stosuje się w praktyce wiele różnych notacji do zapisywania procesów zachodzących w zarządzaniu projektami, jak też zapisujących przebiegi procesów przetwarzania informacji. Ze względu na zachowanie właściwych proporcji poszczególnych prezentowanych zagadnień do ilustracji wybrano dwie notacje: schemat blokowy i E/R. Czytelnikom zainteresowanym poznaniem większej liczby narzędzi można polecić monografie wymienione w książce, jak też książkę autora [J. Kisielnicki, 2013]. Najprostszym i chyba najstarszym modelem używanym w prezentacji procesów zachodzących w realizacji jest model blokowy. Jest on również powszechnie stosowany w modelowaniu bardzo szerokiego spektrum zastosowań zarówno biznesowych, jak i technicznych. Temu modelowi poświęcamy nieco więcej miejsca niż pozostałym, a to dlatego, iż jest on podstawą w zasadzie wszystkich innych. Zasady użyte w modelach blokowych obowiązują, chociaż w różny sposób, we wszystkich modelach strukturalnych. Model blokowy możemy określić jako graficzny zapis algorytmu realizacji projektu. Jest on pomocny do rozwiązania zadania, które przedstawia opis i kolejność wykonywania czynności podczas realizacji projektu. W modelu blokowym poszczególne operacje przedstawione są za pomocą odpowiednio połączonych bloków (najczęściej mają one postać różnych figur geometrycznych). Połączenia bloków określają kolejność i sposób wykonywania operacji realizujących dany algorytm. W literaturze, szczególnie dotyczącej oprogramowania informatycznego, przyjęto pewne standardowe oznaczenia poszczególnych czynności. Standardy te opisane są w metodykach projektowania i zawarte są w regulacjach prezentowanych w normach jakości ISO. Jednak wielu badaczy i menedżerów używa innych, wymyślonych przez siebie oznaczeń. Warunkiem ich stosowania jest to, że powinny być one jednakowe dla określonego typu czynności. 316

317 Zarządzanie i informatyka cz. IV Istnieje wiele odmian modeli blokowych. W zależności od badanego problemu oraz przyjętych celów zastosowania, należy wybrać odpowiedni z nich. W tej części opisu skoncentrujemy się na modelach, które mogą być zastosowane w projektach badawczorozwojowych na etapie planowania i realizacji. Model blokowy w przedstawionych przykładach prezentuje przebieg realizacji zadań w projekcie. Model taki łączy w sobie dwie cechy: kolejność czynności w procesie i identyfikację odpowiedzialności za każdą z wymienionych czynności. Symbole bloków połączone są ze sobą szeregowo lub tworzą pętle sprzężeń zwrotnych w takich przypadkach, które wymagają powrotu do poprzedzających czynności. W modelu (schemacie) ujmuje się wszystkie niezbędne czynności, które składają się na pewną całość działań realizowanych w określonej kolejności. Model prezentuje logiczną sekwencję wszystkich realizowanych czynności w projekcie. Efekty zastosowania modelu blokowego ujawniają się szczególnie w przypadku procedur, gdzie należy podejmować decyzje, które z rozpatrywanych wariantów pojedynczych działań, bądź ciągów działań, należy w danej sytuacji realizować. Kierownik projektu (Project Manager) lub wykonawca po udzieleniu odpowiedzi tak lub nie na zadane w modelu pytanie (najczęściej przedstawione graficznie w postaci rombu), wie, jaką ze wskazanych ścieżek działań ma dalej podążać. Uprawnienie do podjęcia decyzji jest delegowane na bezpośredniego wykonawcę. On z kolei nie musi zwracać się do swojego przełożonego o decyzję w sprawach objętych procedurą. W ten sposób następuje umocnienie wykonawcy w procedurze realizacji projektów i przyzwyczajenie się do samodzielnej pracy. Istotnym ułatwieniem dla wykonawcy (wykonawców) jest podawanie w schemacie źródeł, z których należy czerpać potrzebne informacje do wykonania danej czynności lub podjęcia decyzji. Przedstawiona na rysunku IV.13 notacja zgodna jest z normą ISO 5807: Schematy blokowe (rysunki IV.14, 15 i 16) pozwalają dostrzec istotne elementy realizacji projektu i logiczne zależności między nimi. W modelu, zależnie od przedstawianego algorytmu realizacji projektu, stosowane są różne zestawy figur geometrycznych zwanych blokami (etapami, czynnościami), których kształty reprezentują umownie rodzaje elementów składowych procedury realizacji projektów. Stosowane w modelu łączniki umożliwiają wskazanie czynności, które łączą się z innymi modelami. Dzięki temu można zapewnić właściwą kolejność stosowania w modelu kilku procedur następujących po sobie lub synchronizację procedur realizowanych równolegle przez kilka stanowisk pracy. Dzięki temu koordynacja biegu kilku spraw, załatwianych równolegle lub w wymaganej kolejności przez różnych wykonawców, przybiera formę samo koordynacji. Wynika to ze znajomości procedur realizowanych przez cały zespół projektantów oraz momentów, w których poszczególni wykonawcy otrzymują fragmenty spraw do 11 Przetwarzanie informacji symbole i konwencje w dokumentacji danych, programów i systemów; schematy blokowe, wykresy sieciowe programu oraz zasobów systemowych. 317

318 Analiza organizacji Legenda: Graficzne przedstawienie bloków w kolejności opisywania: a) Blok graniczny oznacza on początek, koniec, przerwanie lub wstrzymanie wykonywania działania, b) Blok wejścia-wyjścia przedstawia czynność wprowadzania danych do procedury i przyporządkowania ich zmiennym do późniejszego wykorzystania, jak i wyprowadzenia wyników obliczeń, c) Blok obliczeniowy oznacza wykonanie operacji, w efekcie której zmienią się wartości, postać lub miejsce zapisu danych, d) Blok decyzyjny, warunkowy przedstawia wybór jednego z dwóch wariantów wykonywania procedury na podstawie sprawdzenia warunku wpisanego w ów blok, np. a = b. e) Blok wywołania sub-procedury (pod-procedury), f) Blok fragmentu przedstawia część procedury zdefiniowanej odrębnie, g) Blok komentarza pozwala wprowadzać komentarze wyjaśniające poszczególne części modelu, co ułatwia zrozumienie go czytającemu, h) Łącznik wewnętrzny służy do łączenia odrębnych części schematu znajdujących się na tej samej stronie, i) Łącznik zewnętrzny służy do łączenia odrębnych części schematu znajdujących się na odrębnych stronach, Elementy budowy: 1. strzałka wskazuje jednoznacznie powiązania i ich kierunek, 2. operand prostokąt, do którego wpisywane są wszystkie operacje z wyjątkiem instrukcji wyboru, 3. predykat romb, do którego wpisywane są wyłącznie instrukcje wyboru, 4. etykieta owal służący do oznaczania początku bądź końca sekwencji schematu (kończą, zaczynają lub przerywają/przenoszą schemat). Rysunek IV.14. Elementy budowy modelu i ich powiązania Źródło: 318

319 Zarządzanie i informatyka cz. IV dalszego wykonywania. Ułatwia to znakomicie pracę kierownika projektu, który może skoncentrować się na nadzorowaniu prawidłowości przebiegu realizacji projektu i ewentualnym podejmowaniu działań koordynujących. Efekt zastosowania modelu zapisanego za pomocą notacji blokowej to znaczące zmniejszenie objętości wyrażającej procedurę realizacji projektu. W ten sposób zapisane czynności są jasne, proste i przejrzyste. Kierownik projektu tylko nadzoruje rutynowe decyzje, które są delegowane na bezpośrednich wykonawców, a oni mogą sami kontrolować przebieg realizowanych procedur. Model przedstawiony na rysunku IV.14 nazywany jest często schematem przepływów (flowchart) lub algorytmem, jednak jego najpopularniejsza nazwa to schemat blokowy. Celem stosowania tego narzędzia modelowania jest graficzne przedstawienie każdego procesu, czyli sekwencji operacji, procesów jednostkowych i czynności elementarnych oraz relacji między nimi, wchodzących w skład procesu od chwili jego rozpoczęcia do zakończenia. Przedstawienie ciągu działań realizowanego projektu w postaci schematu blokowego pozwala lepiej zrozumieć jego istotę [A. Hamrol, W. Mantura, 2002]. Zastosowanie modelu blokowego w opisie projektu pozwala na: zrozumienie i analizę przebiegu procesu projektowania, przyczynia się do poprawy jego jakości poprzez uzasadnione korekty. Umożliwia też modyfikację projektu, jak i jego kontynuowanie przez innych pracowników i inne komórki organizacyjne. W realizacji projektów badawczo-rozwojowych model blokowy ma zastosowanie: do opisu projektu, do zaprojektowania realizacji powiązanych projektów, przy projektowaniu zmian, jako narzędzie w analizie projektu, do prezentacji. Etapy tworzenia modelu blokowego są następujące: Określenie granic projektu czyli punktów start i koniec. Zdefiniowanie poszczególnych kroków (operacji) w realizacji projektów. Konstruowanie modelu blokowego w celu przedstawienia projektu (wykorzystanie odpowiednich symboli graficznych, opisanie poszczególnych elementów schematu oraz połączenie elementów graficznych strzałkami wskazującymi kierunek przebiegu). Weryfikacja modelu w trakcie realizacji projektu. 319

320 Analiza organizacji Rysunek IV.15. Model blokowy pokazujący najczęściej stosowane symbole graficzne Źródło: Pewną odmianą modelu blokowego jest model relacji (interrelationship diagram) nazywany również: drzewem relacji, diagramem zależności oraz wykresem współzależności przyczyn. Model ten pozwala na uporządkowanie danych, a w tym określenie wzajemnych powiązań między nimi. Tworzenie modelu relacji jest stadium pośrednim między już przedstawionym modelem blokowym a prezentowanym dalej modelem analizy obiektów i relacji E/R. Analiza relacji umożliwia wyjaśnienie powiązań przyczynowo-skutkowych, a w przypadku złożonych projektów określenie kolejności następujących po sobie etapów badań. Elementy modelu, do których lub od których jest skierowana największa liczba powiązań, stanowią punkty wyjścia do dalszych pogłębionych badań. W następnym prezentowanym modelu przedstawimy nieco inne niż w modelu blokowym zapisy zależności. Występują one w różnego typu systemach zarządzania projektami 320

321 Zarządzanie i informatyka cz. IV w tym też w modelach zarządzania projektami badawczo-rozwojowymi. Model taki nazywa się modelem analizy encji, czyli E/R (Entity Relationshipdiagram). Notacja E/R oznaczona symbolem ERD nazywana jest również analizą relacji: obiekt atrybut związek. Model E/R został sformułowany w roku 1977 przez P. P. Chena. Podstawową formą prezentacji modelu problemu jest graficzny schemat zwany diagramem związków obiektów lub diagramem związków encji. Encja (entity) jest terminem stosowanym w modelowaniu systemów informacyjnych, szczególnie w modelach danych zawartych w bazach danych i hurtowniach danych, jako reprezentacja wyobrażonego lub rzeczywistego obiektu (grupy obiektów). Formalnie jest to pojęcie niedefiniowalne. Podstawową cechą encji jest to, że jest rozróżnialna od innych encji. Przykłady encji (i atrybutów w encji): Osoba wykonawca projektu (imię, nazwisko, PESEL). Laptop (cena, waga, zastosowanie, szybkość funkcjonowania). Charakterystyczną cechą encji jest to, że włącza ona do swojego obszaru znaczeniowego oprócz obiektów fizycznych również obiekty niematerialne. Encja może stanowić pojęcie, fakt, wydarzenie (np. adres zamawiającego projekt i jego konto bankowe, którego atrybuty to np. numer, dopuszczalny debet itp.; konferencja, na której projekt jest prezentowany, a której atrybuty to np. temat, data, organizator itp.). Diagram E/R powinien zawierać: 1. wszystkie potrzebne dla danego modelu projektu dane, 2. wszystkie powiązania zgodnie z zasadami funkcjonowania projektu, 3. inne potrzebne informacje do budowy modelu funkcjonowania projektu. W diagramie E/R używa się dwóch podstawowych symboli: obiekty (czyli encje), powiązania. Model E/R jest szeroko stosowany w zarządzaniu projektami. Może on zostać uznany za przedstawiciela grupy modeli strukturalnych patrz rysunek IV.16. Legenda -obiekt lub encja - związek (relacja) Rysunek IV.16. Przykład fragmentu modelu stosowanego w twardym podejściu (model E/R -ERD) do zarządzania projektami Źródło: opracowania własne. 321

322 Analiza organizacji Na rysunku IV.17 przedstawiono zapis elementów modelu E/R. Uwaga: opis poszczególnych elementów i ich wyjaśnienie w treści książki Rysunek IV.17. Przykłady typowych sytuacji w modelach zapisanych w notacji E/R Źródło: e-education.com Diagramy związków-encji pozwalają graficznie opisywać model konceptualny funkcjonowania projektu. Do podstawowych elementów diagramów E/R należą: zbiory encji reprezentowane przez prostokąty, które w środku zawierają nazwę zbioru atrybuty reprezentowane przez elipsy, które w środku zawierają nazwę atrybutu związki reprezentowane przez równoległoboki, które w środku zawierają nazwę związku 322

323 Zarządzanie i informatyka cz. IV Zbiory encji opisywane są za pomocą atrybutów, które łączy się z nią liniami prostymi (rys. IV.18): Uwaga: wewnątrz elipsy wprowadzana jest nazwa atrybutu, a nie jego wartość. Związki zachodzące między zbiorami encji przedstawia się w postaci równoległoboku, z którego wychodzą linie proste do wszystkich zbiorów encji, należących do danego związku. Rysunek IV.18. Fragment modelu E/R zapis powiązań atrybutów Źródło: opracowanie własne. Jeśli dla realizacji określanego projektu potrzebny jest samochód, to zapiszemy taką relację jak na rysunku IV.19. Rysunek IV.19. Fragment modelu E/R zapis zachodzącego związku między encjami Źródło: opracowanie własne. Związki zachodzące między zbiorami encji mogą być więcej niż dwuargumentowe oraz mogą również posiadać atrybuty (por. rys. IV.20). Rysunek IV.20. Fragment modelu E/R zapis wiele argumentowe z atrybutami Źródło: opracowanie własne. W modelu należy uwzględnić fakt, że mogą w nim zachodzić też związki między encjami należącymi do jednego zbioru. Taka sytuacja wymaga dodatkowego opisania ról, 323

324 Analiza organizacji w jakich występują poszczególne encje. Rysunek IV.21 przedstawia taką zależność na przykładzie relacji między kierownikiem projektu a pracownikiem wykonawczym: Rysunek IV.21. Fragment modelu E/R zapis związku pomiędzy encjami należącymi do jednego zbioru Źródło: opracowanie własne. Ważnym elementem notacji jest możliwość zapisania tzw. krotności związków. Krotność związków zbiorów encji jest cechą, która opisuje z iloma encjami należącymi do jednego zbioru encji może być połączona jedna encja należąca do drugiego zbioru encji. Istnieją trzy główne typy związków: 1 do 1 1 do n n do n Stosując wymienione trzy typu związków, nie zawsze jesteśmy w stanie wystarczająco precyzyjnie opisać przypadki z jakimi spotykamy się w analizie i zarządzaniu projektem. Na przykład często zachodzi potrzeba odróżnienia sytuacji, w której jedna encja jednego zbioru może być związana z jedną encją drugiego zbioru, od sytuacji, w której relacja ta jest obligatoryjna tzn. jedna encja pierwszego zbioru musi być związana z jedną encją drugiego zbioru. W literaturze poświęconej modelowaniu można spotkać symbolikę, która oparta jest na modelu rozróżniającym tylko trzy podstawowe przypadki. Tym niemniej w praktyce wykorzystywane są notacje, które pozwalają precyzyjnie opisywać te zależności. W opisie modeli E/R nie wypracowano jednego standardu oznaczania krotności (jak ma to miejsce w przypadku standardu modelowania obiektowego języka UML, przedstawionego dalej). Najczęściej można spotkać następującą notację (rozpowszechnioną m.in. w dokumentacji projektów firmy Oracle): powiązanie jednokrotne, obowiązkowe (tylko jeden), powiązanie jednokrotne, opcjonalne (jeden lub zero), powiązanie wielokrotne, obowiązkowe (co najmniej jeden), powiązanie wielokrotne, opcjonalne (zero lub więcej). Na rysunku IV.22 przedstawiamy przykłady różnych sytuacji, które ilustruje różne kombinacje krotności: 324

325 Zarządzanie i informatyka cz. IV należą- Uwaga: symbole krotności interpretowane są zawsze w ten sposób, że jedna encja z jednego zbioru encji może być powiązana z taką liczbą encji cych do drugiego zbioru, na jaką wskazuje symbol leżący bezpośrednio przy drugim zbiorze encji. Rysunek IV.22. Przykłady ilustracji różnych kombinacje krotności w modelu E/R Źródło: P. Piotrowski, Notacja modelowania procesów biznesowych, BTC Legionowo 2007 BPMN. Rozwinięciem modeli E/R jest modelowanie obiektowe oznaczone skrótem OOA (Object Oriented Analysis). Jest to kierunek prezentacji modeli, który stosowany jest zarówno w sferze analizy, jak i projektowania systemów zarządzania. Podejście obiektowe pozwala na łączeniu modelowania danych i procesów. Podstawą jest analiza obiektu, czyli prezentacja całego projektu, jak również zawartych w nim poszczególnych komórek organizacyjnych, tj. Komitet Sterujący projektem, dział administracyjny projektu, czy też dział finansowy jego obsługi. Często również w modelu przedstawiamy pojedynczego wykonawcę i jego zadania. Analiza projektu wykonana za pomocą modelu OOA ma za zadanie strukturalizację całości na części tak, aby poznać ich naturę, proporcję, funkcję, wzajemne powiązania itd. Siłę powiązań między elementami określa się przez ich charakterystykę. Powiązania są obowiązkowe (linia ciągła), lub opcjonalne (linia przerywana). Modelowanie stosowane w tzw. twardym zarządzaniu jest bardzo ważnym elementem analizy projektu i przygotowania decyzji. Ma ono za zadanie opisanie procesów. Najczęściej opis ten wykorzystuje notację graficzną. Z modelu procesu można wywnioskować jego przebieg i kolejność wykonywania poszczególnych kroków. W literaturze przedmiotu modelowanie jest często utożsamiane z mapowaniem procesów. Pojęcia te nie są tożsame. Mapowanie pokazuje zasadnicze relacje, które występują między procesami/obiektami w procesie, podczas gdy model pokazuje przebieg. 325

326 Analiza organizacji Analiza systemu informacyjnego coraz częściej jest wspomagana przez opracowane, specjalistyczne komputerowe pakiety oprogramowania, tzw. Systemy Wspomagania Analizy Organizacji. Programy te stanowią element większego pakietu zintegrowanego, który wspomaga całość procesu powstania systemu informacyjnego lub też stanowią wyspecjalizowane narzędzia przeznaczone tylko dla procesu analizy. Analiza modeli procesów biznesowych, prowadząca do opracowania modelu stanu docelowego i wdrożenie modelu docelowego, to jedna z możliwych dróg do zwiększenia efektywności i konkurencyjności organizacji. Procesowe podejście do działalności przedsiębiorstwa to dominujący kierunek w zarządzaniu, który przyczynił się do sukcesu wielu nowocześnie zarządzanych firm. Kluczowym terminem w tym podejściu jest pojęcie procesu biznesowego, definiowanego jako seria działań, które na wejściu zasilane są wkładem (surowce, informacja, ludzie, maszyny, metody), a na wyjściu prowadzą do rezultatu (produkt fizyczny, informacja, usługa) przeznaczonego do użycia w określonych celach przez klienta, dla którego jest wytwarzany, i dla którego ma określoną wartość. Takie podejście jednoznacznie rozróżnia pojęcie procesu od pojęcia zadania (funkcji, czynności), traktowanego jako operacje wykonywane przez indywidualnych pracowników. Czytelnikowi zainteresowanego problematyką modelowania biznesowego rekomenduję dwie prace [J. Kisielnicki 2012 i 2013], w których przedstawiono odpowiednie modele. Procesy biznesowe mogą dotyczyć modyfikacji procesów dotychczas realizowanych lub zupełnie nowych procesów zaprojektowanych od podstaw; w jednym i drugim przypadku wdrożenie ich może przebiegać według dwóch skrajnych strategii: 1. proponowane zmiany realizowane są stopniowo (ewolucyjnie), małymi krokami i w długim czasie usprawnianie procesów, 2. proponowane zmiany realizowane są radykalnie (rewolucyjnie), przy zaangażowaniu dużych środków reeingineering procesów biznesowych (Business Process Reengineering) patrz punkt o doskonaleniu systemu. W rezultacie obie drogi powinny doprowadzić do tego samego celu utworzenia mechanizmu ciągłego doskonalenia procesów, stanowiącego podstawę wdrożenia procesowego zarządzania organizacją. Reasumując: w całościowym wdrożeniu zarządzania procesami biznesowymi można wyodrębnić kolejne etapy: Identyfikacja i definiowanie procesów, Modelowanie procesów stanu obecnego, Analiza modeli procesów stanu obecnego i modelowanie procesów docelowych, Wdrożenie modeli procesów docelowych, Monitorowanie zaimplementowanych modeli i kontynuacja zmian. 326

327 Zarządzanie i informatyka cz. IV We współczesnej praktyce gospodarczej modelowanie procesów biznesowych jest coraz częściej pierwszym krokiem działań podejmowanym nie tylko w celu przejścia organizacji z orientacji funkcjonalnej na procesową, ale także wtedy, gdy osiągane, dzięki modelowaniu biznesowemu, ułatwienie zrozumienia struktury, dynamiki i aktualnych problemów organizacji pomaga w zidentyfikowaniu obszarów potencjalnych ulepszeń, a więc przed: wdrożeniem systemów informacyjnych wspomagających zarządzanie, wprowadzeniem systemów zarządzania przez jakość: TQM, Six Sigma, Lean Manufacturing, wprowadzeniem rachunku kosztu procesów metoda ABC (activity based costing), wprowadzeniem aplikacji e-biznesu. Systematycznie rozszerzające się możliwości praktycznego wykorzystania modeli procesów biznesowych są z jednej strony powodem do postępującej ewolucji narzędzi informatycznych wspierających modelowanie, z drugiej zaś prowadzą do systematycznego wzrostu obrotów na rynku tych narzędzi. Aktualnie zgodnie z kwalifikacją analityków z Gartner Group, IDC i Forrester Research, będący przedmiotem naszego zainteresowania rynek narzędzi do modelowania, analizy i projektowania procesów biznesowych (Business Process Analysis Tools BPA Tools) jest segmentem rynku systemów zarządzania procesami biznesowymi BPM (Business Process Management). Przykład modelu biznesowego podany zostanie w rozdziale dotyczącym analizy efektywności zastosowań ICT. 327

328 328

329 Rozdział 13 Projektowanie systemu informacyjnego zarządzania O rozwiązanich metodycznych Jeżeli analiza wykazała celowość i wykonalność realizacji projektu systemu informacyjnego, czyli uzyskaliśmy odpowiedź: TAK system informacyjny powinien zostać zaprojektowany (albo istniejący system w organizacji powinien być zmodernizowany), NIE w obecnej sytuacji nie jest celowe zastosowanie nowego systemu informacyjnego, przystępujemy do zasadniczej fazy jego realizacji czyli tworzenia określonego systemu informatycznego. Fazę tę nazywamy projektowaniem. Zdajemy sobie sprawę, że jest to pewne uproszczenie. Pełna analiza powinna również zawierać część ekonomiczną. Jednak ze względu na jej uniwersalny charakter, a mianowicie to, że dotyczy ona nie tylko projektowania, ale też całości problematyki zastosowań ICT w zarządzaniu będzie ona przedstawiona w następnej części książki. Projektowanie jest procesem obejmującym fazy od analizy do doskonalenia systemu. Ten etap działań może być określony terminem właściwe projektowanie. Należy jednak zwrócić uwagę, że w bardzo często w literaturze przedmiotu takie fazy, jak analiza, nazywa się również działaniami przedprojektowymi, a doskonalenie systemu, fazą post projektową. Proces projektowania ulega stałym przeobrażeniom. Wynika to z faktu, że twórcami ich są zarówno naukowcy, jak i praktycy, którzy poszukują najlepszych rozwiązań w zmieniającym się świecie. Dla przedstawienia podstawowych podejść metodycznych do procesu projektowania zastosowano dwa kryteria. Pierwsze z nich można określić jako uwzględniające aspekt czasu, a więc: 1. projektowanie diagnostyczne, w którym za punkt wyjścia przyjmuje się obecny stan organizacji, a projektant pragnie ją usprawnić; 2. projektowanie prognostyczne, gdzie za punkt wyjścia bierzemy naszą wizję organizacji w przyszłości, a nie interesuje nas stan obecny. 329

330 Projektowanie systemu informacyjnego zarządzania Drugie z kryteriów dotyczy procedury działań. Tu możemy wyróżnić następujące podejścia: kaskadowe, ewolucyjne, przyrostowe, spiralne, zwinne. Wszystkie one będą omówione w kolejności ich prezentacji. Przyjęcie każdej z możliwych opcji zależy od: wyników przeprowadzonej analizy, przygotowania kadrowego zespołu projektującego, otoczenia organizacji. Podejście diagnostyczne, które jest najbardziej popularne, nazywane jest często podejściem tradycyjnym. Projektuje się tu system lepszy niż obecnie istniejący. Na osi czasu sytuację tę można zilustrować, jak na rysunku IV.23. Rysunek IV.23. Horyzont czasu przyjęty w metodzie prognostycznej i diagnostycznej Źródło: opracowanie własne. W podejściu diagnostycznym znamy obiekt i jego niedomaganie, jak też istniejące możliwości poprawy. Zadaniem projektu jest poprawa tego stanu, dlatego też formułujemy zarówno kryterium oceniające, jak też istniejące warunki ograniczające. Celem jest projektowanie systemu lepszego niż obecnie funkcjonujący. W podejściu prognostycznym w zasadzie obecna sytuacja nie decyduje o przyjętych rozwiązaniach. Pierwszym zadaniem jest określenie horyzontu czasu, a ściślej punktu w przyszłości, na jaki projektujemy dany system. Zasada przyjęta w tym podejściu jest następująca: rezultat projektu (produkt, usługa) powinien być przez długi czas nowoczesny. Oczywiście decydenci pragną, aby był on jak najdłużej nowoczesny. Jednak, aby ten postulat zrealizować należy zdawać sobie sprawę z faktu, że im horyzont czasu jest dłuższy, tym nasza wiedza o przyszłych warunkach jest mniejsza, a ryzyko realizacji założonych parametrów jest większe. I nie jest to tylko związane z naszymi pragnieniami, ale w przeważającej mierze z tym, że stosując podejście prognostyczne zwiększa się ryzyko podjęcia nietrafionych decyzji. Z tych powodów decyzja przyjęcia diagnostycznego czy prognostycznego podejścia do projektowania jest decyzją strategiczną. Niezależnie od stosowanego kryterium czasu, możemy przyjąć różną sekwencję postępowania. Założeniem strukturalnego podejścia do procesu projektowania jest dekompozycja celu głównego na cele szczegółowe. Wychodząc od całościowej analizy przechodzimy do budowy projektu dla poszczególnych podcelów. Dla analizy procesu projektowania załóżmy, że otrzymaliśmy zadanie opracowania projektu sytemu BI, którego zadaniem jest wspomagającego przeprowadzenie transformacji 330

331 Zarządzanie i informatyka cz. IV organizacji i dostosowania jej do wymagań Unii Europejskiej. Transformacja ta wymaga realizacji szeregu celów cząstkowych takich, jak: dostosowanie standardów przesyłania informacji, zmiany w dotychczas stosowanym systemie rachunkowości, wprowadzenie norm jakościowych zgodnych ze standardami UE i szeregu innych. Jak przedstawiono wcześniej, można stosować w procesie projektowania określone procedury. Prześledzimy teraz warunki, w których będziemy stosowali poszczególne podejścia. Procedura kaskadowa (waterfaal) bardzo często nazywana wodospadową, charakteryzuje się tym, że proces projektowy odbywa się stopniowo. Projektuje się system dla całej organizacji, a więc nie w pełni realizuje się zasadę podejścia strukturalnego. Jednak przed przystąpieniem do procesu projektowania nie określa się szczegółowo wszystkich faz procesu projektowania. Uszczegółowienia kolejnych etapów dokonuje się stopniowo. Hasłem postępowania jest stwierdzenie wszystkie wątpliwości są rozwiązywane na czas. W ten sposób wraz z nabywaniem doświadczenia i postępem prac określane są poszczególne zadania projektowe. W praktyce prowadzi to do sprzężenia zwrotnego, ponieważ nie znamy dokładnie wszystkich elementów procesu projektowanego, często musimy powracać do etapu poprzedniego. I tak wdrażając projekt może okazać się, że nie przewidziano wszystkich elementów. Stosując sprzężenie zwrotne należy niekiedy dla pewnych problemów powrócić do etapu już zrealizowanego. W konsekwencji, mimo tego ograniczamy w znacznym stopniu ryzyko, a tym samym obniżamy koszty. Procedura kaskadowa jest najbardziej popularna. Jest stosowana powszechnie i ma liczne modyfikacje. Jej minusem jest to, że wobec zmiany warunków, a tym samym zmiany realizowanego celu, ma dużą inwersję i nie reaguje szybko na zmiany. W konsekwencji otrzymany produkt nie zawsze może być oceniony jako nowoczesny. Sekwencję podejścia kaskadowego przedstawiono na rysunku IV.24. Procedura ewolucyjna jest typowa dla podejścia strukturalnego. Przedstawiona jest na rysunku IV.25. Cechą charakterystyczną tego podejścia jest to, że jest to projektowanie nadążne, tzn. cały czas jesteśmy nastawieni na zmieniający się cel, co przedstawiają punkty C 1,C 2, C 3,..C n. Ponieważ wraz z upływem czasu cel, który został określony wcześniej ulega zmianie, dlatego też musimy nieustannie analizować i kontrolować proces projektowania. W ten sposób staramy się zminimalizować straty spowodowane tym, że stworzony przez nas system będzie nietrafiony, a jego funkcjonowanie nie przyniesie spodziewanych efektów. Koszty są natomiast powodowane stałą modyfikacją realizowanych celów i koniecznością przeprojektowywania już zrealizowanych celów cząstkowych. Kosztem etapowej modyfikacji systemu, uzyskujemy efekt jego aktualności końcowej. 331

332 Projektowanie systemu informacyjnego zarządzania Rysunek IV.24. Procedura kaskadowa w projektowaniu Źródło: opracowanie własne. Legenda: C 1,..,C n cele cząstkowe, C 1 * niezmienny od czasu t 1 cel C 1, ale na zakończenie projektu Rysunek IV.25. Sposób działania przy projektowaniu systemu przy przyjęciu procedury ewolucyjnej Źródło: opracowanie własne. 332

333 Zarządzanie i informatyka cz. IV Na rysunku IV.25 przedstawiona została czteroetapowa modyfikacja działań. Linią ciągłą zaznaczono postępowanie, które byłyby realizowane, gdyby cele systemu raz ustalone nie zmieniły się. Wtedy procedura projektowania jest prosta. Jednak większość organizacji w wyniku zachodzących zmian musi modyfikować przyjęte cele. Taka sytuacja przedstawiona jest na rysunku linią przerywaną. W pierwszym etapie zakładamy, że zmian nie ma, więc linia przerywana pokrywa się z linią ciągłą. Zmiany w organizacji nastąpiły po czasie t 2 i nowy cel, który ma być obsługiwany przez system wynosi C 2. Jednak zmiany wciąż następują i po czasie t 3, cel, który został określony jako C 3 zostanie uwzględniony w uaktualnionym projekcie. Gdyby zmiany nie zaszły, to realizowalibyśmy tylko cel C 1, natomiast różnica między C n a C 1 * pokazuje graficznie, że w realizowanym projekcie musi nastąpić reorientacja na nowe warunki. Zmiany uregulowań prawnych w UE powodują, na przykład, konieczność ich uwzględnienia. Możemy stwierdzić, że procedura ewolucyjna w pewnej mierze uwzględnia podejście prognostyczne. Procedura przyrostowa jest zarazem procedurą strukturalną. Uwzględnia ona fakt, że nie zawsze posiadamy odpowiednie środki, aby realizować równocześnie cały projekt. Zespół projektujący, przy dobrej organizacji pracy, jest stale z taką samą intensywnością zajęty realizacją projektu i może być mniej liczny niż wtedy, kiedy projekt realizowany jest od razu w całości. Prace nad projektem nie odbywają się metodą akcyjną, gdzie realizowane są określone zadania, a potem zespół oczekuje na następne zadania lub też jest rozwiązywany. Organizację prac nad projektem można porównać do tworzenia osiedla domów, gdzie poszczególne brygady pracują przy budowie jednego domu, a następnie przenoszą się na budowę następnego. Na ich miejsce przychodzi nowa brygada, która kontynuuje pracę tej pierwszej. W przedstawionym na rysunku przykładzie początkowo wykonuje się projekt dla realizacji C 1, natomiast później dla C 2 itd. Klamrą spinającą poszczególne etapy projektowania są dwa pierwsze (wymagania, analiza) i dwa ostatnie etapy (testowanie i wdrożenie). W ostatnich etapach procesu projektowania dbamy o spójność całego systemu. Procedura przyrostowa przedstawiona jest na rysunku IV

334 Projektowanie systemu informacyjnego zarządzania Uwaga. Ze względu na przejrzystość nie przedstawiono wszystkich wymienionych w tekście etapów projektowania. Rysunek IV.26. Procedura przyrostowa w projektowaniu systemu Źródło: opracowanie własne. Procedura spiralna, której cechą charakterystyczną jest realizacja krok po kroku, czyli cykliczne wykonywanie tych samych porcji projektu. Projekt dzieli się na etapy i dla każdego z nich opracowuje się całościowy projekt. Procedura ta została po raz pierwszy zastosowana w przemyśle lotniczym. Zasadą jest to, że na drodze kolejnych przybliżeń udoskonalamy system. Czas trwania procedury jest stosunkowo długi (o wiele dłuższy niż w poprzednio opisanych procedurach). Stosuje się ją dla złożonych i stosunkowo drogich przedsięwzięć, w których czas i koszty nie odgrywają istotnej roli, a najważniejsza jest jakość finalnego produktu. Procedury używa się dla projektów, dla których przewidujemy dość długi okres eksploatacji. Wynikiem jest opracowanie tzw. prototypów. Ciąg czynności jest następujący: dla całej organizacji określa się plan wymagań, a następnie opracowuje się analizę ryzyka, prototyp, projekt oprogramowania, weryfikację projektu, kodowanie, testowanie modułów, integrację, testowanie całości i wdrożenie. Novum jest to, że, każdy prototyp jest sprawdzany metodami symulacyjnymi. Nazwa procedury, której charakterystykę przedstawiono na rysunku IV.27 pochodzi z tego, że ciąg czynności można przedstawić jako spiralną wstęgę. W wyniku realizacji poszczególnych etapów działań otrzymujemy projekt coraz bardziej doskonały. Oczywiście realizacja projektu w tej procedurze powoduję wyższe nakłady niż procedury: kaskadowa, ewolucyjna czy też przyrostowa. 334

335 Zarządzanie i informatyka cz. IV Uwaga: Ze względu na potrzebę zachowania przejrzystości nie przedstawiono na rysunku wszystkich wymienionych w tekście etapów projektowania. Rysunek IV.27. Procedura spiralna w projektowaniu systemu Źródło: opracowanie własne. Procedura zwinna (Agile) jest to ciągła zmienność i krótkie ramy czasowe na opracowanie i przekazanie użytkownikowi gotowych elementów projektu. Najczęściej stosowana do realizacji fazy programowania, ale nie tylko. Terminem tym określamy grupę metodyk wytwarzania oprogramowania opartego na programowaniu iteracyjnym (model przyrostowy), ale też spiralnym. Wymagania oraz rozwiązania ewoluują przy współpracy samo zarządzanych zespołów, których celem jest przeprowadzanie procesów wytwarzania oprogramowania. Pojęcie zwinnego programowania zostało zaproponowane w 2001 w Agile Manifesto. W Manifeście tym czytamy: Ludzi i interakcje ponad procesy i narzędzia. Działające oprogramowanie ponad obszerną dokumentację. Współpracę z klientem ponad formalne ustalenia. Reagowanie na zmiany ponad podążanie za planem. I dalej, że: Doceniamy to, co wymieniono po prawej stronie, jednak bardziej cenimy to, co po lewej. Zasady Manifestu Zwinnego Wytwarzania Oprogramowania są następujące [agilemanifesto.org/iso/pl/principles.html]: 335

336 Projektowanie systemu informacyjnego zarządzania Najważniejsze dla nas jest zadowolenie Klienta wynikające z wcześnie rozpoczętego i ciągłego dostarczania wartościowego oprogramowania. Bądź otwarty na zmieniające się wymagania nawet na zaawansowanym etapie projektu. Zwinne procesy wykorzystują zmiany dla uzyskania przewagi konkurencyjnej Klienta. Często dostarczaj działające oprogramowanie (od kilku tygodni do paru miesięcy), im szybciej tym lepiej z preferencją krótszych terminów. Współpraca między ludźmi biznesu i programistami musi odbywać się codziennie w trakcie trwania projektu. Twórz projekty wokół zmotywowanych osób. Daj im środowisko i wsparcie, którego potrzebują i ufaj im, że wykonają swoją pracę. Najwydajniejszym i najskuteczniejszym sposobem przekazywania informacji do i w zespole jest rozmowa twarzą w twarz. Podstawową i najważniejszą miarą postępu jest działające oprogramowanie. Zwinne procesy tworzą środowisko do równomiernego rozwijania oprogramowania. Równomierne tempo powinno być nieustannie utrzymywane przez sponsorów, programistów oraz użytkowników. Przez ciągłe skupienie na technicznej doskonałości i dobremu zaprojektowaniu oprogramowania zwiększa się zwinność. Prostota sztuka maksymalizacji pracy niewykonanej jest zasadnicza. Najlepsze architektury, wymagania i projekty powstają w samoorganizujących się zespołach. W regularnych odstępach czasu zespół zastanawia się, jak poprawić swoją efektywność, dostosowuje lub zmienia swoje zachowanie. Sposób postępowania w podejściu zwinnym ilustruje rysunek IV.28, w którym porównuje się sposób działania w podejściu zwinnym z podejściem kaskadowym (waterfall). W podejściu zwinnym wszystkie fazy się na siebie nakładają, występuje ciągły ruch, który skraca wszystkie terminy realizacji zadań. Agile stawia na ludzi i to zarówno na członków zespołu, jak i na klienta (którzy są członkami zespołu, wg Agile). Od najlepszego nawet narzędzia ważniejsi są jego użytkownicy oraz udana współpraca i efektywna komunikacja między nimi. Pracować można nawet na kartce papieru, jeśli to będzie ludziom bardziej odpowiadać. Atmosfera w zespole przekłada się bowiem na wydajność pracy. Podobnie 336

337 Zarządzanie i informatyka cz. IV jeśli chodzi o klienta. Ważne jest, aby upewnić się, że w pełni zrozumieliśmy jego oczekiwania (chcemy zrozumieć!) i jesteśmy chętni podjąć z nim dialog celem wyjaśnienia wszystkich wątpliwości. Stworzenie działającego oprogramowania jest istotniejsze niż nadmierne skupianie się na dokumentacji. Cóż nam bowiem ze sterty papierów, jeśli dostarczone oprogramowanie nie będzie spełniało postawionych mu wymagań? Dlatego też zwraca się uwagę na to, że stosując podejście zwinne ryzykujemy: rozminięcie się z potrzebami użytkowników końcowych (jeśli zbyt rzadko testujemy), jak też rozminięcie się z możliwościami technicznymi wdrożenia (jeśli nie rozmawiamy z deweloperami). Podejście zwinne ma zarówno entuzjastów, jak i przeciwników. Jak wykazują dotychczasowe wyniki jest to metoda dobra dla niewielkiego zgranego zespołu o wysokich kwalifikacjach. Rysunek IV.28. Porównanie sposobu działania w podejściu zwinnym z podejściem kaskadowym (waterfall) Źródło: Wybór określonej procedury projektowej zależy od wielu czynników. Praktyka wykazuje, że nie stosuje się czystej jednej procedury, ale mieszankę procedur. Powoduje to, że dla każdej konkretnej sytuacji należy dokonać wyboru strategii postępowania. I tak dla projektów, które powinny być szybko wdrożone najczęściej przyjmuje się podejście diagnostyczno-kaskadowe, natomiast dla złożonych i trudnych przedsięwzięć rekomendować można podejście prognostyczno-spiralne. 337

338 Projektowanie systemu informacyjnego zarządzania Metodyki projektowania systemów informacyjnych W praktyce projektowania systemów informacyjnych stosowanych jest wiele metodyk i technik. Metodyka jest zbiorem zasad dotyczących sposobów wykonywania określonego zadania lub procedury prowadzącej do realizacji celu wraz ze zbiorem narzędzi przeznaczonych do wykonania zadania, jak i wiedzą określającą, jak należy się nimi posługiwać. Metodyka projektowa stanowi formę opisu sposobu postępowania przy prowadzeniu projektu. Zawiera wskazówki jak planować, zarządzać, wytwarzać i monitorować projekt. Metodyka projektowania systemów informacyjnych jest to spójny zbiór sposobów postępowania, który ma na celu otrzymanie systemu informacyjnego wg przyjętych założeń. Każda z metodyk posługuje się pewną liczbą swoistych technik projektowania. Technika projektowania jest to szczególny sposób postępowania, najczęściej sformalizowany, który służy konkretnemu rozwiązaniu w procesie projektowania. Zadania metodyk projektów wynikają z potrzeb: ujednolicenia procedur projektowych, poprawy systemu komunikacji między wszystkimi uczestnikami tego procesu, zmniejszenia niebezpieczeństw konfliktu między wszystkimi zainteresowanymi jego realizacją. Zarządzanie projektem badawczo-rozwojowych, tak jak zarządzanie w każdym projekcie, określić można jako zbiór czynności wykonywanych w celu osiągnięcia wyznaczonych celów w założonym czasie oraz przy wykorzystaniu określonych zasobów. Metodyki zarządzania projektami podkreślają, że każdy projekt jest zorientowany na stworzenie określonego produktu, usługi bądź innego konkretnego rezultatu. Zastosowanie poszczególnych metodyk powiązane jest z metodami zarządzania projektami. Bardzo trudne jest wskazanie konkretnej metodyki. Praktyka pokazuje, że najlepsze rezultaty osiąga się przy stosowaniu metod hybrydowych łączących w sobie mieszankę wszystkich metodyk i dostosowaną do specyficznej sytuacji. Zawsze, niezależnie od wybranej metodyki, należy wziąć pod uwagę: ogólne założenia projektu, harmonogram, koszty oraz role i obowiązki wszystkich uczestników projektu czy jego interesariuszy. W praktyce dysponujemy zbiorem bardzo różnorodnych narzędzi. Można stwierdzić, że wszyscy uczestnicy procesów projektowych wyposażeni są w ogromny zestaw metod i technik wspomagających ich działanie. Problem to wybór narzędzi adekwatnych do potrzeb i możliwości. Jedne z tych narzędzi są stosunkowo proste (jak przykładowo ankieta), inne są bardziej złożone i wymagają wysiłku i środków (jak specyficzne rozwiązania ICT i jej aplikacje). Szczegółowe opisy są zawarte zarówno w specjalistycznych monografiach dotyczących metodyki projektowania, jak też w pod- 338

339 Zarządzanie i informatyka cz. IV ręcznikach z zarządzania. Niektóre z nich zostały podane w załączonej bibliografii. Dlatego też przedstawione zostaną tylko podstawowe charakterystyki wybranych metodyk, najczęściej wymaganych przez instytucje finansujące projekty badawczo-rozwojowe i, jak pokazuje praktyka, najbardziej użytecznych w procesach analizy i podejmowania decyzji dotyczących zarządzania tego typu projektami. Postaramy się je omówić z punktu widzenia ludzi kierujących projektami lub nadzorującymi je. Zastosowaniem metodyk zajmują się analitycy, którzy swoją wiedzę czerpią ze specjalistycznych metodyk i monografii poświęconych ich zastosowaniu. Nauczenie się posługiwania określoną metodyką wymaga przejścia odpowiedniego szkolenia i niekiedy długiej praktyki. Organizacje mają zwykle swoje ulubione metodyki. Najbardziej popularne w Polsce są metodyki PMBOK i PRINCE2. PMBOK Guide (A Guide to the Project Management Body of Knowledge) jest to zbiór standardów i rozwiązań w dziedzinie zarządzania projektami, zebranych i opublikowanych przez członków Project Management Institute. Standard PMBOK Guide jest to zbiór powszechnie uznanych praktyk znajdujących zastosowanie w zarządzaniu projektami. Termin powszechnie akceptowane oznacza, że elementy prezentowane w przewodniku można zastosować do większości projektów. PMI zaznacza jednak, że nie ma gwarancji na to, że opisane w PMBOK techniki i procesy będą zasadne w oryginalnej formie we wszystkich typach projektów. W Stanach Zjednoczonych PMBOK Guide jest zatwierdzony przez American National Standards Institute jako metodyka wspierająca narodowy standard zarządzania projektami. W literaturze przedmiotu metodyka PMBOK uważana jest za jedną z najlepszych i najbardziej uniwersalnych. System szkoleń i certyfikacji dostarcza kierownikom projektów bardzo wysokich kwalifikacji zawodowych. Dokument przedstawiony przez PMI podzielony jest na części odpowiadające za konkretne obszary. Nie koncentruje się on na przebiegu chronologicznym etapów projektu w systemie step by step. Rekomenduje on na jakie obszary należy zwrócić szczególną uwagę oraz co powinno być efektem prac projektowych. PRINCE2 nazwa jest skrótem słów: Projects In a Controlled Environment (Projekty w sterowanym środowisku). Jest to metoda zarządzania projektami niezależna od dziedziny biznesowej zastosowania. PRINCE2 stał się standardem de facto w Wielkiej Brytanii, a obecnie też w Unii Europejskiej dla projektów finansowanych z jej środków. Stanowiąc główną alternatywę (nie wykluczającą) dla metodyki PMBOK instytutu PMI. Coraz popularniejsza jest również metodyka Scrum iteracyjna metodyka prowadzenia projektów. Jest ona zaliczana do metodyk zwinnych, zgodnych z manifestem Agile. W Scrum rozwój produktu podzielony jest na mniejsze, trwające od tygodnia do miesiąca iteracje zwane sprintami, następującymi bezpośrednio po sobie. Po każdym sprincie zespół pracujący nad rozwojem produktu jest w stanie dostarczyć działającą wersję produktu. 339

340 Projektowanie systemu informacyjnego zarządzania Scrum jest często stosowana podczas tworzenia i rozwijania oprogramowania, nie jest jednak ograniczona tylko do tej dziedziny. Ogólne założenia metodyki zostały zaprezentowane przez Hirotaka Takeuchi i Ikujiro Nonaka w artykule The New Product Development Game, opublikowanym w Harvard Business Review w styczniu 1986 roku. Metodyki projektowania możemy pogrupować według następujących kryteriów: Stopień szczegółowości: ogólne obejmujące jedynie te aspekty zarządzania projektami, które są wspólne dla szerokiej grupy projektów; ich największą zaletą jest uniwersalność, gdyż zazwyczaj tematy w nich poruszane są zasadne dla większości projektów; specjalistyczne opracowują tematykę specjalistyczną dla danej dziedziny, często uwzględniając aspekty techniczne oraz technologiczne. Wadą tej grupy jest w zasadzie wąskie grono potencjalnych odbiorców, jednak w zamian oferują bardzo szczegółowe opracowanie specyficznych dla danego obszaru tematów. Do tej grupy możemy zaliczyć metodyki poszczególnych firm opracowujących metodyki dla konkretnych produktów; hybrydowe powstają zwykle z połączeń metodyk z przedstawionych grup. Koncentracji na elementach zarządzania: miękkich uwzględniających składniki, tj. umiejętności osób realizujących projekt i kierujących nim, kadry zaangażowane od strony wykonawcy, jak i klienta, style zarządzania osób odpowiedzialnych za realizację projektu, a także etykę, kulturę oraz kultowość; twardych strategia realizacji, najczęściej wspierana i budowana na podstawie sformalizowanych metod; struktura, czyli formalne modele przedstawienia danych; systemy, czyli sformalizowane procedury postępowania. Filozofii i organizacji procesów projektowania (o nich pisano wcześniej): model kaskadowy (waterfall), model spiralny prototypowy (prototyping), model przyrostowy, model ewolucyjny, model zwinny. Czytelnikowi zainteresowanemu metodykami projektowania rekomendować można opracowanie, które powstało w serii wydawniczej Biblioteka Project Managera [kierownik serii M. Trocki, 2011], w której metodyki są sklasyfikowane na: uniwersalne, branżowe, firmowe, autorskie. PMBOK, jak i PRINCE2 należą do metodyk ogólnych (uniwersalnych), przeznaczone są do realizacji większości projektów. Obie metodyki prezentują twardy styl zarządzania, koncentrując się na procesach, obszarach wiedzy i tematach, nie poświęcają wiele miejsca zagadnieniom miękkim związanym np.: z zarządzaniem kompetencjami. W PMBOK są wskazówki nawiązujące do elementów kultury organizacyjnej. Z punktu widzenia organizacji procesów obie metodyki są hybrydą modelu kaskadowego i przyrostowego. 340

341 Zarządzanie i informatyka cz. IV Jaką wybrać metodykę do projektów informatycznych? Etap wstępny: może okazać się, że dla konkretnego naszego projektu obie tu prezentowane metodyki to nie najlepsze rozwiązanie. Nie ma również sytuacji czarno-białych, w których zastosowanie jednej metodyki, czy standardu do zarządzania projektami, w zupełności zaspokoi wszystkie potrzeby projektu i pozwoli uporać się z wyzwaniami. Praktyka pokazuje, że najlepsze rezultaty odnosi się stosując podejścia mieszane, chociaż czasami regulacje prawne na to nie zezwalają. Ważny dlatego jest etap analizy porażek innych projektów, aby nie popełniać błędów i przystąpić do zastosowania konkretnej metodyki w pełni przygotowany. Adaptując własne doświadczenia i opierając się na doświadczeniach innych zespołów [The Standish Group, M. Leksiński, P. Schmidt] możemy określić, iż zanim przystąpimy do stosowania określonej metodyki powinniśmy odpowiedzieć sobie na następujące pytania: Jaka jest klarowność celów projektu? Jakie są wymagania i specyfikacje dotyczące całości, jak i poszczególnych elementów projektu? Kto jest zainteresowany realizacją projektu i uzyskanymi wynikami? Wsparcie projektu czy posiadamy takie wsparcie i od kogo (dobrze wiedzieć kto i dlaczego będzie nam przeszkadzał rzucał kłody )? Jakie są kompetencje kierownictwa i realizatorów projektu? Jakimi dysponujemy zasobami: kadrowymi, finansowymi, czasem i czy dyspozycyjność tych zasobów jest jasno określona a poziom ryzyka do ich otrzymania jest jasno określony? Jakie podobne projekty badawczo-rozwojowe są realizowane, gdzie i przez kogo? Jaki jest plan B, który należy uruchomić w sytuacji kryzysowej? Jakie mamy możliwości otrzymania informacji o nowych technologiach i rozwiązaniach stosowanych w podobnych projektach? Jakie są możliwości ewaluacji projektu i prezentacji uzyskanych wyników? Badania przeprowadzone przez VirtalSmarts i The Concours Group, wskazały pięć obszarów krytycznych dla powodzenia i niepowodzenia projektów. W trakcie badań, w których wzięło udział ponad 1000 menedżerów i dyrektorów z 40. globalnych firm, analizie poddano ponad 2200 projektów oraz opracowano raport The Silence Fails, w którym wskazano, że krytycznymi obszarami oddziaływującymi na rezultaty projektów są [P. Schmidt,2009]: budowanie nierealnego harmonogramu prac, małe a niekiedy brak zaangażowania sponsora projektu oraz nie zapewnienie odpowiedniego wsparcia grupie realizującej projekt, ignorowanie priorytetów zadań przez członków projektu, podawanie niepełnych, a niekiedy ukrywanie faktycznego stanu projektu przez kierownictwo projektu i członków zespołu, niesygnalizowanie występujących w projekcie problemów, brak kompetencji do realizacji projektu charakteryzujący się tym, iż członkowie zespołu nieposiadający odpowiedniej wiedzy, wymaganej do realizacji projektu. 341

342 Projektowanie systemu informacyjnego zarządzania Według S. Berkuna [2006] najczęściej występujące problemy w realizacji projektów spowodowane są: rozbieżnością oceny między planem a rzeczywistością, trudnością w sprecyzowaniu: rozmiarów rozbieżności, ich przyczyn, osoby odpowiedzialnej za naprawienie tej sytuacji czy też stosunku osób zaangażowanych w projekt do samego faktu istnienia jakichkolwiek rozbieżności, brakiem zasobów do zniwelowania tych rozbieżności, niedotrzymaniem harmonogramu realizacji projektu, niską jakością pracy zespołu w tym zmianą kluczowych decyzji lub kierunków działania w trakcie trwania projektu. Konsekwencje są różnorodne, a w krańcowych sytuacjach może wymagać od kierownika projektu zmiany w obszarze: zakresu prac przez jego ograniczenie, przesunięcia planowanego terminu zakończenia projektu, zwiększenia nakładów poniesionych na realizacje projektu, a w tym decyzje o zatrudnianiu w projekcie dodatkowych osób lub zespołów. W poszczególnych metodykach projektowych posługujemy się różnymi technikami. Określona technika może służyć jednej lub wielu metodom projektowania. W projektowaniu systemu należy zrealizować między innymi czynności: modelowanie systemu i jego powiązań z innymi systemami, architektura programów, logika programów, tworzenie struktur zbiorów, tworzenie struktur baz danych. Dla ich realizacji stosujemy różne, opisane w literaturze, szczegółowe techniki, jak: diagramy przepływu danych, schematy struktury, diagramy HIPO, diagramy Jackson, schemat blokowy, drzewa decyzyjne, tablice decyzyjne, diagramy struktur danych, diagramy obiekt atrybut związek. Literatura przedmiotu dotyczy zarówno aspektów ogólnometodologicznych oraz prezentacji konkretnej grupy lub tylko jednej techniki. Niektóre z tych technik są przedstawione w punkcie Opisy i zastosowanie tych technik przedstawione jest w [J Kisielnicki 342

343 Zarządzanie i informatyka cz. IV 2013, W. Chmielarz 2013, Z.Szyjewski 2010 Brumbaugh David E.,1994]. Firmy softwarowe opracowały również wiele pakietów narzędzi usprawniających projektowanie systemów informacyjnych i wspomagające określone metodyki. Do najbardziej popularnych w Polsce zaliczyć można ARIS i ADONIS. Pakiet ARIS, powstał w firmie ARIS IDS Scheer i jest zbiorem narzędzi informacyjnych służących do projektowania, restrukturyzacji i doskonalenia różnego typu organizacji. Skrót ten tłumaczony jest jako Architektura Zintegrowanych Systemów Informacyjnych. W języku angielskim skrót ten brzmi: ARchitecture of Integrated Information Systems, a w języku jego twórcy czyli po niemiecku to Architektur Integrierter Informationssyteme. Jest to narzędzie do analizy i modelowania procesów gospodarczych prowadzące do stworzenia w przedsiębiorstwie zintegrowanego systemu przetwarzania informacji. Koncepcja ARIS została po raz pierwszy zaproponowana przez profesora Augusta Wilhelma Scheera z Uniwersytetu des Saarlandes w Saarbrücken jako koncepcja ramowa kompleksowego modelowania wspomaganych komputerowo systemów informacyjnych. Zastosowanie narzędzi ARIS ma na celu: uporządkowanie (standaryzację) istniejących procesów, wprowadzenie usprawnień w istniejących procesach, wprowadzenie zupełnie nowych procesów. Istotą podejścia realizowanego przez ARIS jest badanie łańcucha procesów będącego obrazem realizowanych procesów biznesowych (gospodarczych), a także towarzyszących im i z nimi połączonych procesów informacyjnych. ARIS wykorzystuje graficzne techniki projektowania strukturalnego i procesowego, takie jak: ERM (Entity Relationship Model), diagram celu, organigram, diagram łańcucha wartości. Specjalistyczne narzędzie, jakim jest ARIS Business Optimizer, pozwala na taką analizę procesów, która zapewnia użytkownikowi odpowiednie dane na temat jego działalności. Korzystając z Optymalizatora organizacja może zaplanować strukturę projektu, a w tym realizowane w nim procesy. ARIS zakłada pięcioetapowy cykl życia systemu informacyjnego: Etap wstępny sprowadza się on do sporządzenia opisu działania przedsiębiorstwa na postawie analizy istniejących łańcuchów procesów; Etap koncepcji na tym etapie następuje tworzenie modeli semantycznych, za pomocą których w sformalizowany sposób zapisuje się dane wyjściowe z etapu pierwszego. Problemy na tym etapie zaczynają być rozpatrywane oddzielnie dla różnych punktów widzenia (organizacji, funkcji, danych, sterowania i wyjścia); Etap specyfikacji projektowej na tym etapie tworzona jest koncepcja przetwarzania danych. Uwzględnia ona aspekty związane z techniką informacyjną i komunikacyjną, takie jak stosowanie systemów baz danych, sieci, języków oprogramowania itp., lecz nie odnosi się do konkretnych produktów (rozwiązań) znajdujących się na rynku TI (technologii informacyjnej); Etap technicznej implementacji dochodzi tu do wyboru konkretnych dostępnych na rynku informatycznym rozwiązań, czyli sprzętu i oprogramowania; Eksploatacja i utrzymanie systemu. 343

344 Projektowanie systemu informacyjnego zarządzania Na rysunku IV.29 pokazany został schemat logiczny podejścia ARIS, czyli tzw. drzewko ARIS. Legenda: Organization organizacja (u nas projekt); Data dane; Control zarządzania; Functions funkcje; Concept koncepcja; Data processing - procesy przetwarzania danych; Implementation zastosowanie. Rysunek IV.29. Drzewko ARIS Źródło: ADONIS jest, podobnie jak ARIS, narzędziem wspomagającym zarządzanie procesami biznesowymi. Umożliwia projektowanie procesów biznesowych, produktów, struktur organizacyjnych z zastosowaniem modeli graficznych. ADONIS pozwala na tworzenie modeli między innymi dla projektów badawczo-rozwojowych z zastosowaniem edytora graficznego. W zarządzaniu projektami badawczo-rozwojowymi może on mieć zastosowanie do ustalania: zapotrzebowania na realizatorów projektu, oceny kosztów projektu, jak i poszczególnych procesów (etapów), czy też długości trwania procesu. Użytkownik ma do dyspozycji rozbudowaną bibliotekę z algorytmami symulacji. Możliwe jest też monitorowanie zdefiniowanych parametrów procesów (Key Performance Indicators KPI) z wykorzystaniem mechanizmów ewaluacji. Modele stworzone w systemie ADONIS można udo- 344

345 Zarządzanie i informatyka cz. IV stępnić użytkownikom zarówno jako dokumenty do druku (Word, PDF), takie jak księgi jakości oraz opisy procesów, jak i poprzez Intranet w formie dokumentacji HTML (strony WWW zachowujące wszelkie powiązania między modelami i obiektami i wszystkie dane obiektów). System ADONIS może być dostosowany do dowolnych wymagań projektantów systemu. Typowe zastosowania systemu ADONIS to m.in.: Modelowanie procesów; Zarządzanie organizacją: tworzenie procedur i instrukcji dla pracowników, opis stanowisk oraz wsparcie dla zarządzania wersjami i akceptacja modeli i procedur; Optymalizacja procesów (symulacja, porównywanie stanu obecnego z wariantami stanu docelowego, benchmarking); Procesowe zarządzanie wiedzą i kompetencjami (portale procesów); Controlling (analiza kosztów procesu, zarządzanie wydajnością organizacji poprzez monitoring kluczowych wskaźników KPI); Zarządzanie kosztami (z wykorzystaniem Time-Driven Activity Based Costing oraz Rachunku Kosztów Procesów); Zarządzanie jakością i tworzenie dokumentacji na potrzeby ISO; Planowanie zatrudnienia i wyliczanie zapotrzebowania na zasoby; Tworzenie architektury zorientowanej na usługi typu SOA (Service Oriented Architecture). Podstawowym scenariuszem zastosowania ADONIS jest tworzenie opisu procesów i elementów składowych organizacji z wykorzystaniem modeli graficznych. Przykłady zastosowania obu narzędzi podane są w książce autora o zarządzaniu projektami badawczo-rozwojowymi [2013] Jakość projektu i procedur realizujących Jakość projektu jest przedmiotem licznych artykułów, dyskusji i analiz. Zapewnienie jakości odbywa się we wszystkich fazach procesu projektowania. Trudności w realizacji postulatów zarządzania jakością, szczególnie w stosunku do projektu systemu informacyjnego, są spowodowane, w dużej części, nieścisłościami definicyjnymi. Nie zawsze bowiem umiemy określić, co pod tym pojęciem, w stosunku do projektu systemu informacyjnego, rozumiemy. Potocznie jakość to szczególny walor obejmujący cechy estetyczne, funkcjonalne i użyteczne. W literaturze przedmiotu przedstawione są różne podejścia do zarządzania jakością. Dla nas produktem jest sam system informacyjny, jak i usługa, czyli proces jego projektowania. Co to jest jednak jakość? Według norm ISO serii 9000 obowiązujących w Unii Europejskiej: 345

346 Projektowanie systemu informacyjnego zarządzania Jakość jest określana jako ogół cech i właściwości wyrobu lub usługi wymaganych do zaspokojenia stwierdzonych lub przewidywanych potrzeb. Dodaje się przy tym, że termin jakość może być użyty z przymiotnikami, takimi jak: słaba, dobra, doskonała. Wskaźnik kategorii lub stopnia jakości, który odnosi się do: cech lub właściwości wytworu, do jego elementów lub surowców użytych do jego produkcji a odpowiadający różnym potrzebom, określany jest pojęciem klasy jakości. Tak, więc, wyrób lub usługa mogą być wysokiej klasy jakości w sensie formalnym, ale równocześnie nieodpowiedniej jakości z punktu widzenia zaspokojenia potrzeb i odwrotnie. Jak pisze K. Zimniewicz [2006] jakość zarządzania różni się od zarządzania jakością. Na jakość zarządzania trzeba patrzeć z punktu widzenia różnych aspektów i potrzebne jest przyjęcie odpowiednich kryteriów oceny. Zarządzanie jakością dotyczy raczej zarządzania procesami analizy i oceny różnic między stanem faktycznym a pożądanym (normą) i doskonaleniem jakości. W książce przedstawiona jest w zasadzie jakość zarządzania, ale zdajemy sobie sprawę ze sprzężenia między oboma pojęciami. System informacyjny, który projektujemy jest bowiem, jak już wcześniej podkreślano, elementem systemu zarządzania organizacją. Jakość kształtowana jest na różnych etapach tworzenia, począwszy od analizy i badania potrzeb informacyjnych użytkownika, a skończywszy na wyniku, gdzie możemy określić, czy nasze potrzeby zostały zaspokojone. Na tak rozumiany proces zarządzania jakością składa się wiele wzajemnie powiązanych działań występujących na różnych etapach życia wyrobu lub usługi. Taki model współzależności działań określany jest jako pętla jakości. Większość z nich wykorzystuje takie same kryteria, które są stosowane dla oceny jakości funkcjonowania organizacji. Kryteria te podporządkowane są koncepcji sprawności i skuteczności. Pojęciom tym, w stosunku do zarządzania jakością, można nadać następującą interpretację: Sprawność jest to zaprojektowanie systemu we właściwy sposób. Skuteczność jest to z kolei właściwe robienie, czyli uzyskanie takiej jakości systemu, która odpowiada użytkownikowi projektu. Sprawność wynika z umiejętności działania kierowników i całego zespołu projektantów. Wpływ ma też rachunek ekonomiczny, a więc relacje między nakładami a efektami. Odpowiednia jakość projektu według kryterium sprawnościowego to taka, w której otrzy- 346

347 Zarządzanie i informatyka cz. IV many produkt, będący efektem pracy zespołu, jest współmierny do nakładów zużytych na jego realizację. Nakłady to między innymi: praca, czas, środki finansowe. Skuteczność dotyczy umiejętności wyboru przez kierowników właściwych celów. Skuteczny kierownik to taki, który potrafi wybrać właściwy zakres projektu, jak też uzyska właściwe kryteria jakości. Nieosiągnięcie założonych kryteriów, jest przejawem braku skuteczności działania kierownictwa projektu. Sprawność nie jest więc zrównoważona brakiem skuteczności. Od kierowników zespołów projektowych, stosujących zarządzanie jakością, wymagana jest zarazem skuteczność i sprawność. Sprawność jest istotną cechą jednak najważniejsza jest jak skuteczność. Skuteczne postępowanie zespołu projektującego powinno być skoncentrowane na opracowaniu projektu o odpowiednio wysokiej jakości. Jakość projektu polega na określeniu, jak dobrze został zaprojektowany wyrób lub usługa, który ma zaspokoić potrzeby i spełnić wymagania użytkownika. Dla procesu projektowania systemu informacyjnego będzie to określenie, czy zaprojektowany system spełnia wymagania użytkowania a więc czy pomyślnie przeszedł ocenę, którą wcześniej nazwaliśmy audytem systemu. Najważniejszą częścią projektu w odniesieniu do jakości produktu jest specyfikacja jego parametrów. Specyfikacja może być wyrażona jako dążenie do uzyskania minimalnego odchylenia od parametrów wymagań użytkownika. Można taki stan określić jako wielokryterialny (niekiedy określany w literaturze jako polioptymalny), w którym minimalizujemy odchylenia od pożądanego stanu. Jakość projektu powinna być interpretowana dość szeroko, a więc niezawężona tylko do samego projektu, ale też do całego cyklu projektowego, a w tym też w stosunku do terminu jego opracowania, dokumentacji i obsługi użytkownika. Według D. Ince [1994] jakość jest zbiorem cech i właściwości produktu bądź usługi, który ma znaczenie w spełnianiu ustalonych i naturalnych potrzeb. Firma doradcza Bekaert Stanwick z Kortrijk w Belgii uważa, że projekt jest o odpowiedniej jakości, jeżeli z niego jest zadowolony (wewnętrzny) klient, przy czym ocena jakości jest pozostawiona subiektywnej percepcji klienta. Podobnie uważa J Łańcucki [2001, s. 11], który na podstawie analiz definicji miedzy innymi: J. Jurana, M. Gryna, J. Oaklanda, A. Feigenbauma pisze, że mimo, iż w literaturze prezentowane są rozmaite sformułowania to we wszystkich przejawia się jedna zasadnicza myśl, że: jakość oznacza spełnienie wymagań klienta. Jest to zgodne z zasadą marketingu, iż to Użytkownik jest Królem. 347

348 Projektowanie systemu informacyjnego zarządzania W jakości możemy wyróżnić jej następujące podstawowe rodzaje: Jakość wyrobu zaprojektowanego sytemu informacyjnego, którą określamy przez to, w jakim stopniu system/wyrób spełnia wymagania odbiorcy. Jakość wykonania, która z kolei określana jest jako stopień zgodności wartości cech wyrobu z cechami określonymi w dokumentacjach i warunkach odbioru. Wynika stąd, że jakość projektu jest wypadkową jakości wyrobu i jakości wykonania. Kontrola jakości, nazywana niekiedy kontrolą techniczną, polega na sprawdzeniu zgodności wykonania wyrobu z przewidzianymi dla niego wymaganiami. Kontrola ta może mieć następujące formy: bierną, wtedy kiedy dotyczy ona już wykonanego przez projektantów systemu, czynną obejmującą analizę procesu projektowania; w trakcie niej następuje identyfikacja źródeł błędów, częściową (wyrywkową) gdy sprawdza się tylko określone moduły systemu. Problem jakości jest szerszy, niż tylko zagadnienie jej kontroli i dotyczy całości zarządzania. Dlatego należy również wyjaśnić takie określenia, jak zarządzanie jakością i kompleksowe zarządzanie jakością. Zarządzanie jakością jest systemem zaplanowanych i skoordynowanych działań, które mają na celu uzyskanie i spełnienie wymagań użytkownika przy zachowaniu niezbędnego poziomu kosztów. Zarządzanie jakością zakłada monitorowanie całego procesu i jego rezultatów dotyczące: pomiaru i analizy najważniejszych czynności procesu projektowania, samokontroli wszystkich uczestników procesu projektowania, oceny uzyskanych wyników przez użytkownika. Oczywiście ocena użytkowników jest najbardziej istotna. Kompleksowe zarządzanie jakością to sposób zarządzania. Możemy powiedzieć za R. Griffinem [1996, s.619], że: kompleksowe zarządzanie jakością TQM (Total Quality Management) jest to, strategiczne zaangażowanie najwyższego kierownictwa na rzecz zmiany całego podejścia procesu projektowania systemu informacyjnego do prowadzenia takiej działalności, które uczyniłoby jakość najważniejszym czynnikiem we wszystkich pracach nad tym systemem. (w tym też do stosowania odpowiedniej jakości rozwiązań ICT przypis autora). Podstawę działań TQM stanowi łańcuch działań wszystkich uczestników procesu czyli: użytkownik projektant dostawca informatycznej infrastruktury zarządzania jest wspierany przez: twarde elementy (zespoły, systemy i narzędzia), miękkie elementy (kultura, komunikacja, zaangażowanie). 348

349 Zarządzanie i informatyka cz. IV Rysunek IV.30. Twarde i miękkie elementy TQM Źródło: por.: J. Oakland [2000, s. 31] Zasady i metody TQM dotyczą zarówno samej jakości, jak i wszystkich aspektów funkcjonowania zarządzania. Dlatego też często entuzjaści TQM uważają, że zarządzanie jakością jest wystarczającą metodą usprawnienia zarządzania, w tym między innymi: zarządzania zmianami, zarządzania projektami. Jednak wydaje się, że takie stanowisko jest zbyt jednostronne. Jakość jest niezmiernie istotna, lecz nie każdy rozumie to jednakowo. Dlatego takie bardzo szerokie pojęcie relacji zarządzanie jakość nie zawsze jest zasadne. Uogólniając możemy przyjąć, że: Podstawowe zasady TQM obejmują następujące cechy: 1. Stałe doskonalenie procesu projektowania systemu informacyjnego, kadry analityków i projektantów, uzyskanych rozwiązań w stosunku do poszczególnych elementów projektu, np. bazy danych, tabulogramów. Zarządzanie jakością jest działaniem ciągłym, które wymaga zaangażowania zarówno pracowników organizacji, jak i organizacji współpracujących 2. Bardzo silną współpracę między wszystkimi uczestnikami procesu zarządzania jakością. 349

350 Projektowanie systemu informacyjnego zarządzania 3. Myślenie systemowe, rozumiane jako analiza zarówno samego procesu zarządzania jakością i występujących miedzy nimi relacji, jak i analiza otoczenia tak bliższego (konkurencyjnego), jak i dalszego. Jakość w ujęciu przyjętym w podręcznikach dotyczących zastosowania TQM, jest pojęciem zarówno absolutnym, jak i względnym. Za D. A. Garvinem [1996, s. 619] możemy określić osiem następujących wymiarów jakości (produktem jest dla nas projekt system informacyjnego, czyli odpowiednia dokumentacja wraz z odpowiednimi dokumentami jego dotyczącymi i obejmująca rozwiązania programowe i określoną infrastrukturę informatyczną): 1. Wyniki główne cechy funkcjonalne produktu. 2. Cechy uzupełniają podstawowe cechy funkcjonalne produktu. 3. Niezawodność prawdopodobieństwo bezusterkowego funkcjonowania przez określony czas. 4. Zgodność stopień, w jakim projekt wyrobu i cechy użytkowe spełniają określone normy. 5. Trwałość miara długości życia produktu. 6. Łatwość obsługi szybkość i łatwość naprawy. 7. Estetyka wygląd produktu, smak, zapach, odbiór w dotyku. 8. Postrzegana jakość opinia klienta. W tzw. polityce jakości obserwuje się bardzo aktywną orientację na nową jakość wyrobu. Określić będzie ją można terminem globalnej jakości. Postępowanie w realizacji istotnych zadań według W. E. Deminga powinno być następujące: Etap pierwszy, to wykreowanie Planu. W nim należy przemyśleć i zaplanować realizację działań. Przyjęty plan należy Wykonać, a następnie Kontrolować, czyli Sprawdzać. Jeżeli okaże się natomiast, że należy wykonać korektę to trzeba podjąć decyzję korekcyjną, a następnie realizować, czyli Działać. Filozofia zarządzania jakością TQM, przedstawiona może być za pomocą tzw. koła Deminga (rys. IV.31). 350

351 Zarządzanie i informatyka cz. IV Rysunek IV.31. Koło Deminga tzw. System PDCA Źródło: przedstawione w wielu podręcznikach dotyczących jakości. W. E. Deming proponuje następujące zasady postępowania: Stwórz i utrwal sytuację, w której pracownicy dążyć będą do ciągłego doskonalenia produktu lub usługi, do wprowadzenia innowacji w każdej sferze po to, by jak najlepiej zaspokoić potrzeby klientów. Ucz każdego filozofii, że w organizacji nie mogą być akceptowane ani niska jakość, ani złe wykonawstwo, ani wadliwy produkt, ani niedbałe usługi. Uświadom sobie i innym prawdziwy cel kontroli. Jest nim doskonalenie wytwarzania, a więc redukcja kosztów. Nie cena, lecz jakość powinna wpływać na nagradzanie. Cena nie ma znaczenia, gdy oddzielamy ją od jakości tego, co kupujemy. Podstawowe zadanie kierownika to doskonalenie systemu produkcji i świadczenia usług. Należy polepszyć jakość w każdej dziedzinie, co jest konsekwencją analizy samego procesu. Wprowadź nowoczesne metody szkolenia pracowników. Bezpośredni nadzór powinien być wyczulony na odpowiedzialność za jakość a nie za ilość. Zbuduj zaufanie i klimat dla innowacji. Należy tak działać, aby usuwać bariery między działaniami organizacji, aby wszyscy zgodnie pracowali dla wspólnego celu. Należy usunąć bariery, które istnieją między różnymi częściami organizacji. Należy przejść od myślenia w kategoriach własnego odcinka do pracy zespołowej, ważnej 351

352 Projektowanie systemu informacyjnego zarządzania dla całej organizacji. Wielodyscyplinarne koła kontroli jakości (multidisciplinary quality control circles) mogą ułatwić osiągnięcie lepszych wyników. Eliminuj ilościowe limity wykonywania zadań. Usuń wszystkie przeszkody, które utrudniają ludziom osiągnięcie satysfakcji z dobrze wykonanej pracy. Wprowadź atrakcyjny program szkoleniowy i treningowy. Stwórz taki system na szczeblu naczelnego kierownictwa, który będzie codziennie wywierał presję na realizację wymienionych uprzednio13. punktów. Zarządzania przez jakość, szczególnie w dostosowaniu do systemów informacyjnych, nie powinno się realizować żywiołowo. Wymaga ono stworzenia produktu projektu systemu informacyjnego. Projekt tworzony jest na podstawie analizy stanu istniejącego oraz potrzeb użytkowników. W trakcie jego realizacji, zgodnie z zasadami zarządzania projektami, jest on monitorowany i weryfikowany. Takie działania mają na celu zmniejszenie ryzyka popełnienia błędów. Wychodzimy tu z założenia dotyczącego zarządzania ryzykiem, że wykrycie i usunięcie zagrożeń na etapie projektowania jest tańsze niż gdyby zlikwidowano je dopiero po wdrożeniu. Zasady dotyczące TQM stały się podstawą różnych procedur i metodyk szczegółowych. Do jednej z najbardziej popularnych należy tzw. model doskonałości, który jest stosowany przez wiele europejskich organizacji do doskonalenia systemu zarządzania jakością. Model został opracowany przez Europejską Fundację Zarządzania Jakością (EFQM). W literaturze przedmiotu wymienia się różne metody, które wspomagają zastosowanie TQM. Wiele z nich ma uniwersalny charakter i może być stosowanych w bardzo różnych sytuacjach, nie zawsze związanych z zarządzaniem jakością. Z obszernego zbioru tych koncepcji i metod przedstawione zostaną tylko niektóre, najbardziej popularne i mające zastosowanie dla projektowania systemów informacyjnych i zastosowania IT. Charakteryzując metody wspomagające TQM możemy rekomendować następujące koncepcje: Koncepcje COQ (cost of quality) czyli kosztów jakości. Termin COQ odnosi się do tych czynności, podczas których powstają koszty wynikłe z braku odpowiedniej jakości. Są to koszty, które powstały: wewnątrz organizacji oraz na zewnętrz, czyli u użytkownika. Koszty jakości dzielą się więc na dotyczące operacji wewnętrznych oraz działalności zewnętrznej. Koszty zewnętrzne to koszty związane z procedurami i dowodami wymaganymi jako obiektywne wykazanie jakości, czyli koszty przeprowadzenia tzw. audytu. System TQM dzieli koszty jakości na: koszty zgodności zaliczamy do nich koszt zapobiegania błędom i koszt niższej od założonej jakości systemu; 352

353 Zarządzanie i informatyka cz. IV koszty braku zgodności koszty likwidacji skutków złej jakości produktów tworzących system; koszty utraconych możliwości zerwanych kontraktów, utraty wiarygodności w oczach użytkowników. Koncepcja zero defektów. Miała ona w latach dużo zwolenników w tym i w Polsce. Propagowana była miedzy innymi przez P. B. Crosby ego. Jest to bardzo nośna koncepcja będąca jednak pewnym ideałem, który bardzo trudno osiągnąć. Jest ona zbieżna z poszukiwaniem doskonałości. Program Crosby ego zakłada między innymi powołanie Zespołów Programu Jakości i wprowadzenie ścisłego pomiaru ewidencji i jakości. Nad całością prac, nad realizacją programu, czuwał Komitet Kierowania Programem zero defektów. Dla propagowania idea proponuje on zorganizować w firmie, co pewien czas, uroczysty Dzień Jakości. Jednak często są to tylko hasła, nie poparte konkretnymi działaniami. Diagram Ishikawy nazwany tak od nazwiska jego twórcy Kaoru Ishikawy i przedstawiony na rysunku IV.32 Podstawą budowy tego diagramu jest przedstawienie relacji zachodzących między przyczynami wywołującymi określone zmiany. Diagram ten ze względu na jego kształt bywa nazwany też rybią ością. Rysunek IV.32. Diagram Ishikawy Źródło: przedstawione w wielu podręcznikach dotyczących jakości. Diagram Ishikawy może być zastosowany do różnych zadań. Jeżeli będzie się chciało poprawić jakość, to w miejscu słowa skutek należy napisać słowo jakość. Podstawowe czynniki, które mają najistotniejszy wpływ na jakość są wpisane na końcach odgałęzień. Czynniki te często nazywa się 5M to znaczy: Man (człowiek), Machine (maszyna), Material (materiał), Method, (metoda), Management (zarządzanie). I teraz na podstawie różnych technik, np. burzy mózgów, określa się te czynniki, które wpływają na skutek, a więc na jakość. Wielokrotnie na podstawie takich pytań jak: Dlaczego?, W jaki sposób? wypisuje się czynności. Następnie przystępuje się do ich przebadania i określenia 353

354 Projektowanie systemu informacyjnego zarządzania mocy wpływu konkretnego czynnika na jakość. Badania można prowadzić, np. przez ankiety albo na podstawie danych kosztowych. Metoda 5S. Termin 5S oznacza, że bierze się pod uwagę pięć następujących podstawowych japońskich pojęć: SEIRI selekcja, pozbawienie się wszystkich niepotrzebnych rzeczy, SEITON systematyka, uporządkowanie wszystkiego w miejscu pracy, SEISO sprzątanie, czyszczenie wszystkiego w miejscu pracy, SEIKETESU schludność, utrzymywanie porządku i schludnych warunków we wszystkich miejscach, SHISUKE samodyscyplina; dyscyplina w pracy. 5S oznacza w praktyce dbałość o porządek, skrzętne gospodarowanie jest ono jednym z najważniejszych elementów dobrego zarządzania. Metoda ta jest filozofią działań na rzecz ulepszenia pracy, zapewniając tym samym odpowiednią jakość produktów, niskie koszty wytwarzania, właściwą dostawę wyrobów gotowych oraz bezpieczeństwo. Kaizen, czyli strategia nieustannych usprawnień. Zasady Kaizen zostały opublikowane w szeregu prac. Podstawowym opracowaniem jest książka M. Imaia. Kaizen przyjmuje, że sukces można osiągnąć tylko wtedy, kiedy nastąpi zaangażowanie wszystkich poziomów organizacyjnej hierarchii: projektantów, analityków, menedżerów wszystkich szczebli wraz z naczelnym kierownictwem. Można określić ją jako filozofię myślenia i działania w kategoriach zmian traktowanych jako ciągły proces. Kazein, przez stopniowe doskonalenie wszelkich aspektów działalności firmy, dąży do osiągnięcia następujących celów: skrócenie czasu realizacji procesu projektowania oraz poprawy jakości; dostosowywanie techniczne elementów systemu; tworzenie kryteriów oceny i nagradzania; redukcję kosztów. Jest to strategia, która ma dwie podstawowe orientacje: 1. strategię takiej kultury przedsiębiorczości, która jest ukierunkowana na ciągłe rozwiązywanie trudności pojawiających się w trakcie funkcjonowania organizacji, 2. strategię zorientowaną na klienta przez co jej punkt ciężkości spoczywa na problemach jakości. W związku z tym Kaizen zawiera w sobie takie elementy zarządzania, jak: orientacja na klienta, system kontroli jakości w skali całej organizacji, organizacja kół jakości, system wniosków racjonalizatorskich w skali organizacji, dyscyplina pracy, systemy poprawy jakości, aktywność małych grup partnerskich, stosunki między przełożonymi a podwładnymi i zarządem organizacji, a także związkami zawodowymi, system zero defektów. W projektowaniu systemu informatycznego należy brać pod uwagę międzynarodowe normy ISO serii Podają one ogólne wytyczne zarządzania i zapewnienia jakości oraz 354

355 Zarządzanie i informatyka cz. IV modele systemów jakości, które można stosować dla każdej firmy niezależnie od jej wielkości czy rodzaju świadczonych usług, położonej w każdym miejscu na świecie. Obejmują one obecnie cztery normy składowe: 1. ISO 9000 Systemy zarządzania jakością Podstawy i terminologia. 2. ISO 9001 Systemy zarządzania jakością Wymagania. 3. ISO 9004 Systemy zarządzania jakością Wytyczne dla doskonalenia funkcjonowania. 4. ISO Wytyczne dla audytu systemów jakości i/lub audytu systemu zarządzania środowiskowego. Międzynarodowa Organizacja ISO opracowała odpowiednie standardy dokumentowania, wiarygodności systemu jakości firmy. Dokumentem potwierdzającym wiarygodność systemu zapewnienia jakości jest świadectwo zgodności z odpowiednimi normami ISO. Świadectwo takie nazywane jest certyfikatem systemu. Certyfikat taki może wystawić kierownictwo organizacji na podstawie materiałów wewnętrznych, tak zwanych audytów. System zarządzania jakością powinien być sprawdzany i oceniany. Właśnie taką ocenę nazywamy audytem. Audyt ocenia wszechstronnie czy: projekt, proces i produkt spełniają stosowane standardy. Organizacja, która stosuje system zarządzania jakością zobowiązana jest do regularnych wewnętrznych audytów. Jeśli firma pragnie posiadać międzynarodowy certyfikat musi również uwzględnić audyt zewnętrzny. Audyt jakości zgodny z normami ISO definiowany jest jako systematyczne i niezależne badanie mające określić, czy działanie i ich rezultaty zgadzają się z ustalonymi regułami, czy zostały odpowiednio wprowadzone i czy pozwalają osiągnąć zamierzony cel. Audytor sprawdza dokumentację oraz wyrywkowo proces projektowania systemu informacyjnego. W projektowaniu systemu informacyjnego możemy wydzielić trzy następujące składniki: 1. techniczny rozumiany jako instrumentarium technik organizacyjnych (standardy, harmonogramy, narzędzia komputerowe wspomagające proces projektowy czyli CASE); 2. ludzki, czyli behawioralny, w którym możemy wydzielić następujące elementy: relacje między pracownikami zespołu projektującego, relacje między liderem a kierowanymi przez niego pracownikami, postawa top managementu; 3. zarządzanie, czyli tzw. management component i jego otwartość na zmiany. TQM jest skuteczne wtedy, kiedy pozwoli na integrację wszystkich wymienionych składników. Dla usystematyzowania jakości projektu tworzony jest podręcznik jakości, 355

356 Projektowanie systemu informacyjnego zarządzania który zawiera odpowiednie normy jakości. W podręczniku takim, mającym różny charakter formalny, podany jest sposób opracowania projektu z uwzględnieniem działań, które zmierzają do osiągnięcia odpowiedniej jakości. Jakość projektu, niezależnie od opinii użytkownika, musi spełniać odpowiednie normy, standardy jakościowe. Norma ISO 9000 jest normą centralną wskazującą na wybór i zastosowanie pozostałych norm. Norma ISO 9001 jest normą najobszerniejszą, obejmującą wszystkie części składowe procesu, takie jak: projektowanie, produkcja, kontrola, instalacja, serwis oraz uregulowania z dostawcami i klientami. Obok norm ISO istnieje wiele innych norm jakości dotyczących różnych faz projektowania systemów informacyjnych. Najliczniej i najbardziej rozbudowane są normy stosowane w Stanach Zjednoczonych. Większość z nich są to normy opracowane przez Departament Obrony (Department Of Defense DOD). DOD szczególnie zajmuje się trzema aspektami projektowania: wymaganiami zawartymi w kontrakcie, oceną i kryteriami akceptacji. Popularne są też normy wydane przez IEEE (Institute of Electrical and Electronic Engineers). Inne rozwiązania międzynarodowe zaproponował Software Engineering Institute. Pracowano tu nad standardem jakości w dużej mierze przeznaczonym do wytwarzania oprogramowania. Uwieńczeniem tych prac stał się model oceny dojrzałości procesu zwany CMM (Capability Maturity Model). Do problemu jakości, jako kluczowego dla systemów informacyjnych, powrócimy, chociaż w innym kontekście mianowicie analizując problemy ochrony zasobów informacyjnych w systemach informacyjnych. Zasady TQM nie są wyłącznie sformalizowanym przepisem na poprawę jakości, ale określają też filozofię, która propaguje pewien sposób myślenia. Zastosowanie metody TQM pozwala na śledzenie całości procesu powstawania systemu i na określenie odpowiedzialności poszczególnych osób za realizację projektu. Należy jednak zdawać sobie sprawę z pewnych możliwych patologii polegających na zbiurokratyzowaniu systemów zarządzania jakością. Przy złym kierownictwie filozofia TQM nie tylko nie poprawi jakości funkcjonowania firmy, ale spowoduje powstanie dokumentów, które nie zostaną w praktyce wdrożone. Pełnić one będą jedynie rolę zabezpieczenia formalnego firmy przed oskarżeniem, że nie przywiązuje do spraw jakości odpowiedniej troski. Nową jakość systemów informacyjnych tworzą systemy otwarte [Z. Szyjewski, 2006], niekiedy również nazywane systemami otwartych możliwości. System, który jako pierwszy został nazwany otwartym był UNIX opracowany w 1971 r. przez firmę ATGT. Opracowany został początkowo jako narzędzie do zastosowań naukowych na uniwersytetach. Później stał się popularny dzięki możliwości przyłączenia różnych niezależnych komputerów. Podstawowym założeniem koncepcji systemów otwartych jest uniezależnienie użytkownika od monopolu firm komputerowych. Użytkownik kupując sprzęt lub oprogramowanie w konkretnej firmie nie powinien być zmuszony do stałego korzystania tylko z jej 356

357 Zarządzanie i informatyka cz. IV usług. Koncepcja systemów otwartych to realizacja zasad wolnego rynku i niezależności użytkownika w budowie infrastruktury zarządzania. Użytkownik ma możliwość włączenia do nabytego wcześniej sprzętu lub oprogramowania odpowiednich elementów zakupionych u innych producentów. Idea systemów otwartych możliwa jest do realizacji dzięki zastosowaniu międzynarodowych standardów, a więc międzynarodowych norm ISO lub norm opracowanych przez inne organizacje. Standardy te stosowane są nie tylko w systemach informacyjnych, ale również w działalności firmy. Oczywiście o wiele łatwiej jest zastosować koncepcje otwarte w firmie, która stosuje międzynarodowe standardy produkcji. Międzynarodowa organizacja Open Software Foundation, której założycielami są największe firmy komputerowe, przyjęła definicję dla takich działań, jak: możliwość przenoszenia (portability), możliwość łączenia (connectivity), współdziałanie (cooperation). I tak uważa się, że: Możliwość przenoszenia jest wtedy, kiedy możemy przenieść aplikacje z jednego środowiska sprzętowego (programowego) w inne tylko przez przeprowadzenie rekompilacji kodu źródłowego. Czynności te wykonuje się stosując tzw. interfejs oprogramowania aplikacji. Możliwość łączenia pozwala na połączenie ze sobą różnych systemów za pomocą standardowych interfejsów komunikacyjnych. Współdziałanie jest bardzo istotną własnością i oznacza możliwość dostępu z jednej aplikacji do innej z wykorzystaniem standardowych powiązań (interfejsów). Organizacje administracji rządowej Wspólnoty Europejskiej żądają od producentów ujednolicenia środowiska, w którym mają działać. W nomenklaturze systemów otwartych, dotyczy to ujednolicenia: sprzętu komputerowego, oprogramowania podstawowego i użytkowego, terminali, łączy komunikacyjnych. Chodzi tu więc o środowisko funkcjonowania systemu. Efektem stosowania technologii systemów otwartych jest oszczędność na kosztach wytworzenia systemu. Oszczędności te szacuje się od 5 do 60% w poszczególnych elementach składających się na system. 357

358 Projektowanie systemu informacyjnego zarządzania W praktyce, poszczególne organizacje proponują różne standardy. Najbardziej popularne są te opracowane przez takie organizacje, jak: UNIX, POSIX, (Portable Open System Interface for Computer Environments) autorstwa IEEE oraz OSF (Open Software Foundation) [J. Dwyer, 1995]. Współczesny kierunek to realizacja kompletnych dostaw sprzętu komputerowego i oprogramowania aplikacyjnego. W takim połączeniu użytkownika nie interesuje na jakim sprzęcie i pod kontrolą jakiego oprogramowania będzie eksploatowany system informacyjny jego firmy. Nie interesuje go również jakie zasoby są zaangażowane w proces przetwarzania i gdzie są przechowywane dane oraz jaki jest system łączności. Dla użytkownika liczą się tylko rezultaty. Rezultaty są natomiast zależne od wysokiej jakości wszystkich elementów biorących udział w tworzeniu i przetwarzaniu Doskonalenie projektu (kaizen, reeingineering i X-engineering) Ze względu na rozmaite czynniki wewnętrzne i zewnętrzne projekt systemu informacyjnego musi być stale udoskonalany. W praktyce stosuje się dwa podejścia udoskonalające systemy informacyjne: 1. małych zmian, których reprezentantem jest między innymi podejście Kaizen, 2. dużych zmian, których reprezentantem jest między innymi podejście reengineering i X-engineering. W tym punkcie skoncentrujemy się na dużych zmianach. Nie świadczy to o tym, że nie doceniamy podejścia małych kroków, czyli małych zmian. Kaizen W japońskiej kulturze i praktyce zarządzania wykształciła się filozofia, zwana Kaizen. Oznacza ona ciągłe doskonalenie przez wprowadzanie drobnych zmian. Kaizen (jap. 改善 ) (pol. poprawa, polepszenie, zmiana na lepsze) (patrz rys. IV.33.) 358

359 Zarządzanie i informatyka cz. IV Rysunek IV.33. Znaczenie słowa Kaizen Źródło: Maurer R.: Filozofia Kaizen. Wyd. One Press, Kaizen jest więc koncepcją ciągłego doskonalenia, usprawniania. Polega ona na zaangażowaniu wszystkich pracowników organizacji, niezależnie od szczebla, w stałe poszukiwanie pomysłów udoskonalenia wszystkich obszarów organizacji. Kaizen jest nie tylko koncepcją zarządzania, ale również częścią kultury japońskiej, obecną w wielu aspektach życia. W organizacjach, które stosują zachodni styl zarządzania przyjmuje się, że pracownicy powinni stosować instrukcje wykonywania pracy, natomiast w stylu japońskim, naturalne dla pracowników jest zgłaszanie rozwiązań mających na celu ich usprawnienie. Istotny jest także sposób przyjmowania przez kierownictwo propozycji w Japonii przełożeni w pełni akceptują prawo pracowników do zgłaszania pomysłów, natomiast w stylu zachodnim są one traktowane często niechętnie i podejrzliwie. Jedną z przyczyn innego traktowania idei ciągłego doskonalenia, obok wspomnianych wcześniej różnic kulturowych, jest orientacja kierownictw organizacji zachodnich na wyniki. Wprowadzenie kosztownej i czasochłonnej lecz widocznej innowacji jest znacznie lepiej postrzegane, niż setki drobnych usprawnień, nawet jeśli efekt inwestycji jest krótkotrwały. Inne jest podejście Japończyków, wśród których przeważa orientacja na procesy, a przez nie dopiero na wyniki. Widzą oni w drobnych zmianach, często nie pociągających za sobą wydatków, znaczne źródło oszczędności zasobów organizacji. Aktywność pracowników japońskich w zgłaszaniu zmian jest ogromna [Wawak S., 2004]. Do podejścia Kaizen przyznają się różnorodne narzędzia szczegółowe (niektóre z nich wcześniej zostały już przedstawione). Sytuację tę ilustruje rysunek IV

360 Projektowanie systemu informacyjnego zarządzania Rysunek IV.34. Kaizen i narzędzia wywodzące się z jego filozofii Żródło: Imai, M. [1986]: Kaizen: The Key To Japan's Competitive Success. New York: McGraw-Hill, p. 4. Zastosowanie Kaizen nie sprowadza się tylko do tego, aby produkt, czy usługa odpowiadały określonym wymaganiom jakości. W myśl tej filozofii jakość to styl życia niekończący się proces ulepszania. Podstawową regułą tej filozofii jest ciągłe zaangażowanie oraz chęć ciągłego podnoszenia jakości firmy i produktu. Polega to na włączeniu procesu myślowego na każdym etapie produkcji. Stosowane zasady są następujące: Problemy stwarzają możliwości. Pytaj 5 razy Dlaczego? (Metoda 5 why) Bierz pomysły od wszystkich. Myśl nad rozwiązaniami możliwymi do wdrożenia. Odrzucaj ustalony stan rzeczy. Wymówki, że czegoś się nie da zrobić, są zbędne. Wybieraj proste rozwiązania, nie czekając na te idealne. Użyj sprytu zamiast pieniędzy. 360

361 Zarządzanie i informatyka cz. IV Pomyłki koryguj na bieżąco. Ulepszanie nie ma końca. Z punktu widzenia ekonomicznego podejście to nie jest zbyt kosztowne i może być stosowane bez ponoszenia wysokich nakładów inwestycyjnych. Reengineering i X-engineering Reengineeringiem określamy stały proces dużych zmian (rewolucyjnych), mający na celu przybliżenie się do doskonałości w zastosowaniu systemów informacyjnych. Ponieważ takiej doskonałości nie ma, więc jest to stały proces. Cel doskonałość, wyznacza perspektywę i kierunek działań. Podejście to jest wspólne z dążeniem do systemu idealnego takiego, który realizuje wszystkie potrzebne funkcje, a nic nie kosztuje. W wyniku działań usprawniających, a więc reengineeringu, nie osiąga się doskonałości systemu informacyjnego. Doskonały system to taki, w którym nic nie można poprawić. Zdajemy sobie sprawę, że takiego stanu nie jesteśmy w stanie osiągnąć. Końcowy rezultat reengineeringu to rozwiązanie satysfakcjonujące, doskonalsze od poprzednich, a nie ostateczny ideał. Podczas wprowadzania zmian ciągle trzeba zadawać sobie pytanie: czy zrobiłem to najlepiej, czy mogę coś jeszcze usprawnić? Końcowym etapem cyklu życia systemu jest rozpad, po czym należy tworzyć system od początku i powtarzać cały cykl życia. Nie byłoby to konieczne, gdyby w porę zastosowano BPR (Business Process Reengineering) czyli reengineering. W doskonaleniu systemu informacyjnego należy zwracać uwagę na to, że powinien on być nie tylko dostosowany do obsługi organizacji, ale również wychodzić na zewnątrz. Dlatego J. Champy [Champy, 2003] dodaje do słowa reenginering literę X będącą symbolem przekraczania granic między organizacjami. W doskonaleniu projektu należy więc zwrócić uwagę na te aspekty, które pozwalają zintegrować procesy z innymi organizacjami i uzyskać efekt synergii. W większości organizacji dominuje tradycyjne podejście, czyli cząstkowa racjonalizacja. Podejście charakterystyczne dla reengineeringu to kompleksowy proces usprawnień. W literaturze przedmiotu wymienia się wiele ogólnych zasad, które są podstawą reengineeringu. Podstawowe z nich, które najlepiej charakteryzują proces zmian i udoskonalania projektu to: 1. Należy skupić się na rezultatach, a nie na zadaniach. Proces projektowy może przebiegać w wielu fazach. Pracownik zarządzający tym procesem powinien skupić się na efekcie końcowym, czyli na projekcie, nie na jego etapach. 361

362 Projektowanie systemu informacyjnego zarządzania 2. Działanie o charakterze reengineeringu powinno oznaczać radykalne przekonstruowanie całości systemu. Bardzo często realizację powolnych i niewielkich zmian próbuje się nazywać reengineeringiem. Nie należy zadowalać się małym postępem, ale dążyć do znacznych zmian. 3. Proces zmian powinien odbywać się z góry do dołu. Tylko kierownictwo najwyższego szczebla zdaje sobie sprawę z potrzeb firmy jako całości. Pracownicy szczebla podstawowego dostrzegają tylko problem własnego działu lub pionu, natomiast pracownicy średnich szczebli nie mają wystarczającego autorytetu, by zainicjować w firmie tak poważne przemiany. Dlatego też reengineering musi być inicjowany silną odgórną decyzją. Tylko członek najwyższego kierownictwa, jako osoba kompetentna, doświadczona i zainteresowana połączeniem dobrych rezultatów finansowych z efektywnością, jest w stanie pokierować reengineeringiem. Osoba ta oprócz niezbędnego autorytetu, musi posiadać dobrą wiedzę dotyczącą procesu projektowania. Jednocześnie nie powinna lekceważyć sygnałów od kierownictwa niższego i średniego szczebla o niewłaściwym funkcjonowaniu systemu. 4. Osoba zainteresowana rezultatem końcowym procesu projektowania powinna odgrywać główną rolę w jego przebiegu. Tradycyjnie w firmie zawsze istniała ścisła specjalizacja. Technologia informacyjna pozwala na przeprowadzenie wielu operacji w jednym miejscu. W konsekwencji jedna osoba lub komórka zdolna jest do samodzielnego zrealizowania wielu zadań bez konieczności kooperacji z innymi. 5. Reengineerring powinien być projektem liderów i dzięki nim wprowadzony w głąb organizacji. Prawdziwa jest tu reguła, że nie można uzyskać czegoś z niczego. Znaczy to, że firma nie skorzysta z przemian, jeśli nie zainwestuje w nią pracy, czasu i swoich najlepszych fachowców. Reengineering wymaga wysokiego stopnia koncentracji i dyscypliny. Nie może też być jednym z wielu działań firmy. Jego realizacja potrzebuje skupienia uwagi całego kierownictwa projektu. 6. Punkty decyzyjne powinny znajdować się najbliżej miejsca wykonywania pracy. Związane to jest ze wspomnianą wcześniej zasadą, że naprawa błędu jest tym mniej kosztowna im wcześniej została wykryta. Kontrola procesu projektowego powinna być wbudowana w sam system. Wiele firm stosuje w tym celu odpowiedni system motywacyjny, lub też jak firmy japońskie, tworzy koła jakości. 7. Podczas realizacji reengineeringu napotykamy rozmaite przeszkody. Do najbardziej istotnych należą: skupienie się tylko na projektowaniu, a nie na wprowadzaniu go w życie, nie można wszystkich uszczęśliwić w wyniku procesu reengineeringu niektórzy zostaną zwolnieni z pracy, inni awansują, 362

363 Zarządzanie i informatyka cz. IV należy być przygotowanym na sprzeciw i konsekwentnie kontynuować działania ludzie wyrażają często obawy przed zmianami, a w związku z tym w wielu firmach z tego powodu nie wdrożono nawet najbardziej potrzebnych zmian, nie powinno się rozciągać procesu zmian w czasie dłuższym niż 12 miesięcy, reengineering działa stresująco i jeżeli rezultaty nie są widoczne po roku, pracownicy stają się niecierpliwi i zdezorientowani. Gotowi są pomyśleć, że został im przedstawiony następny nieużyteczny program rekonstrukcji firmy. W myśl zasad reengineeringu, system należy analizować w pierwszej kolejności pod kątem następujących czynników: stopnia pośrednictwa i stopnia współpracy. Dlatego też przeprowadzając analizę procesu projektowania należy odpowiedzieć sobie na dwa pytania: Jaki jest stopień pośrednictwa, a więc ile osób i ile komórek organizacyjnych jest zaangażowanych w rozwiązanie danego problemu? Jaki jest stopień współpracy wykonawców w rozwiązywaniu problemu? Celem usprawnień, zgodnie z zasadami renegnineeringu, odnoszącymi się do projektowania systemu informacyjnego, jest stworzenie doskonale pracującego zespołu. Powinien on tak ze sobą współpracować, aby stanowił lojalną i partnerską grupę. Należy dążyć do stworzenia multidyscyplinarnego zespołu, który łączy silna więź duchowa. W metodzie zakłada się, że istniejąca organizacja jest zła i w pierwszym kroku procedury należy określić problem, który będzie przez nas rozwiązywany. Należy stworzyć jego mapę i wyznaczyć proponowaną ścieżkę działań (patrz rys. IV.35). Zależnie od kształtowania się realizacji współpracy i pośrednictwa, można przedstawić następujące cztery podstawowe wzorce funkcjonowania organizacji: 1. duże pośrednictwo i niska współpraca I ćwiartka 2. duże pośrednictwo i duża współpraca II ćwiartka 3. niskie pośrednictwo i duża współpraca III ćwiartka 4. niskie pośrednictwo i niska współpraca IV ćwiartka 363

364 Projektowanie systemu informacyjnego zarządzania Rysunek IV.35. Ścieżki zmian w procesie reengineeringu Źródło: opracowanie własne. Scentralizowany system zarządzania charakteryzuje wiele szczebli decyzyjnych. Decyzja zapada na najwyższym szczeblu, a następnie musi przejść przez wiele szczebli organizacyjnych zanim dotrze do wykonawcy. W praktyce długość drogi powinno się liczyć podwójnie. Pierwszy raz jest to droga informacji, która przechodzi od szczebla wykonawcy, drugi raz jest to droga informacji w postaci decyzji. Nic więc dziwnego, że na tej drodze pojawiają się rozmaite zniekształcenia, a czas przesyłania jest bardzo długi. Można stwierdzić, że system scentralizowany charakteryzuje duży stopień pośrednictwa. W odróżnieniu od niego, demokratyczny system zarządzania charakteryzuje niskie pośrednictwo. Ćwiartki I i II to system scentralizowany, a III i IV zdecentralizowany. Kryterium współpracy możemy określić na podstawie częstotliwości i intensywności wymiany informacji między członkami zespołu współpracującego. Ćwiartki I i IV charakteryzują niski stopień współpracy zespołu, a ćwiartki II i III przedstawiają sytuację, kiedy ta współpraca jest dobra. W konsekwencji możemy stwierdzić, że sytuacja w ćwiartce I jest niekorzystna dla organizacji. Najlepiej jest, kiedy sytuację w firmie można umieścić w III ćwiartce. Położenie w pozostałych można skomentować: nie jest źle, ale zespół kierowniczy ma jeszcze duże pole do popisu. Jeżeli analiza działalności naszej organizacji wskazuje, że jej sytuację ilustruje, przedstawiony na rysunku IV.35, punkt A, to nasze działania powinny zmierzać do osiągnięcia punktu B. Możliwych dróg jest wiele, niektóre z nich zostały na rysunku zaznaczone linią przerywaną. Wybór optymalnej drogi usprawnień jest następ- 364

365 Zarządzanie i informatyka cz. IV nym krokiem procedury zmiany funkcjonowania systemu informacyjnego, a tym samym organizacji. Wybór ten zależy w pierwszym rzędzie od specyfiki i determinacji jej pracowników w dążeniach do doskonałości. Następne kroki procedury, to realizacja usprawnień i określenie dalszych kierunków postępowania dla stałego ulepszania systemu informacji. Postępowanie nasze jest spiralą działań, które powodują wzrost konkurencyjności firmy i dostosowanie się systemu informacyjnego do wymagań organizacji. Dotychczasowe wdrożenia metody pozwalają na określenie typowych efektów, które uzyskały firmy stosujące ją. Pamiętać przy tym należy, że jest to przecież dość młoda metoda i dotychczasowe doświadczenia nie są duże. Podstawowe efekty, które uzyskano według materiałów opracowanych przez firmy stosujące reengineering to: Poprawa jakości projektu i skrócenie czasu jego opracowania, Znaczne zmniejszenie zatrudnienia personelu firmy, Dodatkowe zyski dla klientów i akcjonariuszy, Krótszy czas przekazywania informacji zarówno klientom, jak i decydentom, Udoskonalenie systemu obsługi klientów, Eliminacja niepotrzebnych czynności i redukcja opóźnień w przekazywaniu informacji. Uważa się jednak, że jego największą zaletą jest dostarczenie narzędzi, które pozwolą na projektowanie systemu informacyjnego firmy i lepsze skupienie się nad problemami związanymi z istnieniem konkurencji na rynku. Reeingineering wiąże się z zastosowaniem w organizacji ICT. Tylko te organizacje, które unowocześniają swój system informacyjny mogą liczyć na sukces. Należy uprzedzić, że wiele firm poniosło porażkę w stosowaniu reengineeringu. Ich analiza jest kształcąca i pozwala na zwrócenie uwagi na bariery występujące przy zastosowaniu metody. Uważa się, że przyczyny niepowodzenia są następujące: Bariera psychologiczna; ludzie, którzy powinni dokonać zmian, w rzeczywistości wcale ich nie chcą i obawiają się, że w nowej sytuacji nie będzie dla nich miejsca pracy, lub stracą swoją uprzywilejowaną pozycję w firmie. Błędy w organizacji zespołu, który ma usprawniać funkcjonowanie firmy, a więc powołanie osób niekompetentnych oraz takich, które nie mogą ze sobą współpracować (istotne jest stworzenie takiego zespołu, który pragnie uzyskać sukces jako grupa, i w którym nie jest ważne kto jest autorem pomysłu). 365

366 Projektowanie systemu informacyjnego zarządzania Konieczność przezwyciężenia stereotypów; znane są przykłady, że firmy angażują tylko takich pracowników, którzy nigdy nie wykonywali pracy o tej specjalności; chodzi o to, aby wyszkolić pracownika nieobarczonego starymi nawykami, przyzwyczajeniami i tradycją; do wymienionych ograniczeń należy dodać, że musimy sami wyszkolić specjalistów. Działania metodą reengineeringu w procesie projektowania systemu informacyjnego można podzielić na trzy fazy. Pierwsza to zmiany w organizacji, dla której wykonujemy projekt zmian systemu informacyjnego. Druga to zmiany w organizacji procesu projektowania. Trzecia to utrwalenie procesu zmian. Ponieważ tu zajmujemy się systemem informacyjnym, interesuje nas druga faza. Nie możemy jednak zapomnieć o fazie pierwszej i trzeciej, ponieważ możemy stworzyć doskonały projekt systemu informacyjnego dla źle funkcjonującej firmy. W praktyce te fazy działań są bardzo ściśle ze sobą powiązane. W wyniku działań reengineeringu został, między innymi, skrócony czas potrzebny do uruchomienia produkcji samochodu Jeepe Cherokee w Chrysler Corp., z planowanych 5 lat do 39 miesięcy. Również jednym z najbardziej znanych przykładów zastosowania metody są zakłady Forda. Na skutek zmian w systemie informacyjnym zmniejszono tu zatrudnienie w dziale księgowości z 500 do 100 pracowników. Lista organizacji, w których z powodzeniem zastosowano reengineering jest długa. Jedną z największych były zmiany dokonane w latach w Deustche Post AG. Proces reengineeringu, jak podaje K. Zumwinkieln na konferencji Stowarzyszenia Profesorów Nauk o Przedsiębiorstwie, przeprowadzony w Niemieckiej Poczcie przyniósł przebudowę wszystkich procesów. Jedyną rysą na imponującym obrazie dokonań zarządu Deustche Post AG jest fakt licznych zwolnień grupowych pracowników poczty niemieckiej jako rezultatu procesu reengineeringu zarządzania. Przykładem zastosowaniem metody reengineeringu w Polsce był projekt realizowany pod kierunkiem I. Grochowskiego i J. Kisielnickiego [2007] dla usprawnienia funkcjonowania Urzędu Miasta w Białymstoku. Projekt ten jest częściowo wdrożony i już obecnie można mówić, że jego pełna realizacja przyniesie istotne efekty. W realizacji projektu brał udział zespół około dwudziestu specjalistów, pracowników Urzędu. Przeprowadzona wielostopniowa analiza wykazała, że istniejący w Urzędzie system informacyjny miał wiele niedogodności. Zaprojektowany nowy system miał na celu zapewnienie sprawnego przepływu informacji i w konsekwencji szybsze i bardziej prawidłowe podejmowanie decyzji. Dotychczas informacje gromadzone były tradycyjnie na papierze lub w autonomicznych, niepołączonych w sieć komputerach. Istniejący sprzęt komputerowy stosowany był głównie jako maszyny do pisania lub dla eksploatacji prostych baz danych. W nowym (po reengineeringu), przedstawionym na rysunku IV.36 systemie informacyjnym Urzędu zapewnia się: 366

367 Zarządzanie i informatyka cz. IV sprawny przepływ informacji w całym Urzędzie przy dobrze zdefiniowanej jego strukturze organizacyjnej i standardowych typach przepływających informacji, zróżnicowaną jakość i bezpieczeństwo obsługi poszczególnych obiektów, łatwość adaptacji i rozszerzenie funkcji usługowych systemu w miarę rosnących potrzeb użytkownika szczególnie związanych z reformą samorządową, spełnienie wymagań systemów otwartych. Rysunek IV.36. Powiązania informacyjne w Urzędzie Miasta Białystok system po reengineeringu Źródło: Grochowski L., Kisielnicki J., Reengineering in upgrading of public administration, Modeling and, Design, International Journal of Technology Management, vol. I No 4, 2000, s W wyniku realizacji projektu i zastosowaniu reengineeringu uzyskano: skrócenie terminów podejmowania przez Urząd decyzji, wzrost współpracy między komórkami organizacyjnymi i obniżenie stopnia pośrednictwa w realizacji poszczególnych zadań, integrację komórek organizacyjnych o podobnych funkcjach i powołanie Centrów Informacyjno-Decyzyjnych dla ich realizacji, oddzielenie zadań strategicznych od operacyjnych. 367

368 Projektowanie systemu informacyjnego zarządzania Zastosowanie integracji systemów informacyjnych z metodami technologii informacyjnej dla całego Urzędu Miasta, w której ze względu na bardzo duże zbiory danych podstawą będzie hurtownia danych (Data Warehause) (zagadnienie związane z hurtowniami danych zostaną przedstawione w następnej części), jako celowy, kompletny zbiór danych tworzonych na bazie istniejących systemów transakcyjnych Urzędu oraz zewnętrznych systemów informacyjnych. Proponowana hurtownia danych pozwala na natychmiastowy dostęp do każdej, żądanej przez użytkownika, informacji Strategia realizacji projektu Zbiór możliwych sposobów realizacji projektu systemu informacyjnego jest znaczny. Dlatego też należy wybrać taką sekwencję działań, która w danych warunkach jest najlepsza. Możemy powiedzieć, iż taka sekwencja działań stanowi określona strategię postępowania. Strategia Pod pojęciem strategii rozumie się sposób rozwiązania problemu jakim jest opracowanie systemu informacyjnego dla organizacji. Wybór strategii związany jest z przyjętymi kryteriami oceny. Przyjęcie strategii projektowania bardzo mocno uwarunkowane jest etapem analizy. W analizie bowiem określone zostały cele organizacji, jak też wymagania jakościowe i ilościowe stawiane systemowi informacyjnemu. W strategii projektowania należy dać odpowiedź na pytania: Jak zrealizować postawione cele? W jakim czasie będzie projekt opracowany? Ile będzie on kosztował? Jakich wymagać będzie środków rzeczowych? Jaka będzie przestrzenna struktura systemu? W jakim stopniu przyjęte rozwiązania odpowiadać będą standardom światowym? Pytania można mnożyć. W większości pewne próby odpowiedzi zostały podjęte w fazie analizy, a rozważając różne strategie uściślamy wcześniej uzyskane odpowiedzi. Tak więc w fazie analizy, przedstawionej w rozdziale szóstym, osiągamy tylko pewien zarys strategii. 368

369 Zarządzanie i informatyka cz. IV Pojęcie strategii projektowania rozpatrywać należy w miarę jak najszerzej. Obejmuje ono bowiem obok wyboru samej metodyki projektowania, także analizę wyników wewnętrznych z nią związanych. Strategia projektowania stanowi znaczącą część strategii zarządzania, a szczególnie strategii informacyjnej organizacji, niekiedy nazywanej jako kalki pojęcia biznesplanu pojęciem infoplanu. Strategię projektową rozumie się jako proces decyzyjny, w którym na podstawie analizy potrzeb informacyjnych organizacji oraz obecnych i prognozowanych stanów otoczenia, wyznacza się cele systemu informacyjnego i środki potrzebne do jego realizacji. Właśnie określenie celów i środków jest podstawowym problemem metodologicznym, którym zajmujemy się budując strategię projektową. W teorii nauk zarządzania takie podejście określa się mianem podejścia systemowego. Projektowanie pociąga za sobą konieczność przeznaczenia środków finansowych i rzeczowych, dlatego też należy do tego problemu podejść podobnie, jak do innych decyzji. Jeżeli nie mamy dostatecznych własnych środków finansowych i ubiegamy się o kredyt, należy uzasadnić nasz projekt zgodnie z wymaganiami banku jako instytucji kredytującej. Procedura składa się z pięciu faz. Każda faza procedury składa się z różnych działań cząstkowych zwanych krokami. Przedstawiona procedura ma charakter ramowy i dla konkretnej sytuacji decyzyjnej wymagana jest jej ocena i akceptacja. FAZA I FAZA II FAZA III FAZA IV FAZA V Procedura opracowania strategii projektowania Sformułowanie problemu. W fazie tej dokonuje się analizy, co zostało przedstawione w poprzednim rozdziale. Analiza sytuacji, która jest zasadniczym etapem budowy strategii projektowej. Celem tej fazy jest: opracowanie zbioru możliwych strategii, określenie ograniczeń, wyznaczenie kryteriów ocen oraz opracowanie mechanizmu weryfikacji strategii. Rozwiązanie sformułowanie strategii projektowej. Celem tej fazy jest rekomendowanie poszczególnych wariantów strategii projektowej. Weryfikacja. W tej, z kolei, fazie przechodzimy od rekomendacji do decyzji. Realizacja. Faza ta w zasadzie wychodzi poza ramy opracowania strategii projektowania i będzie szczegółowo opisana w następnym rozdziale (wdrożenie). Poszczególne fazy i kroki procedury można opisać następująco: FAZA I. SFORMUŁOWANIE PROJEKTU 369

370 Projektowanie systemu informacyjnego zarządzania Krok 1. Analiza przedprojektowa, w której powinniśmy dojść do następującego stwierdzenia: Tak, uważam(y), że dla podniesienia sprawności funkcjonowania organizacji, należy zmodyfikować lub zaprojektować nowy system informacyjny. W ten sposób zostaje uruchomiony łańcuch przyczynowo-skutkowy prowadzący do stworzenia nowego lub zmodyfikowania istniejącego systemu informacyjnego. Krok ten rozpoczyna realizację polityki innowacyjnej w organizacji. Krok 2. Określenie zadań stojących przed systemem informacyjnym jest wynikiem przeprowadzonej analizy organizacji i jej otoczenia. Efektem działania jest dokument, który powstał na podstawie analizy potrzeb użytkownika. Jest to kluczowy punkt w procedurze. Właśnie jego konfrontacja w poszczególnych fazach procedury pozwala na ocenę, na ile proponowane rozwiązania są zgodne z aspiracjami i oczekiwaniami użytkownika. Wymagania powinny być określane w miarę precyzyjnie. Jednak należy liczyć się z tym, że szczegółowe rozwiązania będą określane w następnych krokach. Dokument ten precyzuje zbiór celów, spełnienia których spodziewa się użytkownik od systemu informacyjnego. W tym kroku użytkownik może precyzować bardzo trudne i angażujące znaczne środki cele. Spotyka się na tym etapie krańcowe podejścia. Pierwsze to stawianie celów nie licząc się z ograniczeniem środków. Drugie, to już na tym etapie, wstępna selekcja i ustanowienie tzw. realnych celów. Wydaje się, że stawianie ambitnych celów pozwala na uzyskanie lepszych rezultatów. Oczywiście, jeżeli nie mamy odpowiednich środków, musimy weryfikować wymagania i zadowolić się nieco skromniejszymi celami. Jednak samo ujawnienie oczekiwań użytkownika jest już bardzo dużym sukcesem. Może jeszcze nie obecnie, ale użytkownik już dziś zna swoje przyszłe preferencje. Krok 3. Powołanie zespołu do spraw opracowania strategii projektowej. Zależnie od wielkości organizacji i złożoności zadań określonych w poprzednim kroku, zespół ten może być jedno- lub wieloosobowy, skupiający ludzi o różnych specjalnościach. W skład jego powinni wchodzić zarówno informatycy, jak też przedstawiciele najważniejszych merytorycznie kierunków. Wiadomo jest bowiem, że łatwiejsze jest nauczenie branżysty posługiwania się systemem informatycznym, niż informatyka branży. Bardzo często na czele takiego zespołu stoi jeden z członków dyrekcji lub zespołu do spraw projektowania systemów informacyjnych. Jeżeli pracami kieruje członek dyrekcji, to zespół jest wysoko usytuowany w hierarchii służbowej, ale istnieje jednocześnie niebezpieczeństwo, że ze względu na brak czasu kierownika zespołu, prace nie będą tak intensywne, jak powinny być 12. Kierownikiem zespołu powinien być z pewnością pracownik o zdolnościach menedżerskich, znający potrzeby organizacji i możliwości informatyki. Wybór przewodniczącego i całego zespołu decyduje o sukcesie opracowania strategii. Zespół powinien mieć wydzielony fun- 12 W Polsce w latach 80. XX wieku na czele Komitetu Informatyki jako organu sterującego rozwojem informatyki stał Prezes Rady Ministrów. W konsekwencji komitet ten w ciągu kilku lat swojej działalności zebrał się dwa razy (wraz z inauguracją). 370

371 Zarządzanie i informatyka cz. IV dusz dla realizacji zadania. Jeżeli chcemy, aby praca zespołu zakończyła się sukcesem, musimy zadbać, aby była ona dla podstawowego składu zespołu działalnością podstawową. FAZA II ANALIZA SYTUACJI PROBLEMOWEJ Pewna część informacji została zebrana w fazie analizy. W pracach projektowych powinna ona zostać uzupełniona w następujących krokach: Krok 4. Sprecyzowanie ograniczeń w budowie i funkcjonowaniu systemu, które pozwala na określenie pola rozwiązań dopuszczalnych. W praktyce obszar rozwiązań, rozumiany jako liczba możliwych strategii projektowania, jest ogromny. Przyjęcie ograniczeń powoduje zawężenie i urealnienie liczby rozpatrywanych strategii. Ograniczenia mają różny charakter najczęściej finansowy. Wielkość środków przeznaczonych na budowę systemu waha się w granicach, które możemy określić między: maksymalną ilością środków finansowych zależy od wielu czynników, takich jak m.in.: kondycja finansowa organizacji, jej potrzeby. Praktyka wykazuje, że wielkość ta nie powinna przekroczyć 3% rocznego budżetu firmy, natomiast najczęściej procent ten wynosi 1 1,5%, minimalną ilością środków finansowych, która jeszcze pozwala na budowę systemu informacyjnego. Przeznaczenie zbyt małych środków finansowych nie przyniesie znaczącego postępu organizacyjnego. Nie jest też opłacalne uruchomienie, dość przecież skomplikowanej, procedury budowy strategii projektowej. Rekomenduje się wariantowe ustalenie ograniczeń i określenie, metodami symulacji komputerowej, skutków decyzji dotyczących różnej alokacji zasobów. Krok 5. Ocena skuteczności realizacji projektu czyli stwierdzenie, czy wybrany sposób realizacji pozwoli na osiągnięcie założonych wcześniej celów. Dla tego stwierdzenia należy opracować metodę oceny. Prostym rozwiązaniem byłoby otrzymanie następującej, zerojedynkowej odpowiedzi: Tak projekt spełnia wymagania użytkownika, Nie projekt nie spełnia wymagań użytkownika. Jednak w praktyce, ze względu na różnorodność użytkowników i ich preferencji, odpowiedź nie jest prosta i musi być poparta badaniami. Wynikiem badań oceniających powinno być określenie, czy jest, a jeżeli tak to jaka jest różnica między przewidywanymi skutkami realizacji wybranej strategii projektowej a założonymi celami globalnymi i cząstkowymi. W wyniku takiej oceny można określić w jakim stopniu osiągnięto pożądany cel i na tej podstawie podjąć decyzję o ewentualnej interwencji. Krok 6. Określenie kryteriów oceny jednostkowych strategii. W tym kroku mieści się też ocena ryzyka przyjęcia określonej strategii projektowania systemu informacyjnego. 371

372 Projektowanie systemu informacyjnego zarządzania Uważam, że właśnie od tej oceny powinna się rozpocząć analiza każdej z jednostkowych strategii. Ryzyko strategii projektowej można określić jako prawdopodobieństwo zajścia zdarzenia, że korzyść rzeczywista będzie odmienna od oczekiwanej. Warunki istniejące w organizacji oraz w jej otoczeniu mogą spowodować, że wiele korzyści z realizacji strategii może odchylić się in plus, czy też in minus od korzyści oczekiwanych. Oszacowanie prawdopodobieństw zaistnienia takich warunków i określenia, jak wpłyną na wielkość korzyści z realizacji strategii projektowej, daje rozkład prawdopodobieństw różnych poziomów korzyści. Pomiar ryzyka realizacji poszczególnych strategii może mieć rozmaity stopień sformalizowania, a więc od prostych metod jakościowych do bardzo złożonych technik, które wykorzystują rachunek prawdopodobieństwa i teorię zbiorów rozmytych. Dla oceny ryzyka realizacji poszczególnych wariantów strategii projektowej można stosować symulację komputerową [Kisielnicki, 1986]. Metody jakościowe najprostsze opierają się na wiedzy oraz doświadczeniu ekspertów i kierowników organizacji. Metody ilościowe bazują na analizie rozkładu prawdopodobieństwa zajść zdarzeń, które mogą wpłynąć na korzyści z realizacji strategii. Będzie to jednak tzw. subiektywny rozkład prawdopodobieństwa, gdyż konkretne wartości liczbowe nie muszą na pewno odzwierciedlać stanów rzeczywistych w przyszłości. Oszacowane wielkości prawdopodobieństw obrazują raczej opinię oceniającego co do ewentualności zajścia określonych przypadków. Sprowadza się to do analizy wyceny tych czynników, które według nas mogą wpłynąć na efekty realizacji strategii. Dla przybliżenia tego problemu przedstawimy przykład pomiaru ryzyka dla wyboru strategii projektowej prowadzącej do zainstalowania w supermarkecie systemu informacyjnego wraz z odpowiednim sprzętem komputerowym. Realizacja rozpatrywanej strategii projektowania prowadzić ma do zmniejszenia zatrudnienia w działach księgowości i zaopatrzenia. Kryterium oceny jest spodziewana wielkość korzyści z realizacji strategii mierzona, na przykład, wartością zaktualizowaną (bieżącą) netto. Wartość zaktualizowana jest to dzisiejsza wartość pieniądza (kapitału) mająca swoje źródło w przychodach, jakie przyniosą one w przyszłości. Nazywa się ją też wartością zdyskontowaną. Wartość NPV wyraża korzyści wynikające z częściowego zastępowania pracy ludzkiej systemem informacyjnym. Korzyści te zależą od stanu gospodarki, co przedstawia tabela IV

373 Zarządzanie i informatyka cz. IV Tabela IV.3. Rozkład prawdopodobieństwa stanu gospodarki Lp. Stan gospodarki Prawdopodobieństwo NPV w zł 1 Depresja 0, Recesja 0, Równowaga 0, Dobra koniunktura 0, Boom 0, Wartość oczekiwaną możemy wyliczyć według wzoru: E (NPV) n i 1 NPV i p i gdzie: E(NPV) średnia wartość oczekiwana, NPV i poziom NPV dla i-tej sytuacji (w danym roku), prawdopodobieństwo zaistnienia i-tej sytuacji. p i Podstawiając odpowiednie wielkości do wzoru otrzymamy, na przykład, że spodziewane korzyści wynoszą 10000zł, czyli E(NPV) = 1000 zł. Ryzyko można wyrażać różnie, np.: Jest 0,1 prawdopodobieństwa, że NPV będzie ujemne, Jest 0,3 prawdopodobieństwa, że NPV będzie mniejsze, niż wartość oczekiwana. Oczywiście nie zawsze musimy obliczać NPV, można również obliczyć inne wskaźniki. Dla oceny jednostkowych strategii projektowych możemy brać pod uwagę rozmaite kryteria jakościowe i ilościowe. Najczęściej dążymy do tego, aby kryterium miało wymiar ilościowy, np. wspominana wcześniej wielkość NPV, czy też zysk, ilość klientów obsługiwanych przez system, czas reakcji systemu na zadane pytanie. Wielkości te są przez nas optymalizowane, a więc kryterium może być minimalizacja lub maksymalizacja jego funkcji. W praktyce mamy do czynienia z systemem ocen wielokryterialnym, ponieważ charakter i złożoność przedsięwzięcia najczęściej wymaga stosowania tego typu metod. Przyjmiemy, że S = {s 1,s 2...s n }, jest skończonym zbiorem n elementów, które reprezentują rozpatrywane jednostkowe strategie projektowe. Załóżmy, że został wyznaczony zbiór kryteriów ocen jednostkowych strategii projektowych: K p = {K 1, K 2...K n } gdzie: K p oznacza p-te kryterium oceny strategii dla p = 1,2,...n Każdemu kryterium ze zbioru K należy przypisać odrębną wagę. 373

374 Projektowanie systemu informacyjnego zarządzania Krok 7. Określenie zbioru jednostkowych strategii realizacji projektowych. Jak wspomniano w poprzednim kroku, jednostkowe strategie projektowe tworzą n-elementowy skończony zbiór strategii. Zadaniem projektanta jest, aby zbiór ten był najpełniejszy. Dopuszczenie poszczególnej strategii do dalszych obliczeń jest jedną z najbardziej odpowiedzialnych decyzji. Niekiedy, chociaż nieświadomie, eliminujemy szczególnie obiecującą jednostkową strategię. Nie ma tu innego mechanizmu weryfikacji, jak tylko wiedza o postępie w nowych technikach i technologiach systemów informacyjnych. Między poszczególnymi strategiami projektowymi mogą zachodzić określone relacje. I tak, jeżeli decydujemy się na sieci komputerowe musimy zakupić odpowiednie oprogramowanie i dysponować siecią transmisji danych. Zależnie od przyjętych celów musimy z określonego zbioru strategii wybrać co najmniej jedną strategię projektowania lub też zrezygnować z przyjęcia jakiejkolwiek strategii. Można również zdecydować, że wybrana strategia będzie strategią mieszaną, której składowymi są różne jednostkowe strategie. FAZA III ROZWIĄZANIE SFORMUŁOWANIE STRATEGII PROJEKTOWEJ Krok 8. Charakterystyka jednostkowych strategii i opracowanie dla nich harmonogramu realizacji. Charakterystykę jednostkowej strategii rozpoczyna się od oceny, w jakim stopniu przyjęcie jej spowoduje realizację założonych celów. Ocena taka przeprowadzona jest pod względem: jakościowym, ilościowym, ewentualnych dostawców, możliwości finansowych, kooperantów. Charakterystyka jakościowa. Dla charakterystyki jakościowej poszczególnych strategii projektowych rekomendowana jest metoda SWOT. SWOT jest kompleksową metodą analizy strategicznej organizacji. Nazwa SWOT jest akronimem angielskich słów strengths (mocne strony organizacji), weaknesses (słabe strony organizacji), opportunities (szanse w otoczeniu), threatnes (zagrożenia w otoczeniu). W analizie SWOT nie musimy opisywać i wyodrębniać wszystkich czynników związanych z daną strategią, natomiast powinniśmy zidentyfikować zasadnicze czynniki, które mogą mieć decydujący wpływ na funkcjonowanie organizacji. W większości sytuacji nie ma zbyt dużych różnic między poszczególnymi tablicami SWOT, które charakteryzują poszczególne jakościowe strategie projektowania. Jednak taka tabela jest bardzo przydatna dla całej polityki wprowadzania nowych technik informacyjnych w organizacji. Przykładową analizę SWOT, wykonaną jako pomoc dla wspomagania opracowania strategii projektowej unowocześnienia systemu informacyjnego w supermarkecie, przedstawia tabela IV.4. Analiza SWOT, charakteryzuje jakościowe strategie projektowe i powinna być uzupełniona o dane ilościowe. 374

375 Zarządzanie i informatyka cz. IV Tabela IV.4. Analiza SWOT jako narzędzie pomocnicze do opracowania strategii projektowej unowocześnienia systemu informacyjnego w supermarkecie Potencjalne mocne strony Potencjalne słabe strony 1. Szybka obsługa klientów 1. Konieczność przeznaczenia dużych środków na system informacyjny, zamiast na rozwój supermarketu 2. Doświadczona i dobrze przygotowana kadra kierownicza 3. Nowoczesny i w pełni zaspokajający potrzeby kierownictwa system informacyjny Potencjalne szanse 2. Brak wysoko kwalifikowanej kadry informatyków 3. Konieczność inwestowania w infrastrukturę mimo, że firma rozważa zmianę miejsca działania Potencjalne zagrożenia 1. Konkurencja nie posiada tak nowoczesnego systemu informacyjnego 2. Możliwość powiązań informacyjnych z innymi supermarketami funkcjonującymi w organizacji 1. Postęp techniczny, który spowodować może, że przyjęte rozwiązania sprzętowe i programowe w krótkim czasie będą przestarzałe 2. Możliwość wzrostu konkurencji, a tym samym spadek obrotów Charakterystyka ilościowa. W większości wielkościami liczbowymi można wyrazić następujące elementy: koszt projektowania systemu, nakłady potrzebne na zakup sprzętu komputerowego, czas reakcji systemu, czas projektowania systemu. Istotne jest aby charakterystyka poszczególnych strategii projektowych była porównywalna. Pomocna może być tu macierz, którą przedstawiono w tabeli IV.5. Tabela IV.5. Macierz charakterystyki ilościowej strategii projektowania Wielkość charakteryzująca W 1 W 2... W k Strategia projektowania S 1 S 2 S n a 11 a 12 a 1n a 21 a 22 a 2n a k1 a k2 a kn Wielkości a ij są to współczynniki techniczno-ekonomiczne gdzie: i = 1,..., n; j = 1,..., k 375

376 Projektowanie systemu informacyjnego zarządzania Charakterystyka dostawców i kooperantów. Rozpatrując zbiór strategii projektowania musimy brać pod uwagę fakt, że nasza decyzja uzależniona jest od kooperantów i dostawców sprzętu i oprogramowania. Najprościej jest zamówić sprzęt wraz z oprogramowaniem w firmie komputerowej, do której mamy zaufanie. Można ją wyłonić przez otwarty lub zamknięty przetarg. Informacje, które uzyskaliśmy z ofert pozwalają na dokonanie porównań. Często jednak nie mamy pewności, czy wykonawca zewnętrzny poradzi sobie z naszym problemem. Zamawiamy wtedy oddzielnie, w różnych firmach, poszczególne elementy systemu (komputery, oprogramowanie, szkolenia). Najczęściej zaczynamy od zamówienia sprzętu komputerowego. Trudno jest, oczywiście, wybrać dostawcę. Jest to jednak nieco inne zagadnienie, tu tylko zasygnalizowane. Krok 9. Przeprowadzenie obliczeń i studiów oraz uporządkowanie zbioru jednostkowych strategii. Na podstawie charakterystyk otrzymanych uprzednio oraz przyjętych kryteriów, dokonujemy odpowiednich obliczeń. Ich efektem powinna być uporządkowana lista strategii. Decydent często przeprowadza rachunek ekonomiczny jako element decydujący. W rachunku tym oblicza się tzw. koszty możliwości i alternatyw. Próbujemy tu określić jakie ponosimy straty w wyniku przyjęcia jednej strategii, a odrzucenia strategii alternatywnej. Omówimy to szerzej w części dotyczącej ekonomicznego kontekstu zastosowań ICT. Krok 10. Rekomendacje. W wyniku przeprowadzonych obliczeń przedstawiamy decydentom listę tych jednostkowych strategii projektowych, które uważa się, że spełniają wymagania użytkownika. Pewne niebezpieczeństwo istnieje w tym, że przedstawione strategie nie zawsze są optymalne. Wynika to jednak najczęściej z błędów wcześniej popełnionych w pracach analitycznych. Rekomendacje w zasadzie kończą fazę trzecią i stanowią pomost między fazą rozwiązania a weryfikacji. Użytkownik na tym etapie dokonuje wstępnej weryfikacji przyjętej procedury oraz wiarygodności przedstawionych mu do akceptacji materiałów. FAZA IV WERYFIKACJA W fazie tej przeprowadzona jest wielostopniowa weryfikacja propozycji rekomendacji. Weryfikacji dokonuje się pod kątem spełnienia podstawowych wymagań: Czy realizacja strategii pozwoli na osiągnięcie zamierzonych celów? Czy strategia może zostać zrealizowana z punktu widzenia istniejących ograniczeń? Czy przedstawiona strategia będzie przez użytkownika zaakceptowana? Jeżeli użytkownik mówi NIE na jedno z zadanych pytań to należy przeprowadzić dyskusję wyjaśniającą i przeprowadza się odpowiednie działania, aby wyjaśnić i poprawić przedłożone propozycje. Jednak decydent może nie podać powodów odmowy akceptacji strategii; co powoduje rozwiązanie zespołu, który opracował strategię. Ostatnim krokiem tej fazy jest podjęcie decyzji o wdrożeniu i przystąpienie do następnej fazy działań czyli realizacji. Zagadnienie to będzie rozwinięte w następnym rozdziale. 376

377 377

378 Rozdział 14 Wdrażanie systemów informacyjnych Miejsce wdrażania w cyklu życia systemu Wdrażanie systemu jest następnym, po projektowaniu, etapem działań w cyklu życia systemu. Jest to, jak zasygnalizowano, jedno z najtrudniejszych zadań w unowocześnieniu systemu informacji. Zaprojektowany, w tym etapie, system informacyjny jest w całości przekazany użytkownikowi. W fazie wdrożenia następuje zmiana opiekuna systemu. Analitycy i projektanci systemu zostają zastępowani przez jego użytkowników. Zależnie od stosowanej metodyki projektowania jest ono poprzedzone, przeprowadzonym w fazie projektowej testowaniem, lub też testowania dokonuje się bezpośrednio w trakcie wdrożenia. W fazie wdrażania następuje przekazanie systemu z rąk osób, które go stworzyły w ręce tych, które będą go eksploatować. Tu również ujawniają się wszystkie niedoskonałości i braki wynikające z niedostatecznego dopracowania we wcześniejszych fazach cyklu życia systemu. Przyjęty niedopracowany system może mieć bardzo duży wpływ na złe funkcjonowanie organizacji. Również przejęcie nowego systemu informacyjnego przez nieprzygotowaną do tego organizację może mieć dla niej bardzo złe skutki. W konsekwencji może to być powodem nieuzasadnionych zarzutów w stosunku do zespołu projektującego. Należy więc podejmować takie działanie, aby szok spowodowany zmianą systemu informacyjnego był jak najmniejszy. Powinno się tak pokierować procesem wdrażania, aby do minimum zmniejszyć immunologiczną barierę, czyli odrzucanie wszystkiego co nowe. Rozmiar szoku wywołanego zmianą systemu informacyjnego zależy zarówno od przygotowania samego projektu zmian, jak też od przygotowania organizacji. Zależnie od konkretnych warunków wdrażania systemu informacyjnego, mamy do czynienia z rozmaitymi trudnościami. Możemy je usystematyzować wg następujących kryteriów: 1. Czy wdrażania dokonuje się w nowo powstałej organizacji, czy też już istniejącej? Jeżeli wdrażamy system do nowopowstałej organizacji nie napotykamy oporów wewnętrznych. Możemy natomiast mieć trudności wynikające z tego, że nowa organizacja ma rozmaite wewnętrzne problemy. Prawidłowe funkcjonowanie systemu informacyjnego jest tylko jednym z wielu zadań i nie zawsze o najwyższym priorytecie. 378

379 Zarządzanie i informatyka cz. IV 2. Czy system informacyjny był opracowany indywidualnie, czy też był to system typowy, tylko przystosowany do organizacji? W przypadku systemów typowych, proces wdrożenia jest łatwiejszy, ponieważ był on już użytkowany w innych organizacjach. Prawdopodobieństwo niedopracowania programów jest więc niewielkie. Istotne jest, aby użytkownik przed zakupem zażądał listy referencyjnej i poznał funkcjonowanie systemu w organizacji o profilu najbardziej zbliżonym do tej, którą reprezentuje. Szczególnie ostrożnie trzeba podchodzić do firm, oferujących system i wzbraniających się przed przedstawieniem listy referencyjnej. Możemy przypuszczać wtedy, że to my będziemy poligonem doświadczalnym, albo też, co ma praktycznie ten sam skutek, że oferent nie ma znaczących osiągnięć i na nas pragnie przetestować swój produkt. W pewnych sytuacjach może być to korzystne, ponieważ będziemy pod szczególną opieką projektantów systemu. Jak wykazuje praktyka, w większości przypadków organizacja wdrażająca system po raz pierwszy ma duże trudności z dotrzymaniem terminu przekazania systemu do eksploatacji. Kupując gotowy już system narażamy się na to, że oferowany produkt jest często trudny do modyfikowania i dostosowania do naszych wymagań. Trudność może również sprawiać sprzężenie go z istniejącym już w organizacji systemem. Dlatego też powinno się analizować zakupywany system pod kątem jego elastyczności i zgodności z obowiązującymi normami. Zakupienie systemu, w którym nie uwzględnia się możliwości modyfikacji powoduje, że mimo pozornych oszczędności będziemy musieli później ponieść znaczne koszty na modyfikacje systemu uwzględniające zmiany w otoczeniu. System opracowany indywidualnie lepiej zaspokaja nasze potrzeby, ale przy jego wdrażaniu możemy napotkać trudności związane z tym, że jest to prototypowe zastosowanie, a więc nie ma gotowych procedur postępowania Procedura wdrażania Możemy wydzielić następujące procedury działań we wdrażaniu systemu informacyjnego: 1. Wdrażanie całościowe (totalne); 2. Wdrażanie cząstkowe, a w tym: pilotowe, ograniczone ze względu na zakres funkcjonowania systemu, próbne obejmujące wszystkie funkcje systemu, ale ograniczone ze względu na objętość zbiorów; 3. Równoległe. Wdrażanie całościowe (totalne) to zastosowanie nowego systemu przy równoczesnej rezygnacji z eksploatacji dotychczas stosowanego. Takie podejście jest najbardziej wygodne i najmniej kosztowne. Niebezpieczeństwa wynikają natomiast z tego, że: 379

380 Wdrażanie systemów informacyjnych nie mamy już w zasadzie odwrotu i przy niedopracowaniu i nie przetestowaniu systemu narażeni jesteśmy na znaczne dodatkowe koszty związane z równoczesnym usuwaniem usterek i realizowaniem bieżącej działalności, brak jest aktualnego układu odniesienia do starego systemu możemy tylko przewidywać co będzie i jak zachowałby się, w takiej sytuacji, stary system. Przyjęcie procedury totalnej obarczone jest dużym ryzykiem. Jest ono tym mniejsze, im zespół, który opracował projekt, jest bardziej doświadczony. W przypadku kiedy system informacyjny opracowywany jest dla nowej organizacji jest to jedyna możliwa strategia działania. Wdrażanie cząstkowe jest dla organizacji procedurą o mniejszym stopniu ryzyka, jednak może być to bardziej kosztowne, szczególnie w porównaniu z wdrożeniem całościowym przebiegającym bez przeszkód. Jednak nie zawsze możemy przewidzieć czy będą trudności podczas wdrożenia całościowego. Praktyka wykazuje, że w przypadku wdrażania dużych i złożonych systemów informacyjnych, procedura wdrażania cząstkowego jest korzystniejsza. Decydując się na wdrożenie sytemu w częściach należy dążyć do strukturalizacji, czyli podziału systemu na części. Kryteria strukturalizacji systemu mogą być rozmaite. Najczęściej stosuje się następujące podejścia: podział przestrzenny na jednostki terytorialne: gmina, powiat, województwo, podział systemu na moduły funkcjonalne, Zastosowanie procedury pilotowej polega na wdrożeniu w pierwszym etapie tylko określonej części systemu, na przykład, tylko w jednej z filii przy jednoczesnej eksploatacji starego systemu w pozostałych filiach. Dopiero kiedy nowy system zostanie sprawdzony następuje jego wdrażanie w pozostałych filiach organizacji. Wdrażanie systemu zgodnie z taką strategią nastręcza następujące trudności: w fazie wdrażania, nowy system musi współdziałać ze starymi systemami, eksploatowanymi w pozostałych filiach, każda z filii ma swoją specyfikę, więc nawet udoskonalając system w jednej z nich nie mamy pewności, czy w innej nie napotkamy na dodatkowe trudności. Wdrożenie pilotowe jest trudne do zastosowania w organizacji, w której nie można wyodrębnić określonego zamkniętego podsystemu. Jeżeli stosujemy jeden zwarty system, w którym możemy tylko wyodrębnić określone moduły funkcjonalne, np. finanse, zaopatrzenie można postępować następująco: sprawdzić funkcjonowanie modułów, a następnie wdrażać cały system, stworzyć sztuczny system, który składać się będzie z określonych zbiorów danych i procedur z poszczególnych modułów. Przy sprawdzaniu funkcjonowania poszczególnych modułów istnieje niebezpieczeństwo, że ponieważ nie jest sprawdzana całość systemu, mogą wystąpić kłopoty spowodo- 380

381 Zarządzanie i informatyka cz. IV wane przepływem danych między poszczególnymi modułami. Najczęściej oddzielnie sprawdzane jest funkcjonowanie bazy danych. Stworzenie sztucznego systemu może, w efekcie, zmniejszyć koszty wdrożenia na skutek sprawdzania najbardziej typowych sytuacji. Można tu przyjąć pewną analogię do badania opinii publicznej, czy też rynku, gdzie określamy na podstawie zachowania się części opinii, jak zachowa się całość i jakie są jej preferencje. Ponieważ tworzymy pewien sztuczny system, problemy z wdrażaniem mogą wynikać: ze skali przy dużych zbiorach warunki eksploatacji są inne, niż przy mniejszych, z możliwości pominięcia, w budowie systemu próbnego, istotnych elementów, których brak ujawni się dopiero w trakcie rzeczywistej eksploatacji. Bezpieczne, ale też najbardziej kosztowne jest postępowanie równoległe. Według niego dotychczasowy system jest eksploatowany tak długo, aż nowy nie zostanie w pełni wdrożony. Pracują więc równolegle dwa zespoły pracowników. Niebezpieczne, a czasem nierealne jest tworzenie nowego zespołu, który będzie eksploatował nowy system. Praktycznie trudne jest również obarczenie tych samych pracowników obowiązkiem obsługi obydwu systemów. Najczęściej przyjmuje się, że pracownicy firmy po odpowiednim przygotowaniu przejmują do eksploatacji nowy system. Procedura równoległa mimo pozornego bezpieczeństwa, może być konfliktogenna i powodować większe opory, niż przedstawione dwie poprzednie. Proces wdrożenia systemu informacyjnego najczęściej rozpoczyna się już w trakcie prac projektowych Istnieje następująca sekwencja działań: prace przygotowawcze (preparacja), testowanie systemu informacyjnego, eksploatacja systemu. Każde z wymienionych działań składa się ze zbioru jednostkowych czynności. Sprecyzowanie i ustalenie czasów tworzenia poszczególnych czynności możliwe jest dla konkretnego przykładu. Na rysunku IV.37 przedstawiono tzw. typowy harmonogram działań zmierzających do eksploatacji systemu. Jest to tak zwany harmonogram Gantt/Adamiecki nazwany od nazwisk ich twórców. Jednak bardziej zaawansowane jest użycie modeli sieciowych typu PERT (Program Evaluation and Review Technique) lub CPM (Critical Path Methods) dla prezentacji harmonogramu realizacji. Opisy tych metod przedstawione są między innymi w książkach: Z. Szyjewskiego [2003], M. Flasińskiego [2006], J. Kisielnickiego [2008]. Specjalną rolę mają działania szkoleniowe użytkowników. Działanie te pozwalają nie tylko zrozumieć cele i zasady funkcjonowania systemu lecz również wykształcić umiejętności niezbędne do ich działania [A. Nowicki (red.), 2005]. Każdy użytkownik powinien posiadać wiedzę ogólną o całości funkcjonowania systemu oraz szczegółową, dotyczącą tych rozwiązań, które jego bezpośrednio dotyczą. 381

382 Wdrażanie systemów informacyjnych Wprowadzenie nowego systemu informacyjnego jest dobrą okazją do zaprowadzenia porządku w obiegu dokumentacji i standaryzacji. Standaryzacja i normalizacja dokumentacji oraz dostosowanie jej do standardów europejskich powoduje nie tylko zmniejszenie objętości zbiorów przetworzonych informacji, ale również łatwiejsze porozumienie się z współpracującymi organizacjami. Często przy okazji wdrożenia nowego systemu informacyjnego okazuje się, że należy powołać nowe komórki organizacyjne oraz zlikwidować zbędne stanowiska pracy. Większość, chociaż nie jest to reguła, wdrożeń nowych systemów informacyjnych powoduje zmniejszenie zatrudnienia. W konsekwencji następuje restrukturalizacja organizacji. Rysunek IV.37. Przykładowy harmonogram wdrażania systemu informacyjnego w organizacji Źródło: opracowanie własne. Równocześnie z przygotowaniem organizacji następować powinno dostosowanie systemu do wymagań i możliwości użytkownika. Dążymy do tego, o czym wspomniano już wcześniej, aby szok związany z wprowadzeniem zmian był jak najmniejszy. Jest to tym ważniejsze, że nowy system informacyjny ma poprawić funkcjonowanie organizacji. W etapie testowania, w zależności od przyjętej strategii wdrożenia, następuje częściowe lub całkowite testowanie systemu na zainstalowanej infrastrukturze, po czym następu- 382

383 Zarządzanie i informatyka cz. IV je przejęcie systemu do eksploatacji przez zespoły użytkownika. Istotne jest zapewnienie pomocy zespołu projektującego w usuwaniu błędów oraz konsultowanie w usuwaniu napotkanych trudności. Użytkownicy dokonując wyboru systemu, jako jeden z najbardziej znaczących elementów oceny firmy dostarczającej produkt, biorą pod uwagę serwis i sprawność jego działania. Należy zwrócić uwagę na potrzebę stworzenia tzw. gorącej linii, czyli zorganizowania szybkiego usunięcia usterek i konsultacji. W tej fazie najczęściej powstają pomysły usprawnienia istniejącego systemu. Przed całkowitym przejęciem systemu do eksploatacji następuje zweryfikowanie wszystkich przekazanych dokumentów. Szczególnie należy zwrócić uwagę na przekazanie właściwej dokumentacji systemu, czyli opracowanie zarówno dokumentacji technicznej i dokumentacji użytkownika w tym podręcznika użytkownika. Typowy podręcznik użytkownika składa się z następujących części: 1. Wprowadzenie, w którym przedstawiono: przeznaczenie i strukturę systemu, wymagania eksploatacyjne oraz ogólne zasady przetwarzania dokumentów i zasobów informacyjnych. 2. Opis funkcji systemu oraz parametry ich realizacji wraz z istniejącymi ograniczeniami. 3. Opis danych gromadzonych, przetwarzanych i przekazywanych wraz ze wzorami dokumentów. 4. Opis algorytmów obliczeniowych oraz opis tabulogramów i innych dokumentów emitowanych przez system. 5. Zasady użytkowania systemu wraz z charakterystyką funkcjonowania administratora systemu. 6. Charakterystyka eksploatacyjna systemu, a w tym przedstawienie podstawowych mierników, jak: zajętość pamięci, aktywność zbioru, czasy potrzebne na dostarczenie pojedynczych danych oraz czas opracowania według obowiązujących normatywów zestawień dla Urzędów Skarbowych, Zakładów Ubezpieczeń Społecznych, Urzędów Statystycznych. W trzeciej fazie opracowanie i zatwierdzenie następuje wdrożenie określonych uprzednio zmian zarówno w odniesieniu do systemu informacji, jak i całej organizacji. Faza ta obejmuje także szkolenie użytkowników końcowych przez kierownictwo obszarów funkcjonalnych. W fazie tej następuje zaakceptowanie nowego systemu przez Komitet Sterujący. Komitet Sterujący stwierdza, że produkt spełnia wszystkie wymagania i ogłasza, że nowy system jest gotowy do uruchomienia. 383

384 Wdrażanie systemów informacyjnych W kolejnej fazie, czwartej, osiągamy stan pełnej gotowości do uruchomienia systemu, a po transmisji danych do nowego systemu rozpoczynamy eksploatację. Ostatnia faza to eksploatacja nowego systemu i jego optymalizacja. W tej fazie najpierw dostrajamy system, a więc upewniamy się, że pracuje on zgodnie z założeniami. W tym etapie, po 3 6 miesiącach od uruchomienia, sporządza się raport, którego celem jest pomiar efektywności działania nowego systemu. W raporcie przeprowadza się przegląd możliwości poprawy lub rozszerzenia procedur i metod kontroli oraz ocenę, czy system spełnił założone cele Zarządzanie procesem wdrażania Zarządzanie wdrożeniem zależy od tego czy implementujemy system informacyjny zakupiony z zewnątrz i sprawdzony w działaniu, czy też indywidualnie zaprojektowany na nasze zamówienie. Najczęściej wdrażamy system stworzony przez firmę zewnętrzną i zaprojektowany do szerokiego upowszechnienia, a zmodyfikowany na nasze zamówienie. Rolą kierownictwa jest stworzenie takich warunków, aby system został przyjęty i zaakceptowany w organizacji. Kierownictwo wdrożeń odpowiada również za następujące decyzje: 1. ekonomiczna alokacja dysponowanych zasobów, 2. dobór i zastosowanie metod, procesów i procedur, 3. określenie zadań i sekwencji wykonania, 4. przydzielenie poszczególnych zadań do konkretnych osób i określenie ich odpowiedzialności, 5. wyznaczenie miejsca, w którym poszczególne zadania mają być zrealizowane, 6. opracowanie pracochłonności realizacji zadań i budowa harmonogramu, a następnie kontrolowanie jego wykonania, 7. określenie miar i metod do oceny postępów i weryfikacji osiągniętych celów globalnych i cząstkowych. Zarządzanie procesem wdrożenia polega między innymi na tworzeniu planu taktycznego i operacyjnego. Dla realizacji tych planów powinno posiadać się władzę odpowiednią do odpowiedzialności za osiągnięte rezultaty. Przebieg procesu wdrażania zależy w znacznym stopniu od tego, kto był inicjatorem zmian w systemie informacyjnym firmy. Krok inicjujący może być wywołany: 384

385 Zarządzanie i informatyka cz. IV potrzebami kierownictwa organizacji, bodźcami zewnętrznymi, bodźcami wewnętrznymi, czyli z inicjatywy pracowników. Inicjatywa odgórna, a więc potrzeba kierownictwa organizacji, jest najczęściej wynikiem niezadowolenia z jakości dostarczonych informacji decyzyjnych. Bodźce zewnętrzne to najczęściej osoby, przedstawiciele innych firm oraz wykładowcy szkół biznesu, którzy propagują innowacje. Dużą rolę może tu odgrywać prasa fachowa i konkurencja. Bodziec oddolny, a więc inicjatywa bezpośredniego użytkownika, to odczucie potrzeby rozpoczęcia projektowania systemu. Partycypację użytkownika zdefiniować można następująco: użytkownik dozorca, który tylko nadzoruje prace nad wdrożeniem systemu, użytkownik o niewielkim udziale w fazie konceptualizacji bez współpracy w gromadzeniu danych i sprawdzeniu systemu, użytkownik aktywny w tworzeniu systemu; uczestnik zespołu wdrożeniowego, użytkownik bardzo aktywny; sam jest wdrażającym. W miarę wzrostu aktywności użytkownika w procesie projektowania i wdrażania systemu, szansa na sukces tej skomplikowanej operacji rośnie. Jeśli użytkownik tylko biernie nadzoruje pracę zespołu wdrożeniowego, to zwiększa się prawdopodobieństwo nie dotrzymania warunków projektowych. Dla zobrazowania złożoności problemu przedstawiono na rysunku IV.38 sześć możliwych zależności powstających na tle wdrożeń. Sytuacja Podajmy sobie ręce i zabierzmy się do roboty, wyraża ducha literatury omawiającej normatywne ujęcia wdrażania i jest niewątpliwie stanem bardzo pożądanym. Usługa z uśmiechem odnosi się do przypadku, kiedy użytkownik kupuje gotowy produkt, a nie usługę. Przypadek Zrób to sam obrazuje niski stopień zainteresowania i partycypacji. Główny wysiłek projektanta polega na przekonaniu użytkownika o potrzebie systemu i zapewnieniu jego udziału. Sprzedawanie używanego samochodu jest sposobem wielce ryzykownym, związanym z wieloma trudnościami przy wdrażaniu. Niemniej wiele innowacyjnych pomysłów, modeli lub możliwości jest implementowanych z zewnątrz do organizacji. Sytuacja, którą nazwano Ponieważ stary tak powiedział, jest dość powszechna i obrazuje wykonanie narzuconego polecenia szefa. Wiele przedsięwzięć realizowanych w ten sposób, o ile nie uzyskało powszechnej akceptacji, zakończyło się niepowodzeniem. Na ogół propozycje wypływające z komórek badań i rozwoju sygnalizują staranne przygoto- 385

386 Wdrażanie systemów informacyjnych wanie nowej koncepcji. Umieszczenie w środku kwadratu wskazuje, że może to wygenerować jedną z pozostałych sytuacji. Rysunek IV.38. Typowe sytuacje wdrożeniowe Źródło: opracowanie na podstawie: Alter S., Information Systems a Management Perspective, Addison-Wesley, W skrócie rozważania możemy podsumować następująco: przypadki 1 i 2 opisują stan, w którym system buduje się dla użytkownika; przypadki 3 i 4 wyrażają intencje wdrażającego sprzedania wyrobu użytkownikowi, nie dbając o to, czego on oczekuje, zaś przypadek 5 wyraża presję na użytkownika, aby wykonał polecenie. Podejście wyrażone w punkcie 1 prowadzi do najkorzystniejszych rezultatów wdrażania, zwykle lepszych niż realizacje zgodne z ideą 2 i 3. Wszystkie trzy podejścia mają przewagę nad sytuacjami 4 i 5. W każdym przypadku wdrażający powinien więc starać się doprowadzić do stanu zaprezentowanego w punkcie 1. Jeżeli chcemy skutecznie wdrażać systemy informacyjne, musimy najpierw określić czynniki mające pozytywny i negatywny wpływ na całość procesu. Pomocą w tym zadaniu są trzy pytania: 1. Jakie czynniki sprzyjają lub utrudniają skuteczne wdrożenie? 2. Jakie należy podjąć działania, jeżeli zaistnieją wspomniane czynniki? 386

387 Zarządzanie i informatyka cz. IV 3. Co determinuje skuteczność takich działań? Wiele systemów musiało być wdrażanych mimo częściowo niesprzyjających warunków. Niezależnie więc od analizy nakładów i wyników, we wstępnej fazie projektowania, należy przeprowadzić analizę ryzyka. Analizę rozpocząć trzeba od określenia idealnych warunków wdrożenia. Odchylenia w stosunku do ideału, powstałe w konkretnych warunkach, będzie można nazwać czynnikami ryzyka, które zmniejszają prawdopodobieństwo skutecznego wdrożenia. Dla każdego czynnika, istotnego w procesie wdrażania, kierownictwo ustala odpowiednią strategię działania. Jeśli nie można zaproponować adekwatnej strategii, dalszą realizację projektu należy zatrzymać, lub jeśli to jest możliwe, odłożyć do czasu wyjaśnienia występujących problemów. W przypadku systemu informacyjnego wdrożenie polega na przekształceniu koncepcji systemu w narzędzie, które może być skutecznie stosowane. Tak rozumiany proces można ocenić za pomocą dwóch kryteriów: stopnia, w jakim spełniono skuteczność działania systemu, lub stopnia trudności, jaki zanotowano przy wysiłkach zmierzających do osiągnięcia celu. W badaniach łatwiej jest uzyskać odpowiedź na pytanie, co działo się podczas wdrażania, niż na pytanie, jaki był cel wdrażania. Dla drugiego kryterium można byłoby sformułować następujące oceny wysiłków wdrożeniowych: wdrożono bez istotnych trudności, trudne wdrożenie, poprzedzone wieloma powtórzeniami i ciężkimi kłopotami. Ponieważ we wdrożeniu bierze udział wiele zespołów, a w skład ich wchodzą osoby o różnych celach i zadaniach oraz o różnej osobowości, to w procesie wdrażania napotykamy konflikty. Według współczesnego stanu wiedzy konflikt jest nieunikniony i powstaje często z nieznanych przyczyn. Zadaniem kierownictwa natomiast, jest kierowanie konfliktem i proponowanie rozwiązań, które prowadzą do optymalnej efektywności organizacji. Często dla zwiększenia efektywności działań, sztucznie wywoływane są konflikty. Zwolennikiem tego podejścia był między innymi T. J. Watson jr., który konflikty wykorzystywał w budowie imperium IBM [Watson, 1994]. Szczególnie istotny jest, według niego, konflikt między linią a sztabem. W przypadku wdrażania systemu informacyjnego będzie to konflikt między zespołem wdrażającym a przyszłymi użytkownikami. Z tym poglądem należy się zgodzić. Im bardziej ostre wymagania obu tych grup, tym większe prawdopodobieństwo, że system będzie spełniał ich wymagania. Zadaniem kierownictwa jest takie oddziaływanie, aby konflikt miał właściwości budujące, a nie niszczące. Podstawowymi źródłami konfliktów w procesie wdrażania systemu są: 387

388 Wdrażanie systemów informacyjnych Podział ograniczonych zasobów, szczególnie finansowych. Różnica w celach i zadaniach. Najostrzej konflikty ujawniają się jeżeli zarysowany jest wyraźnie podział na my i oni. My to ci, którzy płacą i będą korzystać z systemu; oni to ci, którzy realizują wdrożenie i tylko oczekują na pieniądze, a chcą dać jak najmniej organizacji. Często z tych przyczyn trudno jest ustalić programy i cele działań dla obu tych grup. Współzależność pracy. Proces wdrażania jest wieloetapowy i następna grupa nie może przystąpić do realizacji, jeżeli poprzednia nie zakończyła swojej pracy. Przyczyną konfliktu są tu wzajemne oskarżenia o nie wywiązywanie się z zadań. Różnice w poglądach na jakość pracy. Użytkownicy często zarzucają projektantom, że ich praca jest niedbała a dostarczone im instrukcje są niepełne i źle opracowane. Różnica w stylach zarządzania. W pracy stykają się kierownicy stosujący różne style zarządzania np. dyrektywny lub demokratyczny. Na styku ich działań, kiedy każdy jest przekonany o swojej słuszności, mogą powstać konflikty. Różnice w wieku, wykształceniu. Bardzo często projektanci systemów są ludźmi młodymi i wykształconymi w posługiwaniu się sprzętem komputerowym, najczęściej jednak nie znają branży, dla której projektują. Użytkownicy, to ludzie w większości starsi, którzy wykształcenie uzyskali w epoce przed komputerowej bardzo dobrze znają branżę, ale mało orientują się w możliwościach współczesnej informacyjnej technologii. Kiedy obie grupy nie mogą znaleźć wspólnego języka dochodzi do konfliktów. Konflikt może też wystąpić w obrębie grupy, szczególnie kiedy kierownik jest młodszy od podwładnych. Sytuację taką nazwano konfliktem między pampersami a toreben cap (proszek do czyszczenia protez dentystycznych). Błędy organizacyjne. Powstają one na skutek niejasnych i niejednoznacznych zasad pracy w grupie. Konflikty takie mogą również wystąpić, jeżeli kierownictwo przyjmuje niejednoznaczne struktury zarządzania. Wymienione przyczyny są jednymi z najbardziej rozpowszechnionych powodów powstawania konfliktów. Jednak niezależnie od powodu, kierownictwo wdrożenia powinno starać się jak najwcześniej je identyfikować i nie dopuścić do narastania. Zaistniały konflikt może trwać nadal nawet po rozstrzygnięciu jego przyczyny. Dynamika konfliktu powoduje, że przechodzi on z fazy nieporozumień do wrogości. Wrogość może się pojawić wtedy, kiedy kierownictwo w porę nie wyjaśni nieporozumień i nie będzie dbać o to, aby poziom konfliktu był umiarkowany. Kierownictwo procesu wdrożenia musi świadomie stosować metody kierowania konfliktem. Z dotychczasowej praktyki można wywnioskować, że dla problematyki wdrożeniowej najbardziej obiecujące są następujące metody rozwiązywania konfliktów: 388

389 Zarządzanie i informatyka cz. IV Podejście tradycyjne są to metody zmierzające do kompromisu, często z udziałem trzeciej strony. Kompromis zakłada, że obie strony dojdą do porozumienia, jeśli każda zadowoli się osiągnięciem częściowego spełnienia swoich postulatów. Umiejętność dochodzenia do kompromisu jest trudną sztuką. Udział trzeciej strony jako eksperta i rozjemcy jest pożyteczny wtedy, gdy uczestnicy nie mogą samodzielnie osiągnąć kompromisu. W nowoczesnym sposobie rozwiązywania konfliktów preferuje się pozytywne myślenie o sytuacji konfliktowej i koncentrowanie się na współpracy nad jego eliminacją. Takie podejścia określono jako metody integrujące rozwiązanie problemów. Celem działań kierownictwa jest przekształcenie konfliktu we wspólny problem, który dotychczas skonfliktowane strony pragną rozwiązać. Konflikt nie jest więc tłumiony, ani odkładany, ale wszyscy, zdając sobie sprawę z różnicy zdań, pragną znaleźć rozwiązanie możliwe do przyjęcia. Pokonanie konfliktu może nastąpić, między innymi, przez konfrontację lub ustanawianie celów nadrzędnych. W metodzie konfrontacji, która najczęściej występuje między zewnętrznym zespołem wdrażającym a zespołem użytkownika, każda strona bezpośrednio przedstawia swoje stanowisko. Umiejętne prowadzenie rozmów i rozważenie wszystkich argumentów, czyli plusów i minusów, pozwala często dojść do racjonalnego rozwiązania. Dość często jednak każda z nich pozostaje przy swoich racjach wtedy najczęściej sąd musi rozstrzygnąć zaistniały konflikt. Ingerencja sądu powinna być jednak ostatecznością. Powoduje ona w konsekwencji, że obie strony konfliktu ponoszą znaczne straty. Użytkownik nawet jeżeli otrzyma pewną rekompensatę finansową, to najczęściej przyznane sumy nie pokryją w pełni strat. Również nastąpi opóźnienie realizacji unowocześniania systemu informacyjnego. Firma wdrażająca traci na pewno autorytet, nawet jeżeli sąd przyzna jej rację. J. Diebolda, szef międzynarodowej firmy konsultingowej, uważa, że nawet kiedy zgodnie z zawartą umową użytkownik nie ma racji, to firma wdrażająca, w trosce o swój obecny i przyszły wizerunek, powinna zrobić wszystko, aby nie dopuścić do sprawy sądowej. Jest to bardzo dobre stanowisko i powinno być powszechnie stosowane. Integrującą metodą rozwiązywania konfliktu jest przyjęcie wspólnie uzgodnionego celu nadrzędnego integrującego cele skonfliktowanych stron. Takim celem może być wdrożenie nowego rozwiązania np. nowego systemu zarządzania bazą danych. Firma wykonująca oprogramowanie, która pragnie wejść na rynek i legitymować się sukcesem postanawia, że pierwsi użytkownicy będą partycypować w zyskach. Wtedy czują się oni też współautorami sukcesu i są pozytywnie nastawieni na wprowadzenie zmian w systemie zarządzania. Kierownictwo powinno postępować zgodnie z zasadą prewencyjnego kierowania konfliktem. Oznacza to, m.in., dążenie do wysokiej jakości projektu, wszechstronnej analizy potrzeb użytkowników, szkolenia użytkowników i realizatorów całościowego rozwiązania problemów. Podstawowe zasady, które powinny powodować kierownictwem w rozwiązywaniu konfliktów to obok podejścia prewencyjnego dołożenie starań by rozwiązać konflikt najbliżej źródeł jego powstania. Takie postępowanie w konsekwencji powinno nie pozwolić na dynamiczny rozwój konfliktu i utracenie możliwości zarządzania nim. Konflikt, jak było wcześniej powiedziane, może być też jednym z narzędzi prowadzących do sukcesu we wdrażaniu systemu informacyjnego. 389

390 Wdrażanie systemów informacyjnych Czynniki wpływające ba efektywność wdrażania systemu Wprowadzenie zmian organizacyjnych można podzielić na trzy etapy: ETAP I. Rozmrożenie uruchomienie sił oddziałujących na ludzi w ten sposób, że ich dotychczasowa stabilna sytuacja w organizacji ulega istotnemu naruszaniu i wywołuje gotowość do zmian; towarzyszyć temu może wzrastająca presja do zmian lub redukowanie obaw przed zmianami. ETAP II. Wprowadzenie zmian przedstawienie kierunków zmian i uczenie się nowych ról. ETAP III. Zamrożenie integracja zmienionych ról z resztą systemu powiązań międzyludzkich w jeden poprzednio funkcjonujący system interakcji emocjonalnych. Rysunek IV.39. Cykl wdrożenia innowacji w organizacji Źródło: opracowanie własne. Etap rozmrożenia, w którym przy czynnej postawie kierownictwa organizacji, następuje rozbudzenie uczucia potrzeby zmian w funkcjonującym systemie informacyjnym lub dostrzeżenie, że dotychczas funkcjonujący system trzeba zmienić. Obawy przed wdrożeniem zmian byłyby więc sygnałem ostrzegawczym, który pojawia się wcześniej niż następują zmiany. Kierownictwo mając wcześniej sygnał o możliwych oporach może przygotować użytkowników do wprowadzanych zmian tak, aby następny etap był w jak najmniejszym stopniu konfliktogenny. W etapie wprowadzenia zmian następuje przełączenie dotychczasowego systemu na nowy lub też jego zainstalowanie. Etap zamrożenia powinien być homeostatyczny, w którym dotychczasowy odmrożony system musi zmienić się i znaleźć nowy stan równowagi. Oznacza to, że nowy lub zmieniony system informacyjny powinien mieć charakter trwały. W organizacji pojawi się więc nowy stan równowagi. W praktyce czynników wpływających na wdrożenie może być wiele, a ich siła zależy od konkretnej sytuacji. Jeżeli określimy listę czynników, to można przystąpić do tzw. analizy 390

391 Zarządzanie i informatyka cz. IV ryzyka przy wdrażaniu. Analizę tę wykonuje się niezależnie od analizy ekonomicznej prowadzącej do określenia pożądanych warunków wdrażania. Odchylenia, które zaistnieją w stosunku do pożądanych, nazywamy czynnikami ryzyka. Różnice te zmniejszają prawdopodobieństwo skutecznego wdrożenia. Dla każdego czynnika, który jest istotny w procesie wdrażania, ustala się odpowiednią strategię. Jeśli nie można zaproponować strategii, to dalszą realizację projektu należy zatrzymać lub nawet w skrajnych przypadkach odłożyć. Czynniki ryzyka w procesie wdrożenia można pogrupować następująco [Alter, 1992]: 1. wynikające z błędów użytkownika (brak konkretnego użytkownika, zbyt wielka ich liczba i sprzeczności w ich celach, brak środków na realizację systemu, chwiejna polityka kierownictwa), 2. wynikające z błędów wdrażających lub obsługujących (odejście członków zespołu wdrażającego lub całego zespołu i pozostawienie użytkownika własnemu losowi, brak doświadczenia, wadliwe zaplanowanie potrzebnych nakładów, trudności informatyczne). Analizę czynników ryzyka wdrażania możemy przeprowadzić postępując według następującej procedury: Sprawdzić jakie wystąpiły nieprawidłowości w procesie wdrożeniowym lub jakie mogą wkrótce wystąpić. Dla każdej występującej nieprawidłowości zaprojektować działanie korygujące, które umożliwia zmniejszenie odchylenia lub kontrolowanie jego konsekwencji. Jeśli nie można zmniejszyć odchylenia lub jego konsekwencji do granicy tolerowanej, należy przedstawić zainteresowanym stronom ich specyfikę i dążyć do wspólnego rozwiązania. Następnie powinno się opracować ogólne podejście oraz specyficzne działania dla uniknięcia potencjalnych przeszkód. Terminu działania użyto w znaczeniu świadomie obranego kierunku postępowania, prowadzącego do zmniejszenia wpływu czynników ryzyka związanych z konkretną sytuacją wdrożeniową. Trudno byłoby więc uzasadnić znaczenie określonych działań w oderwaniu od kontekstu sytuacyjnego i orzec, że są one właściwe lub niewłaściwe, skuteczne lub nieskuteczne, dobre lub złe. Na przykład fluktuacja osób (pozycja trzecia) stwarza trudności, jeżeli część systemu konstruowano dla konkretnej osoby, a ta odeszła z organizacji. Jeżeli rozwiązań systemowych nie inicjował potencjalny użytkownik, lub jego udział w konstruowaniu sytemu był nikły, albo konstruuje się system dla anonimowego użytkownika, to istnieje jedynie ryzyko jego niechętnego lub nawet wrogiego nastawienia. Omawiany czynnik może być wywołany rozmaitymi okolicznościami. Oto kilka typowych: 391

392 Wdrażanie systemów informacyjnych inicjator wewnętrzny lub zewnętrzny (badacz, konsultant) opracowuje nową procedurę lub metodologię, aby następnie sprzedać ją potencjalnemu użytkownikowi, decydent słyszał o najnowszej technice lub systemie i zaleca wdrożenie go bez opracowania jasnej koncepcji, wdraża się system dla dużej liczby osób, które w większości nie zamierzają zmieniać dotychczasowej praktyki. Zbyt liczni użytkownicy lub wdrażający są przyczyną trudności lub niepowodzeń we wdrażaniu. Często też nadmiar osób wprowadza zamęt i utrudnia komunikowanie się. Oddziaływanie wymienionych czynników na wdrażanie jest zależne od fazy, w której znajduje się system, rodzaju systemu oraz stopnia jego powiązania z konkretną osobą. Etap analizy ryzyka jest pierwszym krokiem na drodze do analizy sytuacji wdrożenia systemu. Następny etap to sformułowanie możliwych działań, które pozwoliłyby pokonać trudności lub zmniejszyć oddziaływanie negatywnych czynników ryzyka. Tak jak w przypadku każdej decyzji, wybór działania dokonuje się po rozważeniu potrzebnych środków, prawdopodobieństwa sukcesu oraz ograniczeń. Etapy analizy ryzyka wdrożenia polegają na decydowaniu o tym, co robić z każdym z czynników ryzyka, jeśli zaistnieje. Na podstawie przeprowadzonych badań można wyróżnić cztery następujące grupy działań: 1. podział systemu na dające się zaprojektować oddzielne części, 2. zmierzanie do odnalezienia rozwiązania możliwie prostego, 3. uzyskania zadowalającego poparcia kierownictwa organizacji, 4. spełnienie potrzeb użytkownika i utrwalenie systemu. Znalezienie rozwiązania możliwie prostego sprowadza się do trzech procedur: Skonstruuj system pilotowy, Zastosuj podejście ewolucyjne, Opracuj zbiór narzędzi. Znaną metodą postępowania w konstruowaniu i wdrażaniu przedsięwzięć jest budowa serii prototypów. W zarządzaniu procesem wdrożeń jest to nowe podejście. Idea tych działań polega na budowie i sprawdzaniu uproszczonej wersji, a następnie przystąpienie do opracowania pełnego systemu (porównaj procedury w punkcie dotyczącym metodologii projektowania). Umożliwia to minimalizowanie ryzyka wydania pieniędzy na system, który może okazać się nieskuteczny lub niemożliwy do zbudowania ze względów technicznych. W większości systemów stosuje się podejście ewolucyjne lub modularne. Świadomie zastosowane podejście ewolucyjne pozwala na szybkie uruchomienie systemu, aby następnie rozbudować go w zależności od potrzeb użytkownika. W ten sposób skraca się 392

393 Zarządzanie i informatyka cz. IV droga sprzężenia zwrotnego między zamiarem a systemem wdrożonym. Wymienione działania są zgodne z omówioną uprzednio strategią pilotową. Strategia systemu pilotowego jest szczególnie pożyteczna w projektach wielkich, zaś podejście ewolucyjne w projektach mniejszych. Podejście ewolucyjne wymaga jednak elastyczności od użytkownika i akceptacji ciągłych zmian. Budowa zbioru narzędzi w postaci baz danych lub małych modeli jest szczególnie pożyteczna przy budowie systemów sprzedaży, planowania itp. Dopuszczenie w systemach możliwości formułowania odpowiedzi na pytania ad hoc wywołuje potrzebę konstruowania baz danych i całych zbiorów małych modeli, które następnie trzeba uzupełniać. Za prostotą rozwiązań przemawia fakt, że prosty system można łatwo zrozumieć i tym samym wdrożyć, kontrolować i modyfikować. Zastosowanie rozwiązania prostego sprowadza się do trzech możliwych dróg postępowania: najprostszego konstruowania, ukrywania złożoności, unikania zmian. 393

394 394 Część V Społeczny, ekonomiczny i prawny kontekst zastosowań ICT

395 15. Społeczny kontekst zastosowań ICT Społeczeństwo informacyjne Kontekst etyczny i społeczna odpowiedzialność Narzędzia informatyczne komunikacji ze społeczeństwem Zagrożenia w budowie społeczeństwa informacyjnego cyberterroryzm 16. Ekonomiczny kontekst zastosowań technologii informacyjnej O ekonomicznej ocenie, czyli efekty i bariery zastosowań ICT Proces decyzyjny wyboru wariantu realizacji ICT Ocena efektywności ekonomicznej zastosowań informatyki rachunek ekonomiczny Systemowa ocena efektywności ekonomicznej zastosowań ICT 17. Prawny kontekst zastosowań technologii informacyjnej 18. Postęp w technologii i zagrożenie kulturowe, czyli przetwarzanie w chmurze 395

396 Rozdział 15 Społeczny kontekst zastosowań ICT Społeczeństwo informacyjne Rozpoczynając rozważania na temat społeczeństwa informacyjnego zastanówmy się: Czy termin społeczeństwo informacyjne to kolejna moda, czy potrzeba? Ja uważam, że jest to wędka, dzięki której społeczeństwo uzyska wiedzę, a ta z kolei doprowadzi do wzrostu innowacyjności i rozwoju naszej gospodarki. Jaki jest cel tworzenia społeczeństwa informacyjnego? Na to pytanie najlepiej odpowiada twórca potęgi Singapuru, mąż stanu, wizjoner, człowiek, którego słuchają najważniejsi ludzie na świecie, liderzy i szefowie państw, czyli Lee Kuan Yew: Najpilniejszym zadaniem jest budowa społeczeństwa, w którym ludzie będą wynagradzani nie z tytułu tego, co posiadają, ale według ich aktywnego wkładu, czy to fizycznego, czy umysłowego w rozwój społeczeństwa. [Lee Kuan Yew 13, 2013, s.132]. Czy jest to temat, którym powinni zajmować się specjaliści ICT? TAK. Bez ICT, jak dalej zostanie wykazane, nie można tworzyć społeczeństwa informacyjnego zgodnego ze wskazaniem Lee Kuan Yewa, niezależnie którą z definicji tego społeczeństwa przyjmiemy. Społeczeństwo informacyjne to efekt procesów globalizacji. I tak wybitny socjolog Paul H. Dembiński [2013] wyróżnia cztery główne siły napędowe globalizacji (tj. wzrost sektora usług, finanse, korporacje transnarodowe i społeczeństwo), znacznie starsze od niej samej, jednak nadal aktualne oraz warunkujące jej sukces. Mówi on o instrumencie globalizacji. Rolę tę odgrywa postęp technologiczny, rozumiany jako rozwój technologii informacyjnej, który radykalnie modyfikuje relacje człowiek otoczenie fizyczne i społeczne. Można powiedzieć, iż proces tworzenia społeczeństwa informacyjnego jest tym, co P. Dembiński nazywa globalną świadomością społeczną. 13 Lee Kuan Yew ojciec założyciel Singapuru. Szef rządu od 1959 do Ekspert z dziedzin finansów i zarządzania. 396

397 Zarządzanie i informatyka cz. V 27 marca 2006 roku Zgromadzenie Ogólne ONZ postanowiło, że 17 maja każdego roku będzie Światowym Dniem Społeczeństwa Informacyjnego. W Polsce dzień ten obchodzony jest od 2007 roku, czyli stosunkowo niedawno. Niniejsza książka dotyczy w zasadniczej części problematyki mikrozarządzania, czyli poziomu przedsiębiorstwa, administracji samorządowej, placówki oświatowej itp. Problematyka makro, czyli całości państwa, jak też problemy zarządzania globalnego zajmują o wiele mniejszą część naszych rozważań. Jednak nie można ich całkowicie pominąć. Zgodnie z zasadami zarządzania organizację należy rozpatrywać wraz z jej powiązaniami w bliższym i dalszym otoczeniu. Pomiędzy problematyką mikro a makro zachodzą bowiem ścisłe powiązania. Jeżeli społeczeństwo jest świadome możliwości, jakie daje zastosowanie systemów informatycznych zarządzania umie je wykorzystać dla wzbogacenia się i łatwości podejmowania decyzji. Każdy z zatrudnionych niezależnie od zajmowanego stanowiska występuje w podwójnej roli: pracownika i członka określonej społeczności. Dzięki ICT wydajność świadomego pracownika jest wyższa, podobnie jak wyższa jest jego świadomość. Możemy powiedzieć wprost: jeżeli obywatele będą aktywnymi członkami, tzw. społeczeństwa informacyjnego, to kraj z pewnością będzie się szybciej rozwijał, zmniejszy się bezrobocie, a ludzie będą bardziej kreatywni i wykształceni. Zgodzić się należy w pełni z J. Czapińskim [2008], że istotnym wymiarem inwestycji w kapitał ludzki są nowoczesne technologie komunikacyjne. Jednak, jak pisze dalej ten sam autor, w molekularnym rozwoju Polski pozostaliśmy mentalnie na poziomie PRL. W dalszym ciągu nie ufamy sobie, nie potrafimy współpracować, nie dbamy o wspólne dobro, pozostajemy najmniej tolerancyjni i najmniej obywatelscy w Europie. Czy społeczeństwo informacyjne to zmieni? Autor książki jest w tej kwestii pełen optymizmu. Co to jest społeczeństwo informacyjne? Pierwsze wzmianki na temat społeczeństwa informacyjnego pojawiły się już w połowie lat sześćdziesiątych w Japonii, gdzie rozwój mikroelektroniki, będącej podstawą techniki cyfrowej, był najszybszy. Termin johoka shakai, czyli społeczeństwo komunikujące się za pośrednictwem komputera (the computermediated communication society) lub po prostu Społeczeństwo Informacyjne, po raz pierwszy został użyty w 1963 roku przez Tadao Umesao. Termin spopularyzował japoński specjalista od mass mediów Kenich Koyama. W roku 1971 Japan Computer Usage Development Insitute przyjął działania mające za zadanie tworzenie społeczeństwa informacyjnego jako cel narodowy. Prof. Yonei Masuda na początku lat siedemdziesiątych w swojej pracy na temat przemian społecznych w powiązaniu z rozwojem sektora informacji użył tego pojęcia. Obecnie istnieje wiele różnego typu określeń, co to jest społeczeństwo informacyjne. J. Nowak w opracowaniu dla PTI sporządził zestaw definicji pojęcia społeczeństwo informacyjne. W większości z nich kładzie się duży nacisk na znaczenie informacji. I Kongres Informatyki Polskiej [1994] określił, iż: Społeczeństwo charakteryzujące się przygotowaniem i zdolnością do użytkowania systemów informatycznych, skomputeryzowane i wykorzystujące usługi telekomunikacji do przesyłania i zdalnego przetwarzania 397

398 Społeczny kontekst zastosowan ICT informacji. Raport M. Bangemanna [1994] uznawany za stanowisko Unii Europejskiej, określał Społeczeństwo Informacyjne jako: rewolucję opartą na informacji ( ) (i) rozwoju technologicznym, (który) pozwala nam teraz przetwarzać, gromadzić, odzyskiwać i przekazywać informacje w dowolnej formie mówionej, pisanej i wizualnej bez względu na odległość, czas i wielkość oraz rewolucja ta oferuje inteligencji ludzkiej nowe, olbrzymie możliwości i ( ) zmienia sposób, w jaki żyjemy i pracujemy. W raporcie tym zawarta jest sugestia, że pierwsze kraje, które wkroczą w erę społeczeństwa informacyjnego uzyskają największe korzyści. Według OECD (Organisation for Economic Co-operation and Development gospodarka jutra w dużym stopniu będzie gospodarką informacyjną, a społeczeństwo będzie w rosnącym stopniu społeczeństwem informacyjnym. Oznacza to, że informacja będzie stanowiła dużą część wartości dodanej większości dóbr i usług, a działalności informacyjnie intensywne będą, w rosnącym stopniu, charakteryzować gospodarstwa domowe i obywateli. Społeczeństwo informacyjne może zostać znalezione na przecięciu, kiedyś odrębnych, przemysłów: telekomunikacyjnego, informatycznego i mediów elektronicznych, bazujących na paradygmacie cyfrowej informacji. Jedną z wiodących sił jest stale rosnąca moc obliczeniowa komputerów oferowanych na rynku, której towarzyszą spadające ceny. Innym elementem jest możliwość łączenia komputerów w sieci, pozwalająca im na dzielenie danych, aplikacji a czasami samej mocy obliczeniowej, na odległości tak małe jak biuro i tak dużej jak planeta. Ten podstawowy model rozproszonej mocy obliczeniowej i szybkich sieci jest sednem społeczeństwa informacyjnego. [za J. Nowakiem]. W literaturze, zarówno naukowej, jak i publicystycznej, bardzo często używa się terminu społeczeństwo informacyjne dla pokazania, iż jest to nowe spojrzenie na problematykę społeczno-gospodarczą, w której dominuje ukierunkowanie na informację, wiedzę i mądrość. Chociaż nie zawsze używa się tego określenia to w domyśle uznaje się, że jest to społeczeństwo demokratyczne. Pojawia się też określenie społeczeństwa elektronicznego, czyli e-society. H. Kubicek [1999] określił społeczeństwo informacyjne, jako formację społeczno-gospodarczą, w której dominującą rolę odgrywa produktywne wykorzystanie zasobu, jakim jest informacja. T. Globan-Klas [1999] uważa, że społeczeństwo informacyjne to takie, które nie tylko posiada rozwinięte środki przetwarzania informacji i komunikacji, lecz środki te są podstawą tworzenia dochodu narodowego i dostarczają źródła utrzymania większości społeczeństwa. Z kolei na stronach internetowych Microsoftu podaje się, że społeczeństwo informacyjne jest to społeczeństwo nowoczesnego wysokorozwiniętego państwa, w którym istnieje rozbudowana infrastruktura teleinformacyjna umożliwiająca społeczeństwu pełen dostęp do usług i informacji. 398

399 Zarządzanie i informatyka cz. V Bardzo syntetyczna jest definicja M. Casey [2001], który pisze Społeczeństwo informacyjne jest to społeczeństwo, w którym informacja jest kluczowym elementem społeczno-ekonomicznej działalności. J. Oleński [2003, s. 15] dla określenia tego stanu używa pojęcia społecznego ładu informacyjnego, który określa następująco: społeczny ład informacyjny rozumiany jako kompleks społecznych norm procesów, systemów i zasobów informacyjnych, na podstawie których funkcjonują społeczeństwa, państwa i gospodarki. Ze względu na analizowaną w książce tematykę projektowania i zastosowań infrastruktury zarządzania uważam, że pojęcie społeczeństwa informacyjnego można również określić biorąc te aspekty pod uwagę następująco: Społeczeństwo informacyjne jest to takie społeczeństwo, które posiada dostęp i umie wykorzystać: informatyczną infrastrukturę, zasoby informacji, zasoby wiedzy dla realizacji zbiorowych i indywidualnych celów w sposób skuteczny oraz ekonomiczny. Stwierdzenie to można uzasadnić następująco: współczesny świat staje w obliczu nowych wyzwań. Związane są one z pojawieniem się nowej jakości naszego życia. Już nie konsumpcja, ale problemy informacji i wiedzy są w centrum naszej uwagi. Współczesna cywilizacja często bywa nazywana cywilizacją informacyjną. W tym nowym społeczeństwie na plan pierwszy wysuwa się informacja. Człowiek staje się wolnym, ponieważ posiada informacje i wiedzę, które to zasoby pozwalają mu na decydowanie o swoim losie. Jak pisze L. Zacher [1997], rewolucja informacyjna, w którą wchodzi rozwinięty świat stwarza niezwykłe szanse dla jednostki i społeczeństwa. Wynika to z faktu, iż zwiększając znacząco możliwości przekazu informacji, stwarza się całkowicie nowe warunki dla komunikowania się i współdziałania. Obdarzony ogromną wyobraźnią, wspominany wcześniej futurolog A. Toffler [1991] pisze o konieczności rozwiązania między innymi takich problemów, jak: elektroniczna autostrada, powstanie monopoli informacyjnych, czy totalna wojna informacyjna. Według L. Groff [1997, s. 16]: cały świat, w różny sposób, ulega restrukturyzacji oraz wpływowi rewolucji informacyjnej. Polska również ulega tym przekształceniom. Polska infrastruktura zarządzania ukształtowała się w wyniku oddziaływania wielu czynników. Można je pogrupować następująco: 1. Potrzeby, które wyniknęły ze zmian politycznych i makroekonomicznych w systemie zarządzania, a szczególnie transformacja z sytemu nakazowo-rozdzielczego związanego z centralnym planowaniem na system zdecentralizowany charakterystyczny dla gospodarki rynkowej. 399

400 Społeczny kontekst zastosowan ICT 2. Postęp techniczny, który w sektorze ICT dokonuje się zarówno w sferze sprzętu komputerowego (hardware), oprogramowania (software) jak i transmisji danych. Pierwsza grupa czynników obrazuje nie tylko sytuację Polski, ale też i innych krajów przechodzących transformację ustrojową, druga natomiast dotyczy wszystkich krajów niezależnie od dokonujących się w nim zmian w systemie zarządzania. Obie te grupy czynników wzajemnie się przeplatają. Analizując przyczyny i konieczność dokonujących się zmian, nie można zapomnieć o relacjach Polski z innymi krajami europejskimi, w których rozwój ICT, a więc wprowadzanie nowoczesnej infrastruktury zarządzania państwem jest o wiele szybsze. Szczególnie dotyczy to krajów wchodzących w skład starej Unii Europejskiej. Konieczność unowocześnienia infrastruktury zarządzania wymuszona jest z przejściem na system gospodarki rynkowej. Dotyczy to powiązań gospodarki polskiej z gospodarką światową, jak na przykład powiązania systemu transportu, bankowego, działanie ponadnarodowych organizacji przemysłowych, handlowych i usługowych. ICT stanowią taki element infrastruktury zarządzania, który może pełnić podwójną rolę, a mianowicie w określonych warunkach powoduje wspomaganie lub opóźnienie procesu podejmowania decyzji na różnych szczeblach zarządzania. Najnowsza historia gospodarcza Polski uczy, że najczęściej był to właśnie element opóźniający. W systemie zarządzania scentralizowanego rola ICT była niewielka. Konsument zadowolony był, że mógł kupić dany produkt. Zasadniczo organizacji było obojętne jak szybko dane informacje z rynku zostaną jej przekazane. Najbardziej istotne było wykonanie poleceń, czyli zrealizowanie planu, a nawet jego przekroczenie. Tak więc, przed infrastrukturą zarządzania stawiane były niezbyt wielkie wymagania. Rola infrastruktury zarządzania w gospodarce zmieniła się wraz z procesem transformacji i przechodzenia do systemu rynkowego. Konkurencyjność, pozycja organizacji na rynku i jej wyniki finansowe zależą od tego, jakie i jak szybko zostaną podjęte decyzje dotyczące jej działania. Dla podjęcia decyzji zarówno strategicznych, jak i operacyjnych niezbędne jest szybkie dostarczenie odpowiednich informacji. Współcześnie ICT nie jest już tylko miarą prestiżu organizacji, ale wyznacznikiem jej pozycji na rynku. Organizacja w świecie gospodarki rynkowej zanurzona jest w ogromnej ilości informacji atakującej ją w każdym momencie i z wielu miejsc. Ponieważ ludzie mają do dyspozycji zbyt dużo informacji, aby z nich skorzystać, dlatego taki stan nazywa się przesytem informacyjnym (information overload). W. Abramowicz [2008] nazywa to zjawisko również smogiem danych lub zmęczeniem informacyjnym. Jak podaje się w różnych źródłach roczna produkcja danych na jednego mieszkańca ziemi wynosiła 250 megabajtów. Problemem jest filtracja i wychwytanie informacji potrzebnych oraz ich przetworzenie, czyli wyłowienie tzw. słabych sygnałów. Większości istniejących na rynku informacji nie da się bezpośrednio wykorzystać w procesie operacyjnego i strategicznego zarządzania. Oznacza to, że informacje te muszą 400

401 Zarządzanie i informatyka cz. V być najpierw ocenione ze względu na ich przydatność dla organizacji, a następnie przetworzone z użyciem odpowiedniej informatycznej infrastruktury. Informacja jest tworzona po to, aby wspomagana organizacja mogła zrealizować postawione przed nią cele. Cele organizacji, i to niezależnie od jej wielkości, wyznaczają jej zamierzenia. W erze tworzenia społeczeństwa informacyjnego rozwój ICT, podobnie jak proces globalizacji, jest czynnikiem obiektywnym. Od polityki państwa i przedsiębiorczości obywateli zależy, czy informatyka będzie czynnikiem przyspieszającym, czy też opóźniającym proces transformacji. Polska, jak wskazywano we wcześniejszych opracowaniach [J. Kisielnicki, 2003, 2004], była krajem, który w okres transformacji wszedł: opóźniony jeśli chodzi o posiadaną infrastrukturę zarządzania i to zarówno pod względem jej nowoczesności, jak i ilości posiadanych komputerów, z niewielką ilością systemów informatycznych, w których byłyby zastosowane nowoczesne rozwiązania relatywnie w porównaniu z innymi krajami tzw. starej Europy, z systemami zarządzania nieprzystającymi do systemów stosowanych w krajach gospodarki rynkowej. Należy postawić hipotezę, że Polska, dążąc do zacieśnienia współpracy gospodarczej, kulturalnej, turystycznej z krajami starej UE, musi jak najszybciej zintensyfikować działania budowy wspólnej przestrzeni informacyjnej. Przestrzeń informacyjna obejmuje między innymi bazy: danych, wiedzy, modeli, obrazów i dźwięku, wraz odpowiednim oprogramowaniem i środkami technicznymi, które umożliwią użytkownikom korzystanie z tych zasobów. Dla osiągnięcia tych celów musimy wydatkować odpowiednie kwoty na ICT. Jak wielkie powinny one być? Na pewno powinny proporcjonalnie odpowiadać kwotom wydatkowym w tych krajach, których poziom życia pragniemy osiągnąć. Oczywiście nakłady na współczesną infrastrukturę zarządzania pokrywane są w większości przez prywatnych przedsiębiorców, ale od administracji państwowej zależy czy dla tego celu zostaną stworzone odpowiednie warunki makroekonomiczne. Jednak wydaje się, iż polityka gospodarcza nie zawsze jest skoordynowana z działaniami zarówno Unii Europejskiej, jak i naszych bezpośrednich sąsiadów. Przeprowadzone badania pod kierunkiem W. Celarego [2003] wykazały, że Polska jest w grupie krajów o najniższym poziomie informatycznej infrastruktury. Sytuacja się nie poprawiła a wręcz przeciwnie. Jak napisano w Gazecie Wyborczej Polska to technologiczny zaścianek Europy [G.W. z ]. Polska, co już wcześniej pisano, należy w Europie do krajów najbardziej opóźnionych jeśli chodzi o wydatki na TI, ale dynamika odrabiania tych strat jest bardzo duża. Pewien optymizm może natomiast wynikać z faktu, że w Polsce w okresie zwielokrotniła się liczba gospodarstw domowych wyposażonych w komputery i czterokrotnie wzrósł odsetek podłączenia ich do Internetu. Teraz na porządku dziennym jest sprezentowanie laptopa z okazji pierwszej komunii świętej. 401

402 Społeczny kontekst zastosowan ICT Konsekwencją posiadania nie najnowszych systemów informacyjnych jest powstanie nowego typu barier związanych z brakiem informacji o możliwościach rozwoju poszczególnych branż i przedsiębiorstw. Efekty negatywne takiej informacyjnej bariery to m.in. spadek konkurencyjności firm polskich w stosunku do firm pochodzących z tych krajów, które taką nowoczesną informatyczną infrastrukturę posiadają. Problematyka ta jest przedmiotem obrad m.in. na Information Society Forum (ISF). Forum to, powołano w 1995 roku jako niezależne ciało doradcze Komisji Europejskiej, którego zadaniem jest wyciąganie wniosków i formułowanie zaleceń dla wszystkich instytucji Europejskich. Według prac Komisji i opracowanego przez nią raportu wydatki na ICT są niezbędne dla realizacji Europejskiej Drogi do Społeczeństwa Informacyjnego. Europejska droga to stawianie na silny rynek, nieustanną innowacyjność oraz wolny przepływ informacji i wiedzy. Diagnoza ta znalazła odbicie w opracowanym i już cytowanym tzw. raporcie M. Bangemanna [1994], gdzie podkreślano konieczność rozwoju takich narzędzi ICT jak między innymi: sieci cyfrowe z integracją usług, sieci szerokopasmowe, czyli budowa wspomnianego już Internetu szerokopasmowego, komunikacja satelitarna. Brak takich narzędzi oznacza trudności w komunikacji i współpracy nie tylko gospodarczej, ale także kulturalnej i naukowej. Polska, w działaniach mających na celu przejście do gospodarki informacyjnej i tworzenie globalnego społeczeństwa, ma wiele do zrobienia. W Polsce możliwości, jakie niesie ze sobą technologia informacyjna są dużą szansą dla rozwoju przedsiębiorczości i przyspieszenia procesu gospodarczej integracji krajów Unii Europejskiej. Globalne strategie organizacji mogą być w pełniejszy i łatwiejszy sposób realizowane dzięki gospodarce elektronicznej. Polska i inne kraje Europy Środkowo-Wschodniej korzystając z gospodarki elektronicznej mają większe możliwości stania się konkurencyjnymi i kreatywnymi, niż w przypadku dotychczasowej tradycyjnej gospodarki rynkowej. Powstanie gospodarki elektronicznej jest wynikiem rozwoju informacyjnej technologii. Dzięki gospodarce elektronicznej organizacje tej części Europy zyskują możliwość działania zarówno w wymiarze lokalnym, jak i globalnym. Rozwój gospodarki elektronicznej to szansa wzrostu konkurencyjności tak małych, jak i dużych organizacji na rynku globalnym bez względu na ich lokalizację. Jednak obok szans pojawiają się też nowe zagrożenia. Jak stwierdza G. Yip [1996] umiejętność opracowania i realizacja strategii globalnej jest prawdziwym testem sprawności zarządzania organizacją. Na całym świecie poszczególne organizacje dążą w stronę globalizacji rozumianej jako ekspansja na rynki zagraniczne. Problematyka ta jest tym bardziej aktualna, że niezależnie od tego, czy poszczególne osoby chcą globalizacji czy też są jej przeciwne jest to naturalna droga rozwoju niemal wszystkich działów i gałęzi gospodarki narodowej. 402

403 Zarządzanie i informatyka cz. V Spośród wszystkich decyzji dotyczących tworzenia społeczeństwa informacyjnego oraz unowocześnienia funkcjonowania organizacji, właśnie decyzje dotyczące komputeryzacji systemów informacyjnych, czyli zastosowania systemów informatycznych zarządzania (MIS), wzbudzają największe kontrowersje. Jak pisze L. Zacher [2007] te systemy jednak decydują o powodzeniu procesu transformacji i są jego największą siłą. Rysunek V.1. Główne siły kształtujące społeczeństwo informacyjne Źródło: M. Goliński, Społeczeństwo informacyjne często (nie)zadawane pytania, E-mentor nr 2 (9)/ Społeczeństwo informacyjne kształtuje się pod wpływem wymienionych na rysunku sił, które oddziałują na proces powstawania nowej formacji cywilizacyjnej z różną siłą i w różnych kierunkach. Tak więc problematyka SI jest bardzo złożona i ma charakter interdyscyplinarny. Jest obiektem zainteresowania informatyki (a szczególnie informatyki gospodarczej), nauk inżynierskich, nauk ekonomicznych, socjologii, nauk politycznych i prawa. Wszystkie te dziedziny wiedzy mogą okazać się przydatne w procesie analizowania zagadnień SI. Wykorzystywane w nich narzędzia i metody badawcze mogą przyczynić się do pełniejszej analizy omawianych zagadnień, a w przyszłości, być może, do stworzenia kompleksowej teorii SI. Wydaje się jednak, iż najważniejszych narzędzi opisu problematyki SI dostarczyć może statystyka. Ilościowy opis różnorakich aspektów SI będzie bardzo pomocny lub nawet niezbędny, praktycznie wszystkim zainteresowanym dyscyplinom naukowym. H. Kubicek [2001] proponuje model warstwowy, którego jądrem jest informacyjna technologia IT. Sfera techniczna otoczona jest przez warstwę zjawisk związanych z gospo- 403

404 Społeczny kontekst zastosowan ICT darczym wykorzystaniem IT, która z kolei otoczona jest przez warstwę zjawisk o charakterze społecznym, kulturowym i politycznym. Rysunek V.2. Warstwowy model pojęcia społeczeństwa informacyjnego Źródło: H. Kubicek, Möglichkeiten und Gefahren der Informationsgesellschaft, Opracowany przez Ministerstwo Cyfryzacji i Administracji raport pt. Społeczeństwo informacyjne w liczbach 2013 zbiera najnowsze informacje o kompetencjach cyfrowych Polaków, dostępie do sieci, potencjale edukacyjnym polskich szkół, wykorzystaniu nowych narzędzi do działań społecznych czy konsultacyjnych. Według niego umiejętności internetowe młodych Polaków są dziś powyżej europejskiej średniej. Jednak ciągle 60% mieszkańców naszego kraju nie potrafi obsługiwać komputera lub umie wykonać na nim jedną lub dwie czynności. Dotyczy to zwłaszcza osób dojrzałych, ciągle aktywnych zawodowo. Raport wskazuje na ogromny potencjał polskiego sektora nauczania: jego pracownicy mają znacząco wyższe kompetencje informatyczne niż średnia. By z tego potencjału skorzystać, Polacy muszą jednak nauczyć się uczyć przez całe życie a nie tylko w czasie edukacji formalnej. Na razie kształci się tylko 4,5% z nas. W sektorze ICT działa już ponad 50 tys. firm. W Polsce prawie wszystkie przedsiębiorstwa duże i średnie korzystają z komputerów oraz z Internetu. Tylko około 3,5% małych firm nie używa komputerów, a 5% nie ma dostępu do Internetu. W 2010 r. stałe łącze szerokopasmowe z Internetem posiadało 66% przedsiębiorstw w Polsce i 85% firm w Unii Europejskiej. Wskaźnik dla Polski osiągnął więc niemal 80% średniej unijnej, podczas gdy w roku 2004 było to 60%. Odsetek firm z szerokopasmowym dostępem do Internetu rośnie w Polsce szybciej niż w UE, chociaż cały czas do średniej unijnej nam brakuje. W 2010 r. odnotowaliśmy niemal najwyższy w Unii, 25- procentowy przyrost wartości sektora ICT (w sumie to 27 mld zł). Nadal jednak sektor ICT ma mały udział w całej gospodarce (3,15%). Jeśli zaś chodzi o wykorzystanie nowych technologii w całej gospodarce, z raportu wynika, że najwięcej do zrobienia mają małe i śred- 404

405 Zarządzanie i informatyka cz. V nie przedsiębiorstwa. To jest też ich wielka szansa. Dostęp do komputerów jest w naszych firmach prawie na poziomie średniej unijnej. Natomiast poniżej jest wykorzystanie dostępu do Internetu. Nie najlepiej polskie firmy wypadają w rankingach prezentujących wykorzystania ICT do wspomagania procesów wewnętrznych. Zakres usług administracji publicznej stale rośnie. Przy tym usługi dla biznesu są znacznie lepiej rozwinięte niż te dla obywateli. To dlatego w życiu codziennym rzadko zauważamy e-usługi i rzadko z nich korzystamy. Raport zauważa jednak, że obywatele są coraz bardziej gotowi do tego nowego rodzaju kontaktu z administracją. Społeczeństwo informacyjne według Raportu MAC oznacza społeczeństwo, które korzysta z nowoczesnych technologii w pracy, w domu, do komunikacji z urzędami itp. Informatyzacja to nowa jakość w działaniu społeczeństwa obywatelskiego, która w prosty i tani sposób może zrewolucjonizować (przyśpieszyć, rozjaśnić) działanie urzędów i ich kontakty z obywatelami, stwarza podstawy dla ruchu obywatelskiego, organizacji pozarządowych, stowarzyszeń itd. Uważa się, że nowoczesne technologie komunikacji nie mogą w żadnym wypadku być narzędziem w niczyich rękach i, tak jak dobra kultury, ich wartość rośnie wraz z liczbą ludzi, którzy mają do nich nieskrępowany dostęp. Jest to zgodne z opinią W. Celarego [2013]: Technologia znosi ograniczenia, a kultura je nakłada. Uważa się, że wszystkie dokumenty i dzieła wytworzone za publiczne pieniądze nie powinny być chronione przed kopiowaniem i rozpowszechnianiem oraz powinny być tworzone przy użyciu otwartych standardów (najlepiej ISO). Jest to szczególnie istotne z punktu dostępu społeczeństwa do informacji naukowej i technicznej. Bardzo często i słusznie krytykujemy, iż za mało środków jest przeznaczonych w Polsce na badania naukowe i edukację [B. Galwas, 2010]. Jest to szczególnie istotne teraz, gdy jesteśmy w okresie budowy społeczeństwa informacyjnego i doganiania stale uciekających starych krajów Unii Europejskiej. Jednak równocześnie można zadać pytania: Czy dobrze wykorzystujemy posiadany kapitał intelektualny? Czy umiemy czerpać wiedzę z istniejących światowych jej zasobów? Jakie należy podejmować działania, aby pozycja Polski była odpowiednia do naszych aspiracji? Jak na transfer nauki wpłynęły możliwości, jakie uzyskano w wyniku istnienia globalnych sieci, czyli cyberprzestrzeni? Oczywiście pytania na ten temat można mnożyć. Stanowisko UKIE, Urząd Komitetu Integracji Europejskiej, głosi, że Społeczeństwo Informacyjne to nowy typ społeczeństwa, który ukształtował się w krajach, w których rozwój nowoczesnych technologii teleinformatycznych osiągnął bardzo szybkie tempo. Podstawowymi warunkami, jakie muszą być spełnione, aby społeczeństwo można było uznać za informacyjne, jest rozbudowana nowoczesna sieć telekomunikacyjna, która swoim zasięgiem obejmowałaby wszystkich obywateli oraz rozbudowane zasoby informacyjne dostępne publicznie. Ważnym aspektem jest również kształcenie społeczeństwa w kierunku dalszego rozwoju, tak by wszyscy mogli w pełni wykorzystywać możliwości jakie dają środki masowej komunikacji i informacji. 405

406 Społeczny kontekst zastosowan ICT. Cele Społeczeństwa Informacyjnego według UKIE Internet jako środek komunikacji obywatelskiej i informacji publicznej. Powszechny dostęp do informacji. Edukacja. Ogromne zasoby informacji kreowane na całym świecie będą bezużyteczne, jeżeli nie zostaną udostępnione społeczeństwu. Właśnie wykorzystanie posiadanych zasobów może przyczynić się do tworzenia społeczeństwa informacyjnego. Udostępnianie źródeł informacji naukowej za pośrednictwem Internetu rozpoczęło się w latach dziewięćdziesiątych. Od tego czasu świat wydawniczy zmienił się diametralnie. Dotyczy to zarówno rynku publikacji beletrystycznych, jak i źródeł informacji naukowych. Rozwój Internetu doprowadził do zmiany podejścia do zagadnienia dostępności wiedzy, a wraz z tym do zmiany zrozumienia roli wydawnictw, bibliotek i pośredników (firm dystrybucyjnych, księgarni itd.). Jak pisze I. Księżopolska [2011] pojawienie się wersji elektronicznej publikacji zmusiło wydawnictwa do wprowadzenia nowych form sprzedaży, nowych modeli dostępu do wiedzy przez licencjonowanie zasobów instytucjom naukowym oraz krótkoterminowe dostępy do poszczególnych artykułów (Pay-per-view). W przypadku książek naukowych potrzeby rynku wymogły na wydawcach wprowadzenie zróżnicowanych i wyrafinowanych modeli i form dostępu, np. sprzedaży na własność poszczególnych książek, udostępnianie na określony czas kolekcji książek (rodzaj prenumeraty) lub ciekawa forma wypożyczania książek zgodnie z potrzebami czytelników biblioteki (krótko- lub długoterminowe, tzw. readerdriven acquisition). Potrzeba integrowania zasobów doprowadziła do powstania agregatorów wiedzy, baz danych pełnotekstowych czasopism, książek, protokołów i referatów konferencyjnych. Następnym wyzwaniem było zbudowanie odpowiednich narzędzi zarządzania ogromnymi zasobami informacji od różnych dostawców. Odpowiedzią na to są platformy dostępowe, pozwalające integrować zasoby pochodzące od różnych dostawców. Kolejnym krokiem jest zapewnienie rozwiązań do przeszukiwania zintegrowanej zawartości, w wyniku czego powstało pojęcie federated search solution narzędzia, pozwalającego na opracowywanie kwerend wyszukiwawczych w zasobach różnych wydawców, umiejscowionych na różnych platformach, objętych licencjami ze zróżnicowanymi prawami dostępu do informacji. Dodatkowym wyzwaniem jest zjawisko plagiatu, które w społeczeństwie informacyjnym stanowi poważne zagrożenie dla jakości prac naukowych. Kolejnym zapotrzebowaniem na dynamicznym rynku zasobów elektronicznych są narzędzia 406

407 Zarządzanie i informatyka cz. V współpracujące z tekstami elektronicznymi w różnej formie i pozwalające na wykrywanie plagiatu w nowych pracach naukowych. Według oceny Research Information Network, około 96% czasopism z dziedzin nauk ścisłych i medycyny oraz blisko 86% tytułów z dziedzin humanistyki i nauk społecznych udostępnianych jest w wersji on-line [C. Gray, 2011]. Wydawcy również poświęcają duże nakłady na digitalizację swoich zasobów historycznych, które następnie są oferowane jako Deep Archives w ramach odrębnej licencji. Obecnie dyskusja dotycząca udostępnienia informacji zdominowana jest przez dwa tematy: Open Access oraz wypożyczanie e-booków. Inicjatywa Open Access ma ogromny wpływ na wydawców czasopism komercyjnych, stanowiąc de facto konkurencję dla tradycyjnych modeli biznesowych w sprzedaży czasopism naukowych. Problematyka związana z wypożyczaniem książek w wersji elektronicznej łączy się nie tylko z zagrożeniem piractwem, ale również z potrzebą odnalezienia adekwatnego zastępstwa dla modelu wypożyczania książki tradycyjnej. Przy publikacji drukowanej adopcja podręcznika na potrzeby kursu przez uczelnię stanowiła znaczną część dochodu wydawców akademickich. Wprowadzając na rynek elektroniczny odpowiednik podręcznika wydawca poszukuje modelu pozwalającego zachować poprzedni obrót, nie odbierając użytkownikowi korzyści płynących z posiadania e-booka [F. Woof, 2011, s. 17]. Rynek źródeł elektronicznych nie tylko jest dynamiczny, ale również dość dobrze zorganizowany i bardzo zróżnicowany [I. Księżopolska, 2011].Większość wydawców stara się chronić swój obrót w publikacjach drukowanych przed kanibalizacją ze strony elektronicznych odpowiedników. W związku z tym, chociaż koszt wytwarzania publikacji elektronicznych jest znacznie niższy, niż przy tradycyjnej działalności wydawniczej, ceny książek i czasopism w wersji on-line są porównywalne z cenami wersji drukowanych. Przy czasopismach wersja on-line kosztuje średnio 95% ceny wersji drukowanej. Przy książkach, cena zależy od warunków licencji. Standardem jest zachowanie tych samych cen dla pozycji drukowanych i elektronicznych, a w niektórych przypadkach cena książki on-line z nieograniczonym dostępem sieciowym wynosi dwukrotność ceny pozycji drukowanej. Oczywiście problemów związanych z dostępem społeczeństwa do zasobów informacyjnych jest wiele. Na zakończenie tego punktu chcemy zwrócić uwagę na ograniczenie w tworzeniu społeczeństwa informacyjnego, o których pisze wspomniany wcześniej Lee Kuan Yew [2013 s. 131], Tylko sprawny i skuteczny rząd może zapewnić ramy, umożliwiające ludziom spełnienie ich potrzeb. Ale to już nie temat tej książki i przyznaję ja się na tym nie znam. 407

408 Społeczny kontekst zastosowan ICT 15.2 Kontekst etyczny i społeczna odpowiedzialność W tworzeniu społeczeństwa informacyjnego należy brać pod uwagę bardzo istotne, a nie zawsze doceniane, zagadnienia etyki. Dotyczy ona zasad postępowania wszystkich biorących udział w tworzeniu i korzystaniu ze zdobyczy, które uzyskujemy w wyniku powstania nowego typu społeczeństwa, czyli społeczeństwa informacyjnego. ICT daje narzędzie bardzo mocne, ale używając słów profesora Tadeusza Kotarbińskiego czy używamy jej do realizacji celów godziwych. Czy nie robimy komuś przykrości? Czy jesteśmy asertywni? Czy osoba, rodzina, organizacja, Polska nie poniesie strat moralnych, finansowych, prestiżowych? I na koniec: Czy jesteśmy etyczni? Etyka w zarządzaniu [wg R. Griffina, 1996] zajmuje się normami zachowań, którymi kierują się poszczególni kierownicy w swojej pracy. Problematyka ta jest szersza niż określa się w definicji R, Griffina, ponieważ interesuje nas zachowanie całej organizacji i jej otoczenia w kontekście funkcjonowania społeczeństwa informacyjnego. Oczywiście na to zachowanie wpływają nie tylko poszczególni kierownicy, ale też właściciele, pracownicy, klienci, dostawcy, chociaż w różny sposób. Takie podejście zgodne jest z poglądami T. M. Garieta i R. J. Klonowskiego [1986]. Wymieniają oni następujące trzy dziedziny, którymi szczególnie interesuje się etyka zarządzania, a mianowicie: 1. stosunek organizacji do pracownika, 2. stosunek pracownika do organizacji, 3. stosunek organizacji do innych podmiotów gospodarczych, a szczególnie do klientów i organizacji współdziałających. Jak pisze E. Sternberg [1998] etyka zarządzania nie jest zewnętrzną opcją skierowaną przeciwko biznesowi, ale rygorystycznym, analitycznym narzędziem działań gospodarczych. Jednym ze sposobów mierzenia wartości etyki zarządzania dla działań gospodarczych jest szkoda, jaką może wyrządzić jej brak. Funkcjonowanie systemu informacyjnego, jak też powstanie nowych form działalności elektronicznego biznesu, np. przedst a- wiona wcześniej organizacja wirtualna, powodują powstanie nowych nieobserwowanych dotychczas problemów. W tradycyjnej organizacji wszelkie formy współpracy i realizacji zamówień przechodzą dość długą drogę negocjacji, w którą zaangażowani są rozmaici specjaliści, w tym praktycy. W przypadkach wątpliwych, co do wiarygodności partnera, zbiera się dodatkowe informacje o nim, np. korzystając z wywiadowni gospodarczej lub z rejestru sądowego. W elektronicznym biznesie i konstruowaniu z pomocą systemu informacyjnego organizacji wirtualnych, procedury tworzenia są bardzo uproszczone. Organizacje działają często bez umów prawnych. Właśnie ta szybkość podejmowania decyzji sprzyja przyłączaniu się organizacji, których postępowanie nie jest zgodne 408

409 Zarządzanie i informatyka cz. V z przyjętymi normami etycznymi. 14 Tak więc to, co jest pozytywem (szybkość działań) może być negatywem. Z systemu informacyjnego korzysta wielu użytkowników, szczególnie z systemów globalnych, a to dzięki Internetowi. W procesie przesyłania i generowania informacji biorą udział organizacje, których zasady etyczne różnią się. I tak analizując funkcjonowanie organizacji wirtualnej dla handlu nieruchomościami (przedstawionej uprzednio) napotkano na barierę związaną z różnicami kulturowymi, a tym samym z różną interpretacją pojęcia etyki biznesowej. Jeżeli bowiem dla realizacji zamówienia polskiego klienta tworzy się organizację wirtualną z państwem leżącym w innym kręgu kulturowym, niż europejski, to powstaje pytanie: czy menedżerowie obu tych organizacji przestrzegają tych samych norm zachowań? Można stwierdzić, że są pewne wartości uniwersalne, ale są też zachowania specyficzne tylko dla danego kręgu kulturowego. Etyczne lub nieetyczne zachowania organizacji zdarzają się w określonym sprzyjającym kontekście. Słabością organizacji wirtualnych jest to, że najczęściej nieznane są konteksty organizacyjne powiązanych w ten sposób organizacji, co oczywiście sprzyja nieetycznemu zachowaniu. Na każdą organizację, która rozważa celowość korzystania z obcego systemu informacyjnego działają dwie siły: chęć pozyskania dodatkowego zysku wynikającego z tego, że można zrealizować dodatkowe zadania, których samodzielnie nie można było wykonać, obawa, że na skutek nieetycznego zachowania się któregoś z ogniw tworzącego system, nastąpi zmniejszenie spodziewanego efektu, a w krańcowych przypadkach zamiast zysku zostaną poniesione straty. Wśród menedżerów i studentów przeprowadzono badania obaw o etyczne i nieetyczne działania związane z funkcjonowaniem organizacji wirtualnych [J. Kisielnicki, 1999 oraz J. Kisielnicki i T. Ochinowski, 2006]. Elektorat podzielono na następujące grupy: klienci, dostawcy, pracownicy, banki, pracownicy administracji rządowej, inwestorzy, pracownicy uczelni. Podstawą zaliczenia badanych do określonej grupy było ich samookreślenie, czyli każdy badany mógł się sam zdeklarować, do której grupy jego zdaniem się zalicza. Wszystkim badanym zadano te same dwa pytania: Który typ organizacji (tradycyjną czy wirtualną) uważasz za bardziej wiarygodną? Z którym typem organizacji (tradycyjna czy wirtualną) wiązałeś swoje nadzieje na przyszłość? 14 NORMA MORALNOŚCI (łac. norma prawidło, przepis, reguła) kryterium dobra i zła, określające dobroć moralną czynu, decydujące o charakterze uprawianej etyki, o tym, czy jest to etyka hedonistyczna, utylitarystyczna czy personalistyczna. Tadeusz Biesaga [ 409

410 Społeczny kontekst zastosowan ICT Z badań wynika, że większość obaw dotyczy właśnie sfery możliwego nieetycznego działania tego typu organizacji. Tylko studenci, którzy występują zarówno w roli pracowników organizacji wirtualnej, jak i przyszłych klientów, nie podnoszą tak ostro problemu ich nieetycznego funkcjonowania. Uważają, że przecież istnieją już coraz lepsze metody zabezpieczeń spotykane w wirtualnych bankach i sklepach internetowych. Podkreślają natomiast możliwość rozpoczęcia biznesowej działalności nawet z bardzo małym początkowym kapitałem. Jednak nie ma tu, jak w poprzednich grupach, jasno spolaryzowanego stanowiska. Nie wysuwa się zastrzeżeń etycznych, ale to, że znaczna grupa studentów uważa, iż ze względu na karierę zawodową lepiej pracować w stabilnej i znanej organizacji. W klasie problemów etyki zarządzania związanych z funkcjonowaniem organizacji wirtualnej, które są też typowe dla transakcji dokonywanych przez Internet, są artykułowane między innymi obawy przed: niewykonywaniem przez organizację powiązaną wirtualnie zobowiązań względem drugiej, pojawienie się organizacji, która ma za zadanie skompromitowanie partnera i w zasadzie reprezentuje interesy konkurenta, możliwością postępowania niezgodnego z interesami własnego kraju, na przykład organizacja innego kraju w ten sposób pragnie ominąć embarga lub inne ograniczenia prawne.. Można w tym miejscu zadać pytanie: czy takie obawy o nieetyczne działania dotyczą tylko organizacji wirtualnych a nie są też typowe dla wielu organizacji tradycyjnych? Odpowiedź jest pozytywna. Jednak, co starano się pokazać, to w organizacji wirtualnej istnieją sprzyjające okoliczności ku działaniu nieetycznemu. Wynikają one między innymi z faktów, o których była mowa, a więc: szybkości działania, braku wcześniejszej znajomości partnera, tworzeniu organizacji ad hoc dla realizacji tylko jednego przedsięwzięcia, braku odpowiednich uregulowań prawnych. Generalną obawą, która pojawia się przy analizie funkcjonowania organizacji wirtualnej jest to, że sprawca nieetycznego postępowania sam nie poniesie żadnych konsekwencji. Mogą je natomiast ponieść ci, którzy działali w dobrej wierze i realizowali zadanie wraz z nieetyczną organizacją. Jedną z takich konsekwencji są, na przykład działania polegające na tzw. psuciu marki. Marka produktu pozwala na jego identyfikację. Klient kupuje najczęściej tylko te produkty, do których marek ma zaufanie. Dlatego też działania, które wpływają na podważenie tego zaufania, prowadzić mogą do bankructwa firmy. Przykła- 410

411 Zarządzanie i informatyka cz. V dem braku etyki, opisanym w lutym 2008 w Gazecie Wyborczej w wydaniu Katowickim, jest nadużywanie możliwości, jakie daje Internet, a zwłaszcza nowe technologie opisanego już wcześniej WEB 2. Nastolatka (11-letnia) od koleżanek dowiedziała się, że ma na portalu Nasza Klasa konto. Na nim jest ogłoszenie, że można ją wypożyczyć na noc. Wpadła w rozpacz. Taka wiadomość to głęboki szok dla dziecka. Może skutkować, na przykład, lękiem przed Internetem czy poczuciem, że świat jest zły i wrogi mówi psycholożka prof. Katarzyna Popiołek. Konto, które 11-latka sama utworzyła miesiąc wcześniej, prezentowało się normalnie było imię, nazwisko, zdjęcie i numer telefonu. Okazało się jednak, że ktoś założył dziewczynce drugie. Tu znalazła już nie tylko dane, które sama podała w Internecie, był też dokładny adres, telefon domowy, numer GG i przede wszystkim wulgarny komentarz. Czekam na oferty chłopców z kasą, ale pamiętaj, nie jestem tania. Dziewczynka wpadła w rozpacz. Nagle usłyszałam spazmatyczny płacz. Nie mogła się opanować, całą noc nie spała, wymiotowała, rano nie poszła do szkoły ze wstydu i strachu pani Barbara, matka dziewczynki opowiada o tym drżącym głosem Do tej pory jej córka nie chce spać sama, ani sama wychodzić z domu. Mama odprowadza ją i odbiera ze szkoły. W szkole nadal nikt nie może zrozumieć, kto mógł chcieć zrobić krzywdę wrażliwej, spokojnej, lubianej przez wszystkich dziewczynce. Gdy informacja się rozniosła, jej koleżanki i koledzy zarzucili Naszą klasę komentarzami atakowali twórcę fałszywego konta i apelowali o usunięcie kłamstw. Autor fałszywego konta miał tyle tupetu, żeby usuwać te komentarze i dopisywać kolejne swoje oczywiście wulgarne denerwuje się pani Barbara. Mama zaczęła działać od razu. Najłatwiej poszło wyjaśnienie sprawy w szkole tu nikt nie miał wątpliwości, że dziewczynka z całą pewnością nie składała erotycznych ofert, że jest ofiarą, której trzeba pomóc. Potem było już trudniej. Pani Barbara napisała na adres podany na stronie Naszej klasy z prośbą o jak najszybsze usunięcie fałszywego konta. Ponieważ nie było odpowiedzi, wysyłała kolejne. Po tygodniu, już normalną pocztą, wysłała list na adres spółki prowadzącej portal za potwierdzeniem odbioru. Potwierdzenie przyszło, ale odpowiedzi nadal nie było. Nie lepiej poszło na policji. Zostałam odesłana z kwitkiem, powiedziano mi, że najpierw muszę z tym iść do sądu. Zrobiłam to, ale wiadomo, że tą drogą problemu raczej szybko się nie rozwiąże. Jeżeli policjanci uznają, że sprawa ma znamiona przestępstwa, to zaczynają postępowanie. Jeśli jednak to sprawa ścigana z oskarżenia prywatnego, to wtedy zaczyna się od sądu. Innej drogi nie ma tłumaczy asp. Bogdan Kołodziej z komendy policji w mieście, w którym mieszka dziewczynka. 411

412 Społeczny kontekst zastosowan ICT Znajoma nauczycielka, która z uczniami na lekcjach rozmawiała kiedyś o cyberprzemocy podała jej adres serwisu helpline.org.pl, który zajmuje się pomaganiem małoletnim ofiarom nadużyć w sieci. Administrator ponosi odpowiedzialność za treści zawarte na stronie. My też napisaliśmy maile do Naszej-Klasy (pisze dziennikarz Gazety Wyborczej) z prośbą o szybką interwencję. Odpowiedź, że sprawa została skierowana do pilnego rozpatrzenia, przyszła wczoraj w nocy. Niepokojące jest to, że załatwienie tej sprawy wymagało tylu starań mówi Katarzyna Fenik z portalu help-line. Rano konto jeszcze było, w południe w końcu zniknęło. Dwa tygodnie po wysłaniu pierwszego maila przez mamę! Dlaczego to trwa tak długo? Wszystkiemu winna popularność portalu. Dostajemy dziennie 5 tys. maili, spośród nich staramy się jak najsprawniej wyłuskać te, które związane są z kwestią nadużyć. One mają priorytet. W dziale obsługi użytkownika zatrudniliśmy już dodatkowe osoby, teraz się szkolą, niedługo wszystko będzie działać szybciej zapewnia Joanna Gajewska, rzeczniczka portalu. Psycholożka prof. Katarzyna Popiołek nie ma wątpliwości, że koszty emocjonalne sytuacji, która przytrafiła się 11-latce, mogą być ogromne. Dziecko reaguje bardzo emocjonalnie, bo nie potrafi pozwolić sobie jak dorosły na dystans, wynikający ze znajomości praw rządzących Internetem. Może mieć poczucie, że świat i wszyscy ludzie są okropni, i że nikt nie jest w stanie go obronić przed tym całym złem i wrogością. Może odczuwać lęk przed Internetem, komputerem, przed wystąpieniami publicznymi, obcymi ludźmi, mieć problemy z autoprezentacją To była sytuacja nastolatki. W konsekwencji działań nieetycznych, rozgoryczony znakomity reżyser filmowy senator Kazimierz Kutz w wywiadzie w G.W. z 16.II.2008 mówi Zresztą Internet to spluwaczka. Jak komuś ulży, że na mnie splunie to niech mu będzie. Autor też zetknął się z napisaną o sobie w Internecie opinią, że na wykładzie tylko czyta swoją książkę. Po miesiącu przyszedł od studenta, że pomylił nazwiska i mnie przeprasza. Jednak trzeba przyznać, że to są na szczęście wypadki sporadyczne. Jednak jak mówi polskie przysłowie łyżka dziegciu może popsuć beczkę miodu. W realizacji zmian istotne jest zbadanie, jak dokonujące się zmiany wpłyną na nasze otoczenie, czy przyniosą korzyści społeczeństwu a może wręcz spowodują zagrożenia. Z problemami etyki łączy się społeczna odpowiedzialność (przedsiębiorstwa, firmy) określana skrótem angielskim CSR Corporate Social Responsibility. Jest to koncepcja, według której organizacje w budowie strategii, jak i w swojej dzielności operacyjnej, czyli w zarządzaniu zmianami uwzględniają: interesy społeczne, a także relacje z różnymi grupami społecznymi. Według autorów pracy o społecznej odpowiedzialności biznesu [M. Berneta, J. Bogdnienko, T. Skoczny (red.), 2011] jest to koncepcja, która zakłada konieczność uwzględ- 412

413 Zarządzanie i informatyka cz. V nienia przez przedsiębiorców skutków działalności gospodarczej, związanych z funkcjonowaniem przedsiębiorcy w określonym środowisku społecznym i naturalnym. Każde przedsiębiorstwo, jak pisze B. Rok [2011], może angażować się społecznie, by kształtować kapitał społeczny, doskonalić system zarządzania, by budować kapitał organizacyjny, wdrażać innowacyjne rozwiązania na rzecz wspólnego dobra. Społeczna odpowiedzialności biznesu ma charakter strategiczny i dotyczy ciągłej analizy zachodzących w społeczeństwie zmian tak, by jak najlepiej zaspokajać te potrzeby przy równoczesnym nie naruszaniu społecznego ładu i porządku. Wielość terminologiczna spowodowała, że termin CSR ma, obok przedstawionego wcześniej rozumienia skrótu, również nieco inne interpretacje, takie jak na przykład: odpowiedzialność wobec interesariuszy (Corporate Stakeholder Responsibility), strategiczna odpowiedzialność przedsiębiorstwa (Corporate Strategical Responsibility). Zgodzić się należy z cytowanym już B. Rokiem [2011], iż uznanie społecznej odpowiedzialności przedsiębiorstwa (biznesu) jest formą opowiedzenia się za konkretną rolą biznesu w społeczeństwie, taką wizją, w której rolą biznesu jest tworzenie korzyści dla wszystkich interesariuszy 15 i liczenie się z konsekwencjami dotyczącymi całościowego sposobu zarządzania i prowadzenia dzielności operacyjnej. Coraz więcej przedsiębiorców i menedżerów zadaje sobie sprawę, że postępowanie naruszające zasady społecznej odpowiedzialności powoduje bardzo duże, a czasem niepoliczalne straty. W społeczeństwie informacyjnym wszystkie zachowania, które naruszają zasady przyjęte w istniejących normach i wyobrażeniach o etycznym prowadzeniu biznesu są napiętnowane na forach internetowych, a organizacja, która nie przestrzega społecznych norm odpowiedzialności ma na pewno obniżoną wartość rynkową. Staje się mniej konkurencyjną niż organizacja, która przestrzega zasad społecznej odpowiedzialności biznesu. W konsekwencji zmniejsza się zaufanie do organizacji, co pociąga za sobą spadek wpływów z jej działalności. Zdecydowanie najmocniej widoczne jest to w działalności e- banków, e-handlu i e-administracji. Jak wiemy proces budowy opinii organizacji, która jest społecznie odpowiedzialna i ma zaufanie klientów jest długotrwały, a można go stracić w przysłowiową sekundę. Zwrócił na to uwagę twórca sukcesu Porsche AG, jego szef Wendelin-Wiedeking, który na pytanie o sukces firmy powiedział: Nie sama wielkość, ale odwaga, osobowość i wiarygodność są tajemnicą sukcesu w walce z Goliatami tego świata. Konsekwencjami rozwoju koncepcji społecznej odpowiedzialności biznesu są szczegółowe techniki zarządzania, takie jak: zarządzanie zaufaniem, czy zarządzanie wiarygodnością. Wszystkie one dotyczą ICT. Firmy, które dostarczają sprzęt czy oprogramowanie, jak 15 Interesariusze (stakeholders) - są to osoby lub inne organizacje, które uczestniczą w tworzeniu projektu (biorą czynny udział w jego realizacji) lub są bezpośrednio zainteresowane wynikami jego wdrożenia. Interesariusze mogą wywierać wpływ na daną organizację J. A. F. Stoner, R. E. Freeman, D. R. Gilbert JR [1999]. 413

414 Społeczny kontekst zastosowan ICT też usługi informatyczne powinny przestrzegać i mieć świadomość z odpowiedzialności za prowadzoną działalność. Koncepcja społecznie odpowiedzialnego biznesu powstała w USA, pod nazwą Good Business często też nazwany jako Good Work, w ramach szerszego projektu rozwijanego od lat przez trzech psychologów Mihalya Csikszentmihalyiego, Williama Damona i Howarda Gardnera [Gardner, Csikszentmihalyi i Damon, 2001, Fischman, Solomon, Greenspan i Gardner 2004, Gardner 2007 i 2010]. Projekt Good Work ma na celu zidentyfikowanie przedstawicieli różnych zawodów oraz instytucji działających etycznie, doskonale pod względem jakości, również w odniesieniu do pracowników (dając im możliwość rozwoju w obrębie organizacji). Trzy filary, na których opierają swoje działania ludzie wykonujący Good Work 1. profesjonalizm (wykonywanie pracy zawodowej na najwyższym poziomie, z dużym zaangażowaniem), 2. odpowiedzialność społeczna (świadome służenie szerszym społecznościom), 3. etyka (przestrzeganie w pracy podstawowych zasad moralnych). Dylematy etyczne w pracy ludzi z branży ICT nie są oczywiście zagadnieniem nowym, ani wyjątkowym, jednak należy zwrócić uwagę na to, piszą autorzy projektu Good Work, iż obecnie przychodzi działać ludziom w specyficznych warunkach. W warunkach trudnych i często nieprzewidywalnych, w których nowe technologie informacyjne zasadniczo zmieniły poczucie czasu i przestrzeni. W warunkach, w których siły rynkowe, również w administracji, mają bezprecedensowe znaczenie we współczesnym świecie i czasami działają destruktywnie na ludzi i społeczeństwa. Niewiele jest obecnie znaczących czynników (jeśli w ogóle jakieś są) stanowiących realną przeciwwagę sił rynkowych. Jeszcze innym, bardzo ważnym zagrożeniem ludzi realizujących Good Work jest stres dotykający każdego, niezależnie od wykonywanego zawodu. Szybko zmieniające się technologie, innowacyjne wynalazki, nowe przepisy prawne, ciągle inne oczekiwania społeczeństwa powodują stres zarówno u producentów, jak i konsumentów. Zastosowanie ICT przyspiesza wykonanie pracy, powoduje też trudności z usuwaniem popełnionych błędów. Standard w kontekście Good Work jest najwyższym wymaganym poziomem realizacji danego zawodu. Każda profesja ma swoje standardy, których przestrzegania oczekuje się od danego pracownika. I tak np. od prawników oczekuje się, że będą sprawiedliwi, o wysokim poziomie moralności, że będą bronić naszych interesów najlepiej jak potrafią, w każdych okolicznościach. Nauczyciele mają świecić osobistym przykładem. Powinni być kulturalni, świetnie wykształceni, dobrze traktować uczniów, unikać prywatnych kontak- 414

415 Zarządzanie i informatyka cz. V tów, relacji ze studentami itp. A informatycy? Specyfiką ICT jest to, że użytkownicy nie zawsze znają i rozumieją ICT. Dlatego też centralnym elementem poczucia tożsamości informatyka jest osobista moralność. Wyznacza ją granica (przyjęta przez daną jednostkę), której dany człowiek nie chce przekraczać w konkretnej sytuacji wyboru. Najgłębszy wymiar poczucia tożsamości wyznacza, według autorów projektu Good Work, właśnie poczucie moralności Narzędzia informatyczne komunikacji ze społeczeństwem W uzupełnieniu wcześniejszych prezentacji dotyczących e-zarządzania i tworzenia społeczeństwa informacyjnego, chcielibyśmy zwrócić uwagę na formy oddziaływania organizacji na społeczeństwo, jak i udziału społeczeństwa w jej działalności. Narzędziami komunikacji są serwisy internetowe, a szczególnie ich specyficzne rodzaje jak: portale, blogi. Formy te mogą się łączyć, a więc nie stanowią rozdzielnych elementów kształtowania wizerunku organizacji w społeczeństwie. SERWIS INTERNETOWY. Serwis internetowy jest również nazywany witryną internetową. Dotyczy to zwłaszcza korporacyjnych serwisów internetowych, w których, przez analogię do witryny sklepowej (dużego okna wystawowego), prezentowana jest pełna oferta firmy. To klasyczne narzędzie prezentowanych wcześniej zastosowań, takich jak handel elektroniczny czy zarządzania zasobami ludzkimi. Dobrze zaprojektowany serwis jest często bardzo mocnym wsparciem działania organizacji funkcjonujących w sposób tradycyjny. Każdego dnia miliony internautów wykorzystują Internet w poszukiwaniu potrzebnych im usług lub towarów. Dziś to już norma, ponieważ Internet stał się najtańszym i najszybszym sposobem na skuteczny kontakt między producentem, hurtownikiem, sprzedawcą i klientem. Serwis internetowy, witryna internetowa (website) jest to grupa powiązanych ze sobą stron internetowych. Poza treścią statyczną, mają często sekcję wiadomości oraz możliwość logowania się i zapamiętywania wymagań odbiorców, co pozwala na dostosowanie treści serwisu do indywidualnych upodobań użytkowników. W serwisie mogą występować obiekty interaktywne, np. formularze, przyciski czy aplikacje. Serwisy mogą być tematyczne, a więc poświęcone jednemu zagadnieniu, lub ogólne zajmujące się kilkoma tematami. Najczęściej występują następujące rodzaje serwisów internetowych: ogólny portal internetowy, który jest wielotematyczny i oferuje dostęp do różnorodnych informacji, wortal internetowy, portal wertykalny portal wyspecjalizowany, publikujący informacje z jednej dziedziny, np. muzyki, filmu, programów komputerowych, motoryzacji, 415

416 Społeczny kontekst zastosowan ICT bankowość elektroniczna umożliwia dostęp do rachunku bankowego za pomocą komputera podłączonego do Internetu, blog rodzaj stron będących w istocie prywatnymi dziennikami, społecznościowy rodzaj stron, na których spotykają się internauci o podobnych zainteresowaniach fora dyskusyjne, czaty, sklep internetowy dający możliwość zamawiania produktów przez Internet, reklamowy jego celem jest prowadzenie działań promocyjnych organizacji i promocja jej produktów bądź działalności (patrz reklama), korporacyjny ma na celu prezentację organizacji lub dużej firmy, szkoleniowy nastawiony jest na promocję, zdobywanie i poszerzanie wiedzy (patrz szkolenie), rozrywkowy rodzaj stron oferujących szeroko rozumianą rozrywkę: muzykę, gry, zabawne zdjęcia i filmy, fotograficzny umożliwia prezentację, przechowywanie i komentowanie zdjęć oraz tworzenie spersonalizowanych galerii fotograficznych. Dzięki serwisowi WWW można zwiększyć liczbę zamówień i obroty firmy. Firmowy serwis WWW kreują obraz organizacji. Dociera on przez 24 godziny, 7 dni w tygodniu z szybką informacją do partnerów i klientów. W praktyce odległość nie ma znaczenia. Jest ona na odległość jednego kliknięcia. Można również w znacznym stopniu zrezygnować z tradycyjnej łączności, a Internet umożliwia stosowanie zasady networkingu, co już przedstawiono przy prezentacji organizacji wirtualnej. Witrynę możemy określić jako system dokumentów zawierających różne formy przekazywania informacji, takie jak: tekst, grafikę, dźwięk, filmy, które są powiązane ze sobą narzędziami informatycznymi. Takimi narzędziami są między innymi systemy zarządzania dokumentami lub systemy zarządzania treścią, czyli CMS (Content Management System). Stosując narzędzie WEB 2, przedstawione w poprzedniej części książki, użytkownik może budować interaktywne witryny. Oczywiście osoba lub organizacja pragnie przedstawić siebie lub określony zespół i jego działalność, w jak najkorzystniejszym świetle. Przykładem są tu partie polityczne, jak i poszczególni jej działacze, którzy rozumieją, że tradycyjne środki przekazu (prasa, radio, telewizja) muszą być wspierane przez witrynę internetową promującą właściciela [por. K. Ślęzak, 2005]. Przykładowa witryna internetowa Wydawnictwa Placet jest następująca rys. v.3. Budując witrynę informatyczną organizacji (rys. V.3) powinno się uwzględniać poniższy zestaw informacji: Wizytówkę przedsiębiorstwa, a w tym dane adresowe, profil działalności, dane do kontaktu, dobrze jest też zamieścić mapkę z dojazdem do przedsiębiorstwa i zdjęcie 416

417 Zarządzanie i informatyka cz. V siedziby firmy. Niekiedy przedstawia się film, np. z procesu produkcyjnego, często zamieszcza się misję firmy. Rysunek V.3. Witryna Wydawnictwa Placet Prezentację sylwetki zawodowej i fotografię kluczowych pracowników, takich jak: prezesa, członków zarządu oraz dane do kontaktu z nimi. Politycy przestawiają w tym miejscu nawet zdjęcia rodzinne albo kotka lub pieska, mające na celu ocieplenie ich wizerunku. Aktualności, czyli opis najbardziej istotnych wydarzeń z życia firmy, np. uzyskanie wyróżnień, otrzymanie certyfikatu jakości, święto przedsiębiorstwa. Wszystko to, co może w miarę obiektywnie potwierdzić wiarygodność przedsiębiorstwa i jego stały rozwój. Niekiedy przedstawia się materiały archiwalne tacy byliśmy, a tacy jesteśmy. Podziwiajcie nas. FAQ (Frequently Asked Questions), czyli najczęściej zadawane pytania i odpowiedzi na nie. Bardzo częstym zabiegiem jest umieszczenie takich pytań, które podkreślają nowoczesność organizacji i wysoką pozycję na rynku. W tym miejscu zachęcamy klientów i dostawców do wyrażenia swojej opinii o przedsiębiorstwie i jego działalności. Co inni o nas pisali i mówili. Najlepiej jak to są niezależne media a nie sponsorowane artykuły. Oczywiście staramy się aby pisały dobrze. Jest to pewnego rodzaju materiał pomocniczy dla dziennikarzy, którzy chcieliby o organizacji pisać. 417

418 Społeczny kontekst zastosowan ICT Cele tworzenia witryn są wielorakie i najczęściej sprzężone. O niektórych już wcześniej pisaliśmy. W większości, zwłaszcza dla przedsiębiorstw biznesowych, chodzi o: pozyskanie klientów, wysyłanie pozytywnych sygnałów społeczeństwu o organizacji i ludziach ją tworzących, dodatkowej sprzedaży produktów, poznania preferencji konsumentów. PORTALE. W potocznym rozumieniu jest to taki rodzaj witryny internetowej, który pozwala na znalezienie interesujących użytkownika informacji. Bardzo często portale nazywa się wrotami do pozyskania informacji. Definicja portalu nie jest sformułowana, ale można go scharakteryzować jako system stron internetowych pozwalających na korzystanie z różnych serwisów informacyjnych. Współczesne portale spełniają funkcję dostarczania informacji, ale i umożliwiają komunikowanie się z innymi użytkownikami. Są wyrazem tendencji do koncentracji poszczególnych technologii informatycznych. Bardzo popularne są takie portale, jak: Onet.pl czy też wp.pl [Wirtualna Polska], oferujące swoim użytkownikom nie tylko najświeższe informacje, ale też wiele usług. Przykładem jest strona portalu która zawiera nie tylko informacje i linki do źródeł, ale też rozrywkę, pozwala korzystać z poczty elektronicznej, brać udział w różnorodnych dyskusjach, wysyłać SMS, pisać pamiętniki blogi, umieszczać swoją twórczość np. zdjęcia. Do problematyki blogów jeszcze powrócimy. Portale mogą uprościć nasze życie. Dzięki nim cały czas wiemy, co jest w otaczającym nas świecie. Możemy tam podjąć decyzje finansowe, np. giełdowe, znamy pogodę, możemy zobaczyć, jakie filmy są obecnie wyświetlane w kinach i jakie sztuki są grane w teatrach, a co więcej, zamówić na nie bilety. Jeżeli jesteśmy głodni, to nie ruszając się z domu możemy zamówić nasze ulubione dania. Większość użytkowników natomiast nie lubi wyskakujących banerów namawiających, na przykład, do kupna nowego samochodu albo sprzętu RTV/AGD. Jeżeli chcemy się udać z wizytą na przyjęcie lub do lekarza to portal pozwoli nam na zamówienie taksówki lub podpowie, jakim środkiem komunikacji miejskiej dojechać i jak wygląda rozkład jazdy. Jak pisze E. Ziemba [2007] portale konsolidują, zarządzają, analizują i dystrybuują informacje wewnątrz i na zewnątrz organizacji. Integracja dotyczy takich narzędzi informatycznych, jak m.in.: systemy zarządzania treścią (CMS), systemy Business Intelligence (BI), systemy zarządzania danymi (DMS), hurtowniami danych (DW). Specjalną rolę pełnią portale lokalne i portale tematyczne, czyli tzw. wortale. Są to specjalistyczne portale, które są ukierunkowane na określone zagadnienia interesujące użytkownika, np. giełda, zdrowie, turystyka, czy edukacja. Wortale często posiadają odpowiednie do ich funkcjonowania narzędzia typu kalkulator, przelicznik walut itd. Portale lokalne natomiast, jak pisze się w krośnieńskim portalu internetowym odgrywają bardzo ważną rolę w tworzeniu społeczeństwa informacyjnego. Podają one bowiem istotne informacje dla społeczeństwa lokalnego, w którym każdy z nas funkcjonuje na co dzień. Ze względu na charakter książki należy zwrócić uwagę na fakt, że potencjał reklamowy portalu lokalnego może być znacznie większy niż lokal- 418

419 Zarządzanie i informatyka cz. V nej prasy, radia czy telewizji. Portal lokalny oferuje najczęściej promocję określonych towarów i usług stosunkowo tanio, w porównaniu z innymi nośnikami informacji. Specjalną rolę pełnią portale biznesowe nazywane w literaturze polskiej również portalami korporacyjnymi [por.: J. M. Firistone, 2003, H. Collins, 2003, E. Ziemba, 2007]. W zasadzie powinny być one omawiane w poprzednim rozdziale o e-zarządzaniu, ponieważ jednak są one jednym z rodzajów portali, omówiono je w tym miejscu. E. Ziemba [2007] wymienia następujące możliwości zastosowania portali korporacyjnych: pozwalają na pracę grupową, pozwalają na zastosowanie poczty elektronicznej, umożliwiają stosowanie systemów przepływu pracy. Biorąc pod uwagę funkcje i stosowane narzędzia portali korporacyjnych można wyróżnić następujące ich klasy: ukierunkowane na dostarczenie użytkownikowi różnych zestawów potrzebnych mu informacji, pozwalające użytkownikom na współpracę przy realizacji określonych zadań, łączące różnych użytkowników ze względu na rodzaj potrzebnej informacji, realizowane cele itp. Oczywiście istnieją też portale korporacyjne integrujące wymienione tutaj funkcje. W cytowanej już wcześniej literaturze [E. Ziemba, 2007] można spotkać nieco inny podział portali korporacyjnych a mianowicie na przetwarzające decyzje (Decising Processing EPI) oraz wspomagające procesy współpracy (Collaborative Processing EPI). Co do wymagań stawianych portalom kooperacyjnym, to kierując się opracowaniem [Sullivan, 2003] można wskazać, że powinien spełniać następujące kryteria: koncentracja na procesach biznesowych i pomoc w ich rozwiązywaniu, przyjazność dla użytkownika, umożliwienie dużej integracji aplikacji, wyszukiwanie zarówno danych strukturalizowanych, jak i niestrukturalizowanych. Korporacyjne portale społecznościowe są przykładem oprogramowania społecznościowego w zastosowaniach biznesowych, które w literaturze często objęte są terminem Enterprise 2.0. Takiego terminu używają między innymi McAfee A.P. w pozycji: Enterprise 2.0: The Dawn of Emergent Collaboration czy Tapscott D. w pozycji: Winning with the Enterprise 2.0. Oprogramowanie w postaci korporacyjnych portali społecznościowych bazuje na idei i zestawie technologii opisywanych przez wspominany wielokrotnie termin Web 2.0. Jego cechą jest masowe, interaktywne tworzenie treści przez użytkowników serwisów interne- 419

420 Społeczny kontekst zastosowan ICT towych, a nie tylko centralnie przez właścicieli serwisów, jak miało to miejsce wcześniej, w latach 90. XX w. i na początku XXI w (Web 1.0). Wraz z zastosowaniem technologii Web 2.0 powstały media społecznościowe umożliwiające łączenie użytkowników i prowadzenie interaktywnej komunikacji. Rysunek V.4. Obszary funkcjonalne portalu korporacyjnego Źródło Treści tworzone przez użytkowników różnymi narzędziami technologii społecznościowych, takimi jak blogi, fora, wiki, strumienie aktywności, wyrażają m.in. wiedzę, opinie, potrzeby, oczekiwania i preferencje użytkowników dotyczące produktów i usług, problemów różnej natury, również związanych z pracą zawodową i miejscem pracy. Treści te dostarczają na bieżąco interesariuszom przedsiębiorstw informacji dotyczących ich działalności, wewnętrznej organizacji, produktów, kompetencji pracowników oraz wspierają procesy zarządzania. Dodatkowo dzięki analizie informacji, pochodzących również z korporacyjnych portali społecznościowych, za pomocą dedykowanych systemów informatycznych pozwalających na przekształcanie danych w informacje, a informacji w wiedzę (systemy te przedstawione w poprzedniej części książki definiowane są jako Business Intelligence), możliwe jest usprawnianie procesów decyzyjnych i zarządczych. Dzięki technologiom należącym do grupy Web 2.0 nawiązują się łatwo i masowo relacje oraz współpraca między użytkowni- 420

421 Zarządzanie i informatyka cz. V kami, przenosząc je na wyższy poziom interaktywności i skuteczności w porównaniu do Web 1.0. Ciekawą formą zastosowania narzędzi portali korporacyjnych jest tworzenie zbioru użytkowników, czyli tzw. Community. Popularne staje się zwłaszcza w medycynie jako społeczność leczonych i leczących. I tak Apollo Hospital stworzył na Facebooku i Twitterze swój profil. Te (bardzo popularne szczególnie w ostatnim czasie) portale pozwalają pacjentom wymieniać się opiniami, zadawać sobie pytania, wspierać. Po za tym szpital może informować o aktualnych wydarzeniach, zamieszczać informacje dotyczące kwestii zdrowotnych etc. KingNet Second Opinion Web-Hopital także proponuje pewne sposoby umożliwiające tworzenie community of the sick (chorych) patients przez Internet. Organizacja umożliwia pacjentom komunikację przy użyciu strony internetowej. Robi to, korzystając z zamieszczonego na niej forum, a także blogu doktora. W obu przypadkach pacjenci wymieniają się ze sobą opiniami, wspierają, odpowiadają na pytania innych. Innym elementem, związanym z główną ideą KingNet Second Opinion Web-Hospital jest fakt, że pacjenci mogą zadawać lekarzom, oczywiście za pośrednictwem strony, pytania dotyczące kwestii zdrowia, zasięgać ich opinii. W ich zastępstwie mogą to robić też ich bliscy, co dodatkowo cementuje więzi między osobami skupionymi wokół danego medycznego zagadnienia (pacjentami/ich przedstawicielami, lekarzami). W Polsce takie działania podejmuje między innymi lecznica Luxmed. Odmienną postawę wobec wspomnianego zjawiska przyjmują natomiast lekarze. Uważają oni bowiem, że takie wirtualne wspólnoty skupiające pacjentów szpitala wpływają tylko na pogorszenie relacji z pacjentami realnymi. Zdaje się, że najlepszym rozwiązaniem jest stopniowe tworzenie takich społeczności; najpierw należy stworzyć portale związane z określonymi zagadnieniami medycznymi, a następnie prowadzić dalszą edukację pacjentów. WORTALE. Inaczej portal wertykalny (vertical portal) to serwis wyspecjalizowany, publikujący informacje z jednej dziedziny, tematycznie do siebie zbliżone, np. dotyczące muzyki, filmu, programów komputerowych. Nazwa ma stanowić przeciwstawienie do zwykłego portalu, obejmującego szeroki zakres tematyczny (horyzontalnego), a przy okazji podkreślać wyższą jakość udostępnianych zasobów. Takim wortalem informacji o teatrze są strony Specyficznym rodzajem wortalu jest serwis łączący w sobie zarówno cechy portalu korporacyjnego, jak i czysto informacyjnego. Od pierwszego różni się tym, że publikowane są na nim informacje dotyczące nie samej korporacji/firmy, a wszystkich marek wybranej branży. Różnica w porównaniu ze zwykłym portalem jest natomiast to, iż nie jest skomercjalizowany. Przykładem jest strona będąca wizytówką magazynu Auto- Rok drukowanego w sposób tradycyjny. Na owej stronie znaleźć można newsy ze świata motoryzacji, prezentacje i testy najnowszych modeli, tysiące zdjęć i artykułów związanych z tą branżą. Dodatkowo strona skupia rzeszę fanów motoryzacji zainteresowanych designem i projektowaniem aut. Przy wortalu autorok.pl, powstało DesignForum zajmujące się 421

422 Społeczny kontekst zastosowan ICT organizowaniem konkursów dla młodych rysowników samochodów. Pomimo braku banerów reklamowych oraz materiałów sponsorowanych na stronie, bezpośrednio przekłada się ona na popularność AutoRoku, czyniąc go bardziej atrakcyjnym dla reklamodawców, a w rezultacie również dla klientów. Za prawdziwe należy więc uznać stwierdzenie, że wortal może być również narzędziem promocji małej firmy. Obecnie nie ma obowiązującego standardu budowy portali. Choć zakłada się, że portale powinny umożliwiać wyszukiwanie danych niestrukturalizowanych, to (według istniejącego stanu wiedzy na moment pisania książki) najczęściej nie są one gromadzone. BLOGI. B. Gates [2005] uważa, że blog możemy określić jako nową formę publikacji, która może, w odróżnieniu od publikacji tradycyjnej, mieć praktycznie nieograniczoną liczbę czytelników. Wg polskiej wersji Wikipedii, blog (od weblog sieciowy dziennik, pamiętnik) jest to rodzaj strony internetowej, na której autor umieszcza datowane wpisy, wyświetlane kolejno, zaczynając od najnowszego. W Polsce istnieje prawie 3,5 miliona blogów, z czego ponad połowa znajduje się na serwerach powiązanych z Onetem blog.onet.pl, blog.tenbit.pl i blog.pl. Blogi posiadają system archiwizacji wpisów, możliwość komentowania wpisów przez czytelników, a także zestaw odnośników (linków) do blogów polecanych przez autora (tzw. blogroll) i innego rodzaju stron. Ogół blogów, traktowany jako medium komunikacyjne, określa się mianem blogosfery. Bardzo często blogi mają osobisty charakter i służą jako internetowe pamiętniki. Zawierają osobiste przemyślenia, uwagi, komentarze, rysunki, a nawet nagrania, przedstawiając w ten sposób pogląd autora. Szczególną rolę odgrywają one w czasie kampanii wyborczej, kiedy politycy przedstawiają swoje poglądy i przemyślenia. Niekiedy blog jest dobrym narzędziem przekazywania informacji do końca niesprawdzonych. Znajdują też wiele innych zastosowań: mogą być wykorzystywane jako specjalistyczne potrale, czyli wortale poświęcone określonej tematyce. Osobiste blogi mają zwykle jednego autora, w innych przypadkach mogą mieć ich wielu. Blogierzy analizują blogi innych autorów i nawiązują z nimi kontakty. Powstaje w ten sposób siatka blogów. W konsekwencji wytwarza się nowy twór blogosfera, która zaczyna funkcjonować jako większa, powiązana całość. Autorzy blogów osobistych, nawiązują często relacje towarzyskie, przez co, taką sieć możemy porównać do aplikacji typu social networking. W blogach zawarte są bardzo różnorodne informacje, od pamiętników nastolatek przez wspomnienia podróżników, do prezentacji bardzo istotnych i poważnych problemów ogólnoludzkich i filozoficznych. Blogi są bardzo szeroko stosowane w biznesie, bowiem firmy mogą przekazać klientom swoją wiedzę o produktach. To szybka i tania droga komunikacji z klientami. W zależności od dysponowanego czasu osób piszących mogą nawet codziennie do nich docierać. Blogi pozwalają na poprawę nadwątlonego w sytuacjach kryzysowych wizerunku firmy. Stano- 422

423 Zarządzanie i informatyka cz. V wią również nieformalny kanał informacyjny w organizacji. Ich twórcami i czytelnikami są różni pracownicy organizacji zarówno w układzie horyzontalnym, jak i wertykalnym. Financial Times [ ] wymienia blogi, jako jedną z głównych sił stworzenia przedsiębiorczości internetowej. Zainteresowanie nimi pojawiło się, ponieważ, w odróżnieniu od tworzenia witryn, nie wymagają one znajomości bardziej złożonych narzędzi i języka HTML. Obecne narzędzia do ich tworzenia są bardzo proste. Na przykład Blogger [ zakupiony przez Google, udostępniony w pełnej wersji bezpłatnie, szerokiemu gronu użytkowników, daje do dyspozycji szereg gotowych szablonów do budowania własnych blogów, pisania postów, tworzenia indywidualnych układów stron, tworzenia wizytówek itd. Coraz częściej blogi są zintegrowane z działalnością promocyjną organizacji, często niewielkiej, jak też działalności promującej aktywność pewnej grupy. Autor książki chcąc sobie sprawić jubileuszowy prezent szukał ikony swojego patrona Świętego Jerzego. Znalazł blog pisarki (ikony się pisze a nie maluje), która prowadzi bardzo różnorodną dzielność, a mianowicie: pisze i sprzedaje zmówione ikony, prezentuje wiedzę o ikonach, kształci kandydatów na pisanie ikon i promuje działanie grupy osób, które są fanami tego rodzaju działań. Informacje o tej osobie wraz z widokiem ikony zmieszczone są na rysunku V.5. Pisząc o roli blogów, w większości pozytywnych, nie można pominąć wcześniej poruszanej kwestii etyki. I tak, B. Gates [2005] pisze, że blog może też być dla firmy najgorszym koszmarem czarnego pijaru (PR). Jak pisze B. King w cytowanym już Financial Times [2006]: Dobrze zaprojektowany blog nadaje korporacji przyjazny, młody i ludzki wizerunek. To sposób na bezpośrednią rozmowę, nieskrępowaną nudnymi reklamami i oficjalnymi stanowiskami Zagrożenie w budowie społeczeństwa informacyjnego cyberterroryzm O niektórych zagrożeniach pisano wcześniej, między innymi w części poświęconej etyce. Tutaj poruszamy problemy prawne i zagadnienie przestępczości komputerowej. Oczywiście wszystkie działania nieetyczne i powodujące naruszanie prawa mają wpływ na opóźnienia w procesie budowy społeczeństwa informacyjnego. Coraz bardziej, czy chcemy, czy nie, stajemy się osobą rozpoznawalną. Jak pisze w swoim felietonie W. Celary [2014] panele telewizyjne będą stopniowo wypierać papierowe plakaty. Wielkim plusem ich zastosowania jest możliwość bardzo łatwej aktualizacji informacji, które dodatkowo mogą mieć przyciągającą uwagę formę multimedialną. Jednak jak 423

424 Społeczny kontekst zastosowan ICT zauważa W. Celary, wybiegając jeszcze dalej, łatwo wyobrazić sobie personalizację treści wyświetlanej na takim panelu telewizyjnym stojącym przy drodze lub nawet stanowiącym witrynę sklepową. Można sobie wyobrazić, że kamera dołączona do panelu widzi przechodnia i rozpozna go na podstawie zdjęcia twarzy, wyszukując w mediach społecznościowych. Następnie maszyna odnajdzie jego profil zainteresowań w bazie danych i wyświetli na panelu telewizyjnym informację, która go najbardziej dotyczy. Po czym za chwilę wyświetli zupełnie inny przekaz dla następnego przechodnia. Technicznie jest to w pełni możliwe. Natomiast otwarte jest pytanie, czy takie były zamiary twórców projektu budowy społeczeństwa informacyjnego i czy pojedynczy członek tego społeczeństwa chce pozwolić na takie naruszanie swojej prywatności? Zgadzam się z W. Celarym, że (cyt.): jest dość przerażająca. Wizja szarego człowieka przemykającego ulicą wśród migoczących paneli, z których każdy do niego krzyczy, ujawniając wszystkim innym przechodniom jego domniemane zainteresowania i preferencje, Z palety zagrożeń zajmijmy się tym, które uważa się za najbardziej istotnym twardym zagrożeniem, czyli cyberterroryzmem. Problematyka przestępstw i cyberterroryzmu łączy się, ponieważ zagadnienia te należą do kluczowych zagrożeń bezpieczeństwa państwa, będących następstwem zastosowań TI. Według eksperta w dziedzinie bezpieczeństwa cyberprzestrzeni i nowych technologii na Uniwersytecie Georgetown w Waszyngtonie D. E. Denninga [2000 i 2002]. "Cyberterroryzm jest konwergencją cyberprzestrzeni i terroryzmu. Dotyczy nielegalnych ataków i gróźb ataków przeciwko komputerom, sieciom komputerowym i informacjom przechowywanych w nich by zastraszyć lub wymusić na rządzie lub społeczeństwie polityczne lub społeczne cele. By zakwalifikować atak jako cyberterroryzm, powinien on skutkować przemocą przeciwko ludziom lub mieniu lub przynajmniej wyrządzić wystarczające szkody by stwarzać strach". A. Bógdał-Brzezińska, M. F. Gawrych [2003], piszą, że cyberterroryzm jest najbardziej nieprzewidywalnym sposobem oddziaływania zorganizowanych grup na funkcjonowanie i stabilność struktur państwowych. Telekomunikacja, system energetyczny, system bankowy i finansowy, produkcja, magazynowanie oraz transport gazu ziemnego i ropy nafto- 424

425 Zarządzanie i informatyka cz. V wej, transport, system zaopatrzenia w wodę, służby ratownicze itp. systemy są często nazywane krytyczną infrastrukturą. Jej zniszczenie lub uszkodzenie może osłabić zdolność obronną oraz bezpieczeństwo ekonomiczne państwa, przerwać ciągłość funkcjonowania władzy i służb publicznych. Systemy te w nomenklaturze anglosaskiej są określane jako SCADA (Supervisory Control And Data Aquisition). Jak pisze L. Janczewski i A. Colarik [2007], systemy należące do SCADA są znakomitym celem ataków cybeterrorystów ze względu na rolę, jaką pełnią, ale nie tylko dlatego. Systemy SCADA są pochodną automatycznych systemów sterowania obiektami przemysłowymi. Te dawniejsze systemy funkcjonowały całkowicie autonomicznie. Fizyczny dostęp do nich był utrudniony (np. sterowanie elektrownią wodną ze stanowiska kontrolnego umieszczonego na szczycie tamy). Wysiłek ich konstruktorów był ukierunkowany głównie na ich niezawodne działanie. Zastosowanie komputerów i telekomunikacji spowodowało, że funkcje sterownicze są realizowane zdalnie z wykorzystaniem ogólnodostępnych łączy i komputerów. Nie opracowano do tej pory właściwego zabezpieczenia systemów SCADA od zagrożeń zewnętrznych (np. hackerów) i to stanowi ich zasadniczą wadę, czyli atrakcyjność dla cyberterrorystów. Wiele krajów powołało specjalne ośrodki zajmujące się ochroną systemów krytycznych (jak: USA, Anglia, Australia, Norwegia, Nowa Zelandia). Są one aktywne nie tylko wewnątrz krajów, w których działają, ale bardzo ściśle ze sobą współpracują. Np. w marcu 2008 miały miejsce międzynarodowe ćwiczenia obejmujące w/w kraje i mające na celu zbadanie wspólnych zdolności tych krajów do zwalczania ataków ukierunkowanych na systemy krytyczne. Ćwiczenia te to nie sztuka dla sztuki. Przykładem rzeczywistych zagrożeń mogą być wydarzenia z Estonii, z maja 2007 roku. W wyniku konfliktowej decyzji władz estońskich o przesunięciu pomnika upamiętniającego żołnierzy radzieckich poległych na tych terenach w czasie II Wojny Światowej nastąpił zmasowany atak cybernetyczny na sieć informatyczną tego kraju. Szereg centralnych urzędów Estonii, wliczając ministerstwa i bank centralny było odciętych od świata przez wiele godzin. Atak ten był przeprowadzony spoza granic Estonii przez osoby przeciwne rządowi tego państwa. Nie ma do tej pory oficjalnych dowodów udziału rządu rosyjskiego w tych wydarzeniach. W ich wyniku na terenie Estonii powołano ośrodek NATO zajmujący się cyberterroryzmem i wojnami cybernetycznymi. Terroryści z Al Kaidy w wydanym oświadczeniu wzięli odpowiedzialność za podjęte w roku 2003 działania, w konsekwencji których nastąpiła przerwa w dostawie zasilania w północnych częściach Stanów Zjednoczonych i południowych Kanady (władze amerykańskie zaprzeczają udziałowi Al Kaidy w tych zakłóceniach), a także za dokonaną w tym samym roku (nie skuteczną zresztą) elektryczną blokadę Wielkiej Brytanii. Jak uspakajają w Internecie takie organizacje, jak CIA i FBI, infrastruktura obronna Stanów Zjednoczonych broń atomowa i inne systemy wojskowe, a także systemy informatyczne FBI i CIA są izolowane od Internetu, co czyni je niedostępnymi dla działających z zewnątrz hakerów czy cyberterrorystów. Te uzasadnienia są dosyć wątpliwego znaczenia, ponieważ statysty- 425

426 Społeczny kontekst zastosowan ICT ka ataków na systemy informacyjne pokazuje, że praktycznie ich połowa jest inicjowana wewnętrznie [L. Janczewski, A. Colarik, 2005]. Warto dodać, że wiele tradycyjnych konfliktów ma swoje odpowiedniki cybernetyczne, np. w czasie nasilenia konfliktów takich jak palestyński, indyjsko-pakistański, bałkański, itp. odnotowuje się nasilenie ataków cybernetycznych (z obu stron). Cele działań terrorystycznych przedstawia rysunek V.6. Rysunek V.6. Obiekty działań terrorystycznych. Źródło: Współczesny terroryzm niekonwencjonalny zagrożenia i przeciwdziałanie, gen. bryg. rez. prof. dr hab. Michał KRAUZE 2005, referat w Wojskowym Instytucie Chemii i Radiometrii. O czyhającym na nas niebezpieczeństwie napisano wiele powieści i pojawiło się wiele filmów, Mimo przytoczonych faktów nasuwa się pytanie: Czy osoby wskazujące na cyberterroryzm, jako realne zagrożenie dla bezpieczeństwa narodowego i międzynarodowego wkładają tylko swoją cegiełkę do histerii terrorystycznej, jaka ma miejsce po 11 września 2001 roku? A może jednak cyberterroryzm w niedługim czasie ma szansę stać się jednym z największych wyzwań współczesnego świata? Zabezpieczenie przed takim rodzajem ataku jest bardzo kosztowne i ogranicza naszą wolność w budowie społeczeństwa informacyjnego. Natomiast w przypadku takiego ataku skutki mogą być niewyobrażalne. Od 11 września 2001 roku wszyscy żyjemy w obawie następnych ataków. I nie buntujemy się na lotnisku jak musimy zdejmować buty przed bramkami kontrolnymi. Obawiamy się Fatwe, czyli wypowiedzenia świętej wojny przez Osama bin Ladena i podtrzymywanej przez jego następców. Ekstremiści, nie tylko muzułmańscy, są rozproszeni po całym niemal świecie, a ich przesłania to zachęcanie do przyłączenia się do wspólnej walki. Internet może być efektywną drogą do realizacji tych celów. Dostęp z każdego miejsca do dowol- 426

427 Zarządzanie i informatyka cz. V nego punktu na świecie pozwala w konsekwencji na możliwość łatwego i szybkiego przesyłania nieograniczonej ilości propagandy, pomaga ekstremistom jednoczyć i motywować się wzajemnie. Sprawa nie jest taka prosta. Bruce Schneier, amerykański kryptograf i specjalista z zakresu bezpieczeństwa teleinformatycznego, opublikował w 2007 roku bardzo interesujący artykuł na ten temat. Jego myślą przewodnią było to, że uczucie zagrożenia bardzo często nie jest związane z rzeczywistym zagrożeniem. Jak już pisano, transport lotniczy wydał wiele miliardów dolarów na ochronę pasażerów. Nastąpiło to w wyniku śmierci około 3 tysięcy ludzi w wypadkach lotniczych w ostatnim 10-leciu. Z drugiej strony od zatruć żywością umiera rocznie w USA około 5 tysięcy ludzi, ale roczne wydatki agencji zajmującej się tymi sprawami liczy się tylko w dziesiątkach milionów dolarów. Uczucie zagrożenia jest złym motywem działania. Dodatkowo dużą negatywną rolę spełniają mass media nagłaśniające jakiekolwiek działania terrorystyczne, a pomijające trywialną (z ich punktu widzenia) rzeczywistość. Terroryzm jest zbudowany na strachu, a doniesienia prasowe na temat ataków terrorystycznych stanowią znakomite paliwo do podsycania tego uczucia. Informatyczna infrastruktura tworzona w budowie społeczeństwa informacyjnego nie jest uodporniona na ataki z zewnątrz. W konsekwencji, cyberterrorysta ma szansę dostępu do celów z dowolnego punktu na ziemi, czy też z przestrzeni. Zależność społeczeństwa od ICT stworzyła nowy rodzaj zagrożenia, którego świadomość zwróciła uwagę mass mediów, naukowców i informatyków. W Polsce zagadnienie zabezpieczeń jest tym bardziej trudne, że kultura informatyczna nie jest zbyt wysoka. Istnieje już wiele publikacji przestrzegających społeczeństwo przed cyberterroryzmem i zwracających uwagę na konieczność podejmowania działań ochronnych. I tak w jednym z nich cyberterrorystyczny atak na system komputerowy kontrolujący elektrownię jądrową prowadzi do skażenia radioaktywnego, w efekcie powodując śmierć wielu niewinnych ludzi. W innym scenariuszu cyberterroryści włamują się do systemu kierowania przestrzenią powietrzną i powodują kolizję cywilnych samolotów. Powstaje więc pytanie, czy zagrożenie przestrzeni cybernetycznej działalnością cyberterorrystów czy też cyberwojskowych jest realne, czy też nie? A nie możemy zapomnieć o możliwości działania cybermatołów. Naszym zdaniem sytuacja jest prawie identyczna z pojawieniem się słynnego wirusa na przełomie roku 1999 i 2000 (wirus milenijny czyli Y2Kbug.) Zagrożenie było realne w skali światowej i wiele wysiłków zostało dokonanych, by ten wirus nie uaktywnił się na szerszą skalę. I rzeczywiście, z wybiciem zegara Nowego Milenium NIC SIĘ NIE STAŁO. Niektórzy nawet odczuwali zawód z tego powodu, jak pewni obywatele USA, którzy w przewidywaniu chaosu socjalnego kupowali żywność (plus oczywiście, broń) i wypełniali nimi zaparkowane przed ich domami kontenery. Nie ulega jednak wątpliwości, że bez tych środków zapobiegawczych nie odnotowano by większych zakłóceń. Podobne zagrożenie stwarzają ataki cyberterrorystów. Ich zasięg może być szeroki, jeżeli nie podejmie się właściwych 427

428 Społeczny kontekst zastosowan ICT środków zapobiegawczych. Takie działania są już coraz częściej podejmowane w skali światowej i prawdopodobieństwo skutecznych ataków cyberterrorystów nie wzrasta. W wielu scenariuszach filmowych, szczególnie w filmach o ataku na elektrownie atomowe, cyberterroryści włamują się do systemu bankowego i kontrolują międzynarodowe transakcje finansowe i giełdy papierów wartościowych. System ekonomiczny załamuje się, a społeczeństwo traci zaufanie do państwa i cel cyberterrorystów, destabilizacja, zostaje osiągnięty. Zagrożenie cyberterroryzmem wielu może wydawać się wyolbrzymione, nie powinnyśmy jednak jego istnienia zaprzeczać czy ignorować. W Polsce walką z cyberterroryzmem zajmuje się Agencja Bezpieczeństwa Wewnętrznego oraz Wydział Wsparcia Zwalczania Cyberprzestępczości Biura Komendy Głównej Policji. ABW jest odpowiedzialna za zapewnienie ochrony kluczowych systemów i sieci teleinformatycznych państwa. W tym celu w strukturach ABW powołano Rządowy Zespół Reagowania na Incydenty Komputerowe. Zwalcza on: zakłócenia działania systemów sieci teleinformatycznych, nieupoważnione wprowadzanie lub kopiowanie istotnych dla bezpieczeństwa kraju danych, łamanie zabezpieczeń, co pozwala na przejęcie kontroli nad poszczególnymi elementami infrastruktury (np. na wypadek wojny). Po tę ostatnią metodę mogą sięgać służby specjalne nieprzyjaźnie nastawionych państw oraz organizacje terrorystyczne. Z kolei grupy przestępczości zorganizowanej mogą być zainteresowane wykradaniem danych lub dokonywaniem nieupoważnionych zmian, np. w systemach i sieciach instytucji finansowych. Przestępstwa komputerowe interesują zarówno zorganizowane grupy przestępcze, które wykorzystują Internet i systemy komputerowe jako nowy instrument prowadzenia nielegalnej działalności, jak i pojedynczych cyberprzestępców. Pokrewna cyberterroryzmowi jest cyberinwigilacja [M. Czyżak, 2010]. Za jedną z postaci terroryzmu uznawany jest bowiem terroryzm państwowy, którego istotą, a zarazem celem działań, jest wymuszenie posłuszeństwa wobec aparatu władzy. Jest oczywiste, że proceder taki nie jest możliwy bez inwigilacji społeczeństwa, w szczególności członków opozycji. Obecnie, cyberprzestrzeń i elektroniczne środki komunikacji są instrumentem działań służb bezpieczeństwa w krajach niedemokratycznych. Może to przyjąć zarówno formę ograniczenia obywatelom dostępu do Internetu (np. cenzura stron internetowych), jak i postać inwigilujących środków teleinformatycznych (np. podsłuchy, inwigilacja sieci telekomunikacyjnych), stanowiąc narzędzie kontroli społeczeństwa. W ten sposób projekt budowy społeczeństw informacyjnego nabiera zupełnie innego wymiaru. 428

429 . 429

430 Rozdział 16 Ekonomiczny kontekst zastosowań ICT O ekonomicznej ocenie, czyli efekty i bariery zastosowań ICT Jednym z najbardziej dyskusyjnych problemów związanych z rolą informatyki w zarządzaniu jest zagadnienie jej efektywności. Nie ma specjalisty z dziedziny zarządzania, który kwestionowałby skuteczność i potrzebę jej zastosowań we wspomaganiu procesu zarządzania. Jednak wiele dyskusji wzbudza ocena efektywności tych zastosowań. Dla uzasadnienia zastosowania ICT należałoby: wyliczyć efektywność wszystkich możliwych wariantów zastosowań informatyki w zarządzaniu, wybrać ze zbioru możliwych decyzji ten wariant zastosowania ICT, w którym relacja nakładów do spodziewanych efektów jest najkorzystniejsza. Jak wyliczyć efekty, które bardzo często są subiektywnym odczuciem użytkownika? Z obliczeniem nakładów sprawa jest prostsza i bardziej obiektywna, bo w większości mamy dokumenty księgowe, chociaż jak dalej uzasadnimy, nie do końca. Na podstawie praktycznego doświadczenia, uzyskanego w realizacji wielu projektów zastosowań TI oraz literatury przedmiotu (problematyką tą zajmowałem się wiele lat, a jedna z pierwszych w Polsce monografii o tej tematyce została przedstawiona w 1981 r.) pragnę podkreślić, że efekty zastosowania zawsze muszą być wyliczone przez użytkownika lub osobę albo instytucję działającą w jego imieniu. Natomiast nakłady nie zawsze. W wyliczeniu nakładów dużą część stanowią faktury i inne dokumenty księgowe. Bardzo często wysokość poniesionych kosztów jest przedmiotem wieloletnich spraw sądowych i to nie zawsze przed sądami polskimi. Wzorcem może tu być sprawa ciągnącego się latami procesu między Polfą Tarchomin a międzynarodową firmą CA (Computer Associate) przed sądem w Wiedniu o wdrożenie systemu klasy MPR II, gdzie CA nie wdrożyła zmówionego systemu a firma w terminach zawartym w kontrakcie nie zgłosiła swoich zastrzeżeń. Właśnie problemowi obliczania efektywność zastosowań ICT poświęcona będzie ta część książki. Konsekwentnie (od pierwszej publikacji na ten temat w roku 1975) jesteśmy zdania, że podstawą decyzji powinien być systemowy (pełny) rachunek ekonomiczny. 430

431 Zarządzanie i informatyka cz. V Rachunek, w którym analizujemy wszystkie elementy i zachodzące między nimi relacje, które wpływają na efektywność zastosowań. Istotne jest uwzględnienie nie tylko sytuacji występującej w organizacji, ale i w jej otoczeniu. Stanowisko to zostanie rozwinięte. W dyskusji nad potrzebami i metodami obliczania efektywności zastosowań ICT, pragniemy zwrócić uwagę na różnicę poglądów, która zaistniała między cytowanym powszechnie profesorem z Harvard Business School N. G. Carrem [2003] a P. A. Strassmannem [2004]. N. G. Carr stwierdził, że informatyka nie ma obecnie takiego znaczenia jak dawniej i dlatego powinniśmy wydawać na nią mniej pieniędzy. Dalej stwierdził, że mimo, iż narzędzia ICT są dzisiaj bardziej powszechne niż kiedykolwiek, to ich znaczenie strategiczne spadło. P. A. Strassmann, który z kolej jest również zwolennikiem redukcji kosztów na zastosowania informatyki, jednak nie zajmuje tak stanowczego stanowiska. Pisze on bowiem w książce Squandered Computer [2004]: stracisz, jeżeli nie będziesz wiedział czemu wydatki na TI mają służyć. Pogląd ten jest nam bliższy. Współczesna organizacja wymaga stałego rozwoju narzędzi ICT, a więc wzrostu nakładów na SIZ (MIS). Funkcjonowanie systemu informatycznego dotyczy zagadnień przetwarzania informacji. Jednak jak wyznaczyć wartości informacji do dziś stanowi nierozwiązane zadanie. Problem jest w miarę prosty wtedy, kiedy wyznaczamy wartość pojedynczej informacji, gdy natomiast mamy do czynienia z milionem informacji sytuacja jest jakościowo zupełnie inna. Wartość informacji jest związana z procesem podejmowania decyzji, a więc z prawdopodobieństwem zaistnienia różnych sytuacji decyzyjnych. Jednostkowa informacja ma zupełnie różną wartość w zależności od tego, jakie są kwalifikacje odbiorcy i jak jest on przygotowany do posługiwania się posiadanym narzędziem, czyli jakie decyzje może podjąć po otrzymaniu danej informacji. Równocześnie uzyskujemy określone zestawy informacji, które służą tylko znajomości istniejącego stanu, a po kolejnych przetwarzaniach stanowią element systemu decyzyjnego. Inaczej metodologicznie podejdziemy do obliczeń efektywność funkcjonowania systemu transakcyjnego czy systemu informowania kierownictwa, a inaczej do obliczenia efektywności systemów BI, czyli business intelligence. A przecież we wszystkich typach systemów informatycznych przetwarzane były różne formy informacji. Inaczej oceni system informatyczny pojedynczy użytkownik grający na giełdzie i korzystający z wyspecjalizowanego systemu doradczego, a inaczej kierownictwo wielkiego holdingu, które dzięki kokpitowi zarządzania posiada aktualne informacje o kierowanej przez siebie organizacji. Pewną słabością zawartych w literaturze propozycji wyliczania efektywności SIZ jest nieuwzględnienie właśnie tej istotnej różnicy. Trudno rachunek opierać na 431

432 Ekonomiczny kontekst zastosowań ICT szacowaniu za pomocą narzędzi statystycznych wartości informacji w systemach transakcyjnych, kiedy przetwarzamy miliony (i więcej) danych. Inwestowanie w TI ma na celu unowocześnienie systemu zarządzania. Sprawność funkcjonowania takiego systemu zależy od wielu czynników, bardzo często trudnych do zidentyfikowania. Często posługujemy się (co będzie dalej rozwinięte) pojęciami wymiernych i niewymiernych efektów, albo bardziej precyzyjnie trudno mierzalnych. Efektywność korzystania z informatyki zależy nie tylko od organizacji, ale też od sprawności otoczenia. Organizacja powiązania jest z innymi podmiotami wieloma kanałami. Sprawność powiązań, czyli tzw. interface, wpływa na sprawność całego układu. Użytkownicy systemu informatycznego mają różne preferencje, które nie zawsze są między nimi zgodne, a wręcz bywają konfliktowe. Trudność sprawia określenie wzajemnych relacji między wszystkimi użytkownikami danego systemu i nadaniu im odpowiednich wag. Podstawowy dylemat rachunku efektywności stanowi odpowiedź na pytanie: Jakie potrzeby ma w tym względzie mój użytkownik? Budowy systemu uczymy się na studiach lub w organizacjach projektowych, natomiast określenie informacyjnych potrzeb użytkownika, to realizacja podstawowego dylematu zarządzania. Czy postawienie trafnej diagnozy potrzeb informacyjnych użytkownika jest sztuką czy nauką? Czy można w miarę precyzyjnie określić te potrzeby stosując wiele różnych metodyk. O niektórych pisano wcześniej (patrz część poświęcona analizie). Najbardziej wyrafinowana metoda nie daje pewności, że zbadane potrzeby są właściwe, i że o to użytkownikowi chodziło. Dlatego też trzeba stosować tu podstawową zasadę ruchu samochodowego, czyli ograniczone zaufanie do wyników badań i konieczność stałego monitorowania zmieniającej się sytuacji w turbulentnym otoczeniu. Wpływ na efektywność zastosowań ICT mają, jak już przedstawiliśmy wcześniej, różnorodne czynniki. Możemy je pogrupować ze względu na ich charakter i źródło pochodzenia, w następujące grupy: techniczne, związane z postępem techniczno-technologicznym w obszarze infrastruktury informatycznej, a więc hardwarem, softwarem zarówno podstawowym, jak i aplikacyjnym, a także systemem łączności (należy zwrócić uwagę na dostęp do sieci globalnych typu Internet i szybkość przesyłania informacji); ekonomiczne, dotyczące zarówno wielkości posiadanych zasobów finansowych, jak i formuł rachunku opłacalność mierzonych rozmaitymi wskaźnikami oceny uzyskanych efektów, finansowe formy motywacji; organizacyjne, zależne od stosowanej formuły zarządzania (centralizacja decentralizacja), struktury organizacyjnej, stosowania rozwiązań outsourcingowych; 432

433 Zarządzanie i informatyka cz. V socjologiczno-psychologiczne, tj. preferencje, style kierowania, metody prowadzenia negocjacji i rozwiązywania konfliktów, kultura organizacji, pozafinansowe systemy motywacji, zagadnienia etyczne; prawne, istniejące regulacje prawne, tj. certyfikaty, system zarządzania jakością, standardy. Przedstawiony podział będzie rozwinięty w przeprowadzonej w dalszej części analizie barier i efektów. Wymienione czynniki uzasadniają stanowisko, że ocena funkcjonowania systemu informacyjnego powinna być wieloaspektowa. Większość z nich nie działa samoistnie, lecz występuje w różnych relacjach. W konsekwencji, ocena efektywności ICT nie może przesądzać o podjęciu decyzji. Ocenę taką, jak i cały rachunek ekonomiczny, traktujemy bowiem jako element doradczy procesu podejmowania decyzji. Bardzo często musi być wsparta analizą konsekwencji społecznych i odczuć użytkowników. Określenie tego, co potocznie jest rozumiane jako społeczne skutki, napotyka na wiele trudności. Negatywne odczucia społeczne, czyli zadziałanie zespołu czynników, które mogą spowodować tak wielki opór społeczny, że należy zrezygnować ze zmian lub też przeprowadzić dodatkową akcję wyjaśniającą. Mimo, iż z punktu widzenia czystej oceny efektywności zastosowanie informatyki jest ekonomicznie opłacalne, to jednak inne względy powodują, iż nie jest realizowany dany system. Na przykład niektóre portale zaczęły zbierać dane o naszych potrzebach informacyjnych przejawiające się w wyszukiwaniu odpowiednich haseł. Jednak większość społeczeństwa ma negatywne tego odczucia i uważa, że narusza to naszą prywatność. Na opłacalność zastosowań ICT wpływają również czynniki, które zależą od sytuacji istniejącej wewnątrz organizacji, a też w jej otoczeniu dalszym i bliższym. Następnym kryterium jest element czasu. Biorąc go pod uwagę czynniki wpływające na ICT można podzielić następująco: czynniki historyczne, takie jak: zastana infrastruktura zarządzania, nie najlepiej wyszkolony personel, trudny do skomputeryzowania proces produkcyjny, istniejące rozwiązania, szczególnie dotyczące sprzętu i oprogramowania, czynniki, które będą oddziaływać w przyszłości, w tym postęp w tworzeniu nowych generacji TI. I tak nie zawsze jest opłacalne inwestowanie w druty, czyli łączność kablową, bo coraz doskonalsza jest łączność bezdrutowa, czyli bezprzewodowa. Miary efektywności informatyki można podzielić na: obiektywne i subiektywne. Obiektywne miary efektywności są łatwe do zmierzenia. Można ich używać do porównań między organizacjami. Należą do nich na przykład: udział wydatków na informatykę w budże- 433

434 Ekonomiczny kontekst zastosowań ICT cie organizacji, wydatki na informatykę na jednego pracownika, średni czas oczekiwania na połączenie z Help Deskiem, okres zwrotu nakładów poniesionych na informatykę. Subiektywne miary są trudne do pomiaru i nie nadają się do porównań między organizacjami. Jedni decydenci nie umieją funkcjonować bez wsparcia ICT, drudzy zaś wydatki na te narzędzia uważają za niepotrzebną stratę pieniędzy. Przykłady takich miar podane był w punkcie o ocenie systemu informacyjnego (przyjazność, dostępność, niezawodność, jakość). Analiza poszczególnych czynników i istniejących relacji pozwala na określenie efektów i barier zastosowania ICT. Ocena efektywności zastosowań informatyki powinna brać pod uwagę analizę rożnych czynników. Praktycznie nie istnieje taka sytuacja, aby o efektywności ICT decydował tylko jeden czynnik. Zastosowanie informatyki to tylko jeden z elementów efektów całej organizacji jako systemu i wzajemnych powiązań. Dlatego też nie można jej rozpatrywać w oderwaniu od całości działalności organizacji. Przeprowadzając ocenę efektywności powinniśmy najpierw odpowiedzieć na pytania: Jaki udział w efektach organizacji ma informatyka? Jak wpływa informatyka na wyniki organizacji, czyli jakie zachodzi tu sprzężenie zwrotne? Są to podstawowe pytania, na które powinna odpowiedzieć kadra kierownicza, która podejmuje decyzje dotyczące zastosowania projektu informatycznego. Ilustrację graficzną relacji zachodzących między różnymi efektami działalności organizacji w tym i ICT przedstawiono na rysunku V.7. Sumaryczny efekt, jak: uzyskany zysk, poziom rentowności, płace pracowników, dywidendy właścicieli czy też wzrost ceny akcji, powstaje w wyniku działania różnych czynników. Podstawowy błąd oszacowania efektów to wielokrotne przepisanie efektu do określonej działalności organizacji. Legenda: Ez sumaryczne efekty zewnętrzne, który można uzyskać w wyniku działania organizacji. Ew sumaryczne efekty wewnętrzne, które można uzyskać w wyniku działania organizacji. A, B, C, Z efekty cząstkowe uzyskane w samej organizacji gdzie, A to efekt uzyskany dzięki ICT,. A', B', C',.. W' efekty cząstkowe zewnętrzne, czyli efekty uzyskane u klientów czy dostawców, gdzie A to efekt uzyskany dzięki ICT,. Rysunek V.7. Efekty działalności organizacji i relacje zachodzące między nimi. Źródło: opracowanie własne. 434

435 Zarządzanie i informatyka cz. V Całkowita płaszczyzna dużego koła z rysunku V.7, obrazująca efekt globalny składa się z cząstkowych efektów uzyskanych w wyniku jednostkowych działań (suma efektów zewnętrznych i wewnętrznych daje efekty całkowite E, czyli E = Ez + Ew). Jednak w praktyce jest to duże uproszczenie, ponieważ całkowity efekt nie jest algebraiczną sumą efektów jednostkowych. Wynika to z faktu interakcji jednostkowych działań. W ich wyniku pewne efekty są wyższe, ale mogą być niższe na skutek podwójnego liczenia efektów. Szczególnie widać to przy informatyzacji procesu, gdzie, na przykład, nie można wprowadzić automatyzacji procesu technologicznego bez zastosowań informatyki. Takie powiązania, które przynoszą wzrost efektu nazywamy często efektem sprzężonym lub synergicznym. Efekt sprzężony (synergiczny) jest to taki efekt, w którym jedno działanie wzmaga efekt innego z nim związanego. Biorąc pod uwagę miejsce powstania efektów, możemy je zgodnie z przeprowadzoną wcześniej analizą czynników podzielić na efekty występujące w organizacji lub w jej otoczeniu. Dzięki zastosowaniu ICT, np. w banku można zauważyć efekty zarówno w organizacji (większa wydajność pracowników liczona liczbą obsługiwanych operacji w jednostce czasu), jak też w jego otoczeniu (czyli u klienta banku, który mniej czasu straci w kolejce). Oczywiście efekty te są nie zawsze ilościowe lub obiektywne. Klient, który traci mniej czasu na obsługę, niż w konkurencyjnym banku, wybierze właśnie ten bank. W konsekwencji, dzięki zastosowaniu ICT, bank może liczyć na większe obroty. O ile jednak konkurencyjny bank zaproponuje, np. większe oprocentowanie depozytów, to mimo skrócenia czasu obsługi, klient może wybrać bank, w którym uzyska lepsze warunki finansowe. Jako przykład możne posłużyć również bank, którego biura dla prestiżowych klientów mieszczą się w centrum Warszawy i serwowane są przez cały dzień dobre koniaki i inne napoje, a proponowane oprocentowanie wkładów nie wytrzymuje konkurencji z bankami mieszczącymi się w mniej prestiżowych miejscach. W kontekście zastosowań ICT, powszechny, obok wcześniej przedstawionych, jest podział na dwie grupy efektów: efekty wymierne i niewymierne. Pojęcie efektów niewymiernych jest często nadużywane i określa się nim, np. większe uporządkowanie działania organizacji, poprawę skuteczności działań. Proponujemy nieco zmodyfikowaną klasyfikację, a mianowicie podział na: efekty ilościowe i efekty jakościowe. Efekt ilościowy jest to efekt, który można określić w obiektywnych jednostkach wartościowych (np. w PLN, EUR, USD) lub fizycznych (jednostki czasu). Najlepiej, jeżeli można określić efekt w jednostkach wartościowych, ale nie zawsze jest to możliwe. Efekt jakościowy to efekt, który przy obecnym stanie wiedzy nie możemy zmierzyć, a jedynie opisać. Jednak stosując rozmaite narzędzia, takie jak na przykład, metody symulacyjne, lub rachunek kosztów alternatywnych (opportunity or alternative cost) powodujemy jego bardziej precyzyjne oszacowanie. Analiza takiej sytuacji decyzyjnej zapobiega nieefektywnemu wydatkowi środków albo też powoduje, że podejmujemy decyzję w warunkach pełnej świadomości jej ekonomicznych skutków. I tak w jednym z badanych przez nas przedsiębiorstwie, jego kierownictwo zażądało, aby dostarczenie informacji następowało, 435

436 Ekonomiczny kontekst zastosowań ICT w zasadzie w czasie rzeczywistym. Ekonomiczna analiza pokazała, że ta wykonalna technicznie decyzja jest jednak bardzo droga. Symulacyjna analiza różnych wariantów szybkości dostarczania informacji pokazała, że można uzyskać wynik satysfakcjonujący kierownictwo przedsiębiorstwa taniej. Zastosowano podejście, które spowodowało dostarczenie pożądanej informacji na wcześniej ściśle określony termin, czyli zastosowano podejście on-time. Dla pełnej analizy efektywności należy stosować wspomniane już metody rachunku ekonomicznego. Dla jego przeprowadzenia należy oszacować zarówno rodzaje efektów, jak też określić miejsce ich powstania, czyli zastosować znaną w rachunkowości technikę MPK (Miejsc Powstawania Kosztów). Na rysunku V.8 pokazano propozycję podziału efektów zgodnie z przedstawioną już analizą czynników nań wpływających. Analiza efektów zgodnie z miejscami ich powstawania oraz podejmowania decyzji pozwala właśnie na powiązanie jej z metodologią rachunkowości zarządczej i stosowanie wcześniej wymienionych zasad MPK. W analizie efektywności zastosowań ICT istotne jest pojęcie efektu lub użyteczności potencjalnej i faktycznej. Z tym, że w analizie efektywności ocena związana jest, jak wspomniano, zarówno z efektami, jak i kosztami, natomiast pojęcie użyteczności dotyczy w zasadzie jednej strony, a mianowicie efektów. Pytamy wtedy najczęściej, czy ICT pomoże zrealizować cele organizacji. Problem kosztów jest istotny tylko wtedy, kiedy liczymy efektywność danego przedsięwzięcia. Rysunek V.8. Podział efektów eksploatacji systemów informatycznych. Źródło: opracowanie własne. Efektywność potencjalna to ta, którą można byłoby uzyskać, gdyby nie było barier (ograniczeń) w zastosowaniach ICT. O rodzajach i działaniach tych barier będziemy pisać w następnych punktach tego rozdziału. 436

437 Zarządzanie i informatyka cz. V Proces decyzyjny wyboru wariantu realizacji ICT Zgodnie z zasadami podejścia procesowego na wynik, czyli ocenę efektywności zastosowań ICT, wpływa również proces podjęcia decyzji. Proces ten jest wieloszczeblowy. Można to przedstawić za pomocą drzewa decyzyjnego (rys. V.9). Węzły tego drzewa to poszczególne cele, które powinny zostać zrealizowane dla podjęcia decyzji o zastosowaniu ICT. Poszczególne cele, przedstawione za pomocą drzewa celów, można również interpretować następująco: cel poziomu n 1 jest środkiem do realizacji celu na poziomie n. Rysunek V.9. Fragment drzewa decyzyjnego dla podjęcia decyzji dotyczącej ICTI. Źródło: opracowanie własne. Dla ilustracji na rysunku V.10 przedstawiono przykładowe drzewo decyzyjne dla zastosowań ICT w banku. Bank jest tu potraktowany jako rozwiązanie modelowe. Drzewo celu nie zmieni się, jeżeli przyjmiemy inny punkt odniesienia niż bank. Hierarchicznie najbardziej ważką decyzją będzie odpowiedź na pytanie: czy wdrażać w naszym oddziale system informatyczny? Decyzję tę określamy jako pierwszego stopnia. Musimy w tym miejscu zastanowić się, jakie wymagania stawiamy przed unowocześnianiem działania systemu bankowego i czy można je osiągnąć bez posługiwania się systemem informatycznym, na przykład, usprawniając tylko obieg dokumentacji lub zatrudniając dodatkowych pracowników. 437

438 Ekonomiczny kontekst zastosowań ICT Rysunek V.10. Przykładowe drzewo decyzyjne wdrożenia informatyki w oddziale banku Źródło: opracowanie własne.. Drugi stopień decyzyjny, to odpowiedź na pytanie: w jakim zakresie chcemy wdrażać system informatyczny? A więc może to być obsługa rachunków rozliczeniowych lub obsługa depozytów, czy też działalność kredytowa. Zakres działalności banku może być w całości lub w pewnej części objęty przez działania systemu informatycznego. Pełen zakres zastosowań obejmuje również współpracę z otoczeniem. Np. przelewy gotówkowe między różnymi bankami powinny być całkowicie skomputeryzowane w przeciwnym razie bank, który nie posiada takiego systemu informacyjnego, nie jest odpowiednim partnerem dla innych banków. Jeżeli odpowiemy już na pytania dotyczące zakresu wdrażania informatyki, wtedy pojawią się następne problemy, związane ze sposobem realizacji postawionych zadań. Jest to decyzja trzeciego stopnia dotycząca filozofii realizacji komputeryzacji banku. Może to być budowa sieci komputerowej dla całości banku, połączona z ogólnokrajową, a nawet ogólnoświatową siecią. W ocenie efektywności musimy odpowiedzieć na pytania: Czy ICT dla poszczególnych pojedynczych stanowisk pracy, czy też grup stanowisk roboczych? W następnej kolejności (decyzja czwartego stopnia) pytamy o środki techniczne, to znaczy: Jaki sprzęt komputerowy będzie przez nas użyty? Mogą to być duże i średnie komputery czyli tzw. main frame (AS-400), jak też inne typy komputery, na przykład superkomputery firmy Cray. Jeśli chodzi o środki techniczne informatyki napotykamy tu całą gamę problemów. Mogą one dotyczyć doboru środków dla transmisji danych między pamięcią masową a urządzeniami peryferyjnymi. Decyzją równie istotną jest sprawa oprogramowania. Podstawowe pytanie to: W jakim stopniu korzystamy z tzw. oprogramowania standardowego, a w jakim sami takie oprogramowania tworzymy? Czy będziemy korzystać ze specjalistycznego oprogramowania dla banków np. Elixir, czy stworzymy pakiet indywidualny, a jeżeli tak, to kto dla nas taki pakiet zaprojektuje (specjalistyczna firma softwarowa, czy nasi specjaliści)? 438

439 Zarządzanie i informatyka cz. V Powiązania między poszczególnymi poziomami decyzyjnymi mają różną siłę. I tak postęp techniczny, a zwłaszcza koncepcja systemów otwartych powoduje, że coraz mniejsza jest zależność między sprzętem technicznym a oprogramowaniem. Standaryzacja i unifikacja wynikająca ze stosowania norm światowych powoduje, że decyzje są coraz bardziej autonomiczne. Również, dość często decydujemy się na zakup oprogramowania, a dopiero potem wybieramy sprzęt. Jednak oprogramowanie jest bardziej mobilne, co oznacza, że ulega częstszym zmianom niż sprzęt. Podejmując decyzję o zakresie komputeryzacji musimy zdawać sobie sprawę z rozmaitych ograniczeń, które zawężają pole dopuszczalnych rozwiązań. Takim ograniczeniem są, np. dysponowane zasoby finansowe. Organizacja przeznacza pewien procent swoich zysków na rozwój i wtedy decydent podejmuje decyzję, w jakim stopniu te środki mogą być przeznaczone na ICT, czy też na inne formy działania. Jeśli już zdecydujemy się na ICT, to napotykamy dwie bariery (ograniczenia), w których powinniśmy się zmieścić w poniesionych wydatkach. Bariera górna polega na tym, że nie można przeznaczyć więcej środków niż mamy w dyspozycji. Bariera dolna że nie można wprowadzić rozwiązań z zakresu ICT dopóki nie przeznaczy się na nie pewnej minimalnej kwoty środków finansowych. Dysponując nawet stosunkowo znaczącymi środkami finansowymi, nie możemy wdrożyć rekomendowanego przez specjalistów wariantu zastosowań informatyki. Waga oddziaływania barier nie jest jednakowa. Bariery możemy podzielić na: Bezwzględne, których w praktyce nie można pominąć, a więc: nie możemy wydawać więcej na komputeryzację organizacji niż określoną kwotę, nie możemy zainstalować przydatnego nam sprzętu, ponieważ w kraju nie ma odpowiedniego serwisu lub też nie możemy, z różnych względów, zakupić potrzebnego oprogramowania. Względne, czyli takie, które przy określonym wysiłku możemy przezwyciężyć. Na przykład zainstalowanie oprogramowania, które uważamy za potrzebne wymaga zaangażowania lub przeszkolenia kadry lub też instalacji nowych typów komputerów, może wymagać pewnych adaptacji pomieszczeń. Pozorne, tj. takie, które sprawiają wrażenie istotnych, ale przy bliższej analizie okazuje się, że usunięcie ich wymaga niewielkiego wysiłku. Na przykład pragniemy wprowadzić nowy typ oprogramowania i wydaje się, że będziemy mieli trudności ze szkoleniem kadry, jednakże, analizując dokładnie umiejętności zatrudnionych w organizacji informatyków okazuje się, że jest to oprogramowanie, które oni doskonale znają. Ewentualnie mają kolegę poszukującego pracy, który dobrze to oprogramowanie zna. Siła działania każdego ograniczenia jest różna. Bardzo często pomocny jest rachunek symulacyjny, który pozwala uzyskać odpowiedź na wiele pytań, typu: Co uzyskamy, jeżeli dane ograniczenie przezwyciężymy? Jakie osiągniemy efekty, jeśli przezwyciężymy ograniczenie? 439

440 Ekonomiczny kontekst zastosowań ICT Symulacyjne podejście wymaga od nas działań i zastanowienia się, czy wydatkowane środki będą najbardziej właściwie wykorzystane. Bariery, zależnie od ich charakteru, możemy podzielić, podobnie jak i efekty, na następujące kategorie: T techniczne, E ekonomiczne, O organizacyjne, S socjopsychologiczne. Przedstawiony podział nie jest ostry, a większość istniejących barier związana jest z dwoma, trzema lub czterema kategoriami. Możemy więc określić, że proces informatyzacji opóźniony jest przez zbiory barier B, które można przedstawić jako: B = {T, E, O, S, R}. gdzie: T, E, O, S, odpowiednie zbiory barier: technicznych, ekonomicznych, organizacyjnych i socjo psychologicznych. R zbiór relacji między elementami poszczególnych zbiorów. Bariera techniczna jest najbardziej odczuwana przez użytkownika. Zastosowanie ICT wymaga użycia odpowiedniego sprzętu informatycznego. Elementem barier technicznych może być sam komputer lub też peryferia, jak np. czytniki optyczne dla wprowadzenia dużych ilości danych, skanery, drukarki, urządzenia transmisji danych. Barierą techniczną jest też brak oprogramowania i odpowiednich poradników pozwalających na korzystanie z niego. Wewnętrzne relacje w zbiorze barier technicznych polegają na tym, że jeżeli zdecydujemy się na określony typ oprogramowania, to musimy zakupić oprogramowanie uzupełniające. Bariera ekonomiczna polega na tym, że z braku odpowiednich środków finansowych, nie możemy wdrożyć najbardziej potrzebnego systemu informacyjnego. Mimo wysokiej oceny ekonomicznej i społecznej musimy ograniczyć zakres komputeryzacji organizacji. Na barierę ekonomiczną mają wpływ ceny i podatki. I tak, od 1 lipca 1993 roku do ceny komputera dolicza się podatek VAT. Poprzednio przez dość długi czas zakup komputerów nie był obciążony podatkiem obrotowym. Wynikało to z polityki państwa mającej na celu popieranie komputeryzacji i nadrobienie ogromnych opóźnień. Często jednak organizacja, która nie posiada odpowiednich środków na zakup sprzętu komputerowego, wybiera drogę jego dzierżawy. W ten sposób użytkownik może unowocześnić swoją infrastrukturę zarządzania mniejszymi środkami niż przy zakupie potrzebnego sprzętu. System dzierżawy jest szczególnie rozpowszechniony w tych organizacjach, które korzystają z rozproszonych baz danych, np. biura sprzedaży biletów lotniczych, małe biura podróży, biblioteki. Dla pewnej klasy mniej zasobnych użytkowników, możliwość przezwyciężenia ograniczenia ekonomicznego stanowi zakup komputerów już używanych lub leasing. Różnica 440

441 Zarządzanie i informatyka cz. V w cenie komputerów pochodzących od różnych dostawców, mimo tych samych parametrów katalogowych, przekracza nawet 100%. Związane jest to z renomą firmy produkującej, warunkami gwarancyjnymi i serwisowymi (pogwarancyjnymi). Bariery organizacyjne występują równie często w praktyce gospodarczej. Wiele systemów informatycznych nie zostało wdrożonych, ponieważ przeszkodą był brak przygotowania organizacji do ich eksploatacji. Elementem szczególnie istotnym jest tu umiejscowienie zespołu produkującego i eksploatującego w strukturze organizacji i jego powiązania ze wszystkimi komórkami organizacyjnymi użytkownika. Rozdział kompetencji i odpowiedzialności nie w pełni określony to następne elementy zaliczane do barier organizacyjnych. Bariera socjo-psychologiczna to naturalna reakcja na wprowadzane do organizacji zmiany. Zjawisko to można określić terminem bariery immunologicznej lub kooperacji negatywnej. Przejawia się tym, że członkowie organizacji, w której mają nastąpić zmiany, starają się je dyskredytować i na tym skupiają swoją działalność. Dla określania poszczególnych elementów barier komputeryzacji proponuje się zestaw macierzy charakteryzujących siłę oddziaływania barier i koszty niezbędne dla ich przezwyciężania. Użytkownik przeprowadzając ocenę komputeryzacji musi oszacować poszczególne elementów stanowiące zbiór takiej oceny. Dla budowy takiej macierzy, rozumianej jako pewna mapa problemu, musimy podjąć specjalistyczne badania i analizy. Praktyka uczy, że najtrudniej jest przypisać wielkości liczbowe dla macierzy powiązań czynników socjo-psychologicznych i określić ich wpływ na realizację przedsięwzięcia polegającego na komputeryzacji organizacji Ocena efektywności ekonomicznej zastosowań informatyki - rachunek ekonomiczny Syntetyczną ocenę ekonomicznej efektywności zastosowań ICT przeprowadzamy za pomocą rachunku ekonomicznego. Jest on jedną z podstawowych kategorii ekonomicznych, która polega na porównaniu nakładów związanych z podejmowanymi działaniami i efektów, jakie jednostka zamierza osiągnąć. Ułatwia on wybór takiego wariantu postępowania, który pozwala osiągnąć maksymalne korzyści: Wariant I zasada maksymalizacji efektu (przy danych nakładach jak największe efekty). Wariant II zasada minimalizacji kosztów (najmniejszego nakładu/oszczędności środków). Rachunek ekonomiczny jest to zespół instrumentów, technik, kryteriów i reguł wyboru optymalnego wariantu działań gospodarczych; w pragmatycznym ujęciu rachunek ekonomiczny jest zbiorem czynności związanych z przygotowaniem i realizacją przedsięwzięć; podstawowe narzędzie racjonalizacji decyzji ekonomicznych [ 441

442 Ekonomiczny kontekst zastosowań ICT Efektywność zastosowań ICT jest to współczynnik obliczony na podstawie analizy relacji zachodzącej między całkowitymi nakładami poniesionymi na ICT, a uzyskanymi w wyniku ich zastosowania efektami. Różnorodność efektów powoduje, że mówimy o rozmaitych formach efektywności. Najbardziej popularna jest efektywność ekonomiczna, w której zarówno nakłady, jak i efekty wyrażone są wartościowo, a więc w jednostkach pieniężnych (złoty, euro, dolar, jen). Często używamy też terminu efektywność społeczna. Jest to termin niejednoznaczny, ponieważ jego wymiar zależy od konkretnej sytuacji. Określa się ją jako optymalne rozmieszczenie zasobów w społeczeństwie, z uwzględnieniem wszystkich kosztów i korzyści zarówno zewnętrznych, jak i wewnętrznych. Na przykład, jeżeli chcemy zmniejszyć bezrobocie, to miernikiem może być nakład potrzebny na stworzenie jednego dodatkowego miejsca pracy. Często ocena jest przeprowadzona w innych niż wartościowych jednostkach. W organizacjach zajmujących się obsługą klientów, masowych użytkowników, miernik oceny efektywności ICT związany jest z odpowiedzią na pytanie o ile, dzięki wprowadzeniu ICT, ulegnie skróceniu czas obsługi jednego klienta? Miernik ten stosuje się w takich organizacjach, jak: banki, firmy ubezpieczeniowe, sprzedaż biletów różnego typu. Często też zastosowanie ICT prowadzi do zmiany stylu życia. W portalach informatycznych stosowany jest też miernik ilości osób odwiedzających. W systemach oceny pracowników naukowych miernikiem jest natomiast ilość cytowań. My zajmujemy się tylko problematyką efektywności ekonomicznej zastosowań ICT. Metody oceny efektywności zastosowań informatyki możemy podzielić według różnych kryteriów. I tak: 1. Formuła rachunku: analiza finansowa przedsięwzięcia w ujęciu cząstkowym lub syntetycznym, np. okres zwrotu nakładów, NPV (Net Present Value), ROA (Return on Management); analiza wskaźników umownych, które zestawione na specjalnym arkuszu służą ocenie poszczególnych rodzajów efektów (w ocenie biorą udział eksperci). Wariant lepszy ma wyższa ocenę; metody mieszane, w których wyliczamy np. jaki jest koszt uzyskania danego efektu; metody portfelowe, stosujące różnorodne mieszanki punktowe, w skład których wchodzą metody polioptymalne i wielowskaźnikowe, jak: suma ważonych ocen punktowych [D. Remenyi, A. Money, M. Sherwood-Smith, 2000 miary proponowane przez doradczą firmę Diebold]. 2. Problem decyzyjny patrz rysunek V.9 gdzie inną formułę stosujemy dla podjęcia decyzji, czy zastosować ICT a inną dla decyzji, jaki kupić System Zarządzania Bazą Danych i od jakiej firmy. 3. Metody szacowania parametrów rachunku ekonomicznego: deterministyczne wszystkie parametry rachunku są znane i jednoznacznie oceniane (nie są stosowane dla estymacji parametrów metody statystyki matematycznej); 442

443 Zarządzanie i informatyka cz. V probabilistyczne, w których dla oszacowania parametrów rachunku efektywności stosuje się narzędzia pozwalające między innymi oszacować poziom ryzyka realizacji przedsięwzięcia, takie jak rachunek prawdopodobieństwa i modele ekonometryczne oraz statystyki matematycznej. Występuje tu wiele różnego typu metod szacowania kosztów i efektów, takich jak: wartość dodana według P. A. Strasmanna [1985], czy też model stosowany w firmie SAP, który można określić skrótem TCO (Total Cost of Ownership); mieszane, gdzie stosuje się zarówno metody deterministyczne, jak i probabilistyczne. 3. Miejsca powstawania efektu: w organizacji i jej otoczeniu. I tak, jeżeli, tak jak wcześniej przedstawiono, efektem dla banku internetowego są niższe koszty jednej transakcji, natomiast w otoczeniu będzie to uzyskanie przez klienta wyższych przychodów z posiadanego w banku kapitału. To efekt będzie sumą efektu banku i klienta; bezpośrednie i pośrednie. Dla osób korzystających z systemów doradczych, bezpośrednim efektem mogą być wyższe dochody z giełdy wynikające z podejmowania właściwych decyzji zakupu akcji. Natomiast efektami pośrednimi będzie posiadanie pełnej informacji o zakupach w sklepie i na tej podstawie dopiero podejmowanie decyzji o zmianach w strukturach zakupu towarów lub zmiany dostawców. 4. Metody analizy cząstkowej oceny wybranych elementów funkcjonowania ICT: metoda całkowitych kosztów utrzymania (Total Cost of Ownership TCO), metoda całkowitego wpływu ekonomicznego (Total Economic Impact TEI), metoda opcji rzeczywistych (Real Options Valuation ROV), informatyczna karta wyników (Information Technology Scorecard ITSC), metoda ekonomiki informacji (Information Economics IE), metoda oczekiwanej wartości informacji (Expected Value of Information EVI), metoda stosowanej ekonomiki informacji (Applied Information Economics AIE). Oczywiście przedstawiony podział nie spełnia wymagań klasyfikacji i poszczególne metody mogą występować w różnych podanych grupach rachunku efektywności. Czytelnika zainteresowanego analizą stosowanych form rachunku efektywności odsyłamy do dość szerokiej literatury przedmiotu, w której podany jest przegląd stosowanych metod rachunku [A. Strasmann, 1997 i 2003; J. Kisielnicki, 1981, 2013; D. Remenyi, A. Money, M. Sherwood-Smith, 2000; J. Cypriański, 2007; P. Lech, 200;, E. Dudycz i M. Dyczkowski, 2007]. Tutaj przedstawimy tylko wybrane problemy oceny efektywności odnoszące się do sytuacji decyzyjnych, a nie zajmujemy się szczegółowymi metodami szacowania nakładów i efektów. Trudność w precyzyjnej ocenie efektów wynikają przede wszystkim z konieczności: określenia, jaka część efektów i nakładów jest bezpośrednio związana z komputeryzacją, a jaka wynika z innej działalności, którą możemy określić ogólnym mianem postępu organizacyjno-technicznego; 443

444 Ekonomiczny kontekst zastosowań ICT określenia wielkości samego efektu, który niekiedy związany jest z takimi trudno mierzalnymi wielkościami, jak wartość informacji, czy też szacunek skrócenia czasu jej pozyskiwania. Jak pisze E. Syska [2004] analizy zwrotu nakładów, czyli ROI, to powszechnie akceptowany, lecz rzadko faktycznie realizowany element procesów inwestycyjnych. Badania wskazują, że większość polskich przedsiębiorstw nie dokonuje kompleksowych analiz inwestycyjnych w sferze ICT. Bariery, jakie zidentyfikowano dotychczas, to: trudności z kompletnym modelowaniem przepływów finansowych z inwestycji w ICT, trudności z pomiarem efektów niemierzalnych, uzależnianie decyzji inwestycyjnej od czynników pozaekonomicznych, przekonanie o zbędności szczegółowych pomiarów. W wielu przypadkach ocenę możemy przeprowadzić po pewnym czasie, a więc na podstawie skutków, jakie zostały uzyskane w wyniku działania ICT. Ponieważ system informacyjny jest wyodrębnioną częścią systemu zarządzania, dlatego też występują tu podobnej klasy problemy, jak przy ocenie skutków unowocześnienia systemu zarządzania. Wcześniej zwrócono uwagę na mnogość problemów związanych z oceną procesu zastosowania ICT. Nasuwa się tutaj pytanie dlaczego pisząc poprzednio o ekonomicznej i społecznej efektywności zwracaliśmy uwagę na ograniczoną rolę rachunku ekonomicznego, a teraz kładziemy nacisk na tę ocenę. Wynika to z prezentowanego podejścia, że należy w miarę możliwości precyzyjnie oszacować efekty i koszty każdej podejmowanej decyzji. Jak już wcześniej pisano nie musimy zawsze postępować zgodnie z wskazaniem rachunku, ale powinniśmy być świadomi otrzymanego wyniku, a więc uzyskania w miarę pełnej odpowiedzi na następujące pytania: Ile kosztuje nas decyzja? Jakich efektów możemy się spodziewać, jeżeli podejmiemy daną decyzję? W literaturze ekonomicznej taką sytuację określa się jako przeprowadzenie rachunku z użyciem tzw. kosztów utraconych możliwości (opportunity or alternative cost). Ceną możliwości wyboru jest strata poniesiona w wyniku zrezygnowania z innego określonego wariantu (tu odpowiedniego rozwiązania TI). Stosując takie podejście, zwraca się uwagę na to, aby akt wyboru był jednocześnie elementem świadomej rezygnacji z innych, niewybranych możliwości. W zasadzie mamy do czynienia z dwiema podstawowymi sytuacjami decyzyjnymi: 1. Mamy wybrany wariant ICT i teraz pragniemy uzyskać odpowiedź, czy będzie to rozwiązanie opłacalna (alternatywa: tak nie)? 2. Istnieje zbiór różnych możliwych wariantów dotyczących ICT, a trudność polega na wyborze, jaki wariant wybrać (różne możliwe rozwiązania)? Odwołując się do przedstawionego poprzednio drzewa decyzji, pierwsze pytanie możemy zaliczyć do pierwszego poziomu decyzyjnego, natomiast pytanie drugie związane jest z niższymi poziomami decyzji. Dla uzyskania odpowiedzi na pierwsze pytanie staramy się 444

445 Zarządzanie i informatyka cz. V obliczyć, wchodzący w skład metod analizy finansowej, współczynnik stopy zwrotu ROI (Return on Investment): E ROI I gdzie: E efekt wynikający z zastosowania systemu informatycznego, liczony w jednostkach wartościowych, I nakład poniesiony na projektowanie, wdrożenie oraz eksploatację systemu informatycznego, liczony w takich samych jednostkach jak efekt. W drugiej sytuacji posługujemy się współczynnikiem efektywności względnej. E K I gdzie: K współczynnik efektywności względnej, E = E 2 E 1, a więc przyrost efektu wywołany zastosowaniem konkretnego wariantu porównywanego, I = I 2 I 1 czyli przyrost nakładów wywołanych zastosowaniem badanego wariantu komputeryzacji. Oczywiście rachunek ma wtedy sens, kiedy między porównywanymi wariantami zachodzą relacje:. E 1 >E 2 i I 1 >I 2 lub E 1 <E 2 i I 1 <I 2. W rachunku nie uwzględniono czasu i ryzyka w podejmowaniu decyzji. Kiedy badania dotyczą dłuższego okresu, czynnik ten może być włączony w postaci oprocentowania kapitału. Jeżeli mamy otrzymać niższe efekty, a ponieść wyższe nakłady, to oczywiście taki wariant zastosowania odrzucimy. Również jeżeli rozpatrywany wariant daje większe efekty i kosztuje mniej niż konkurencyjny to znaczy, że jednoznacznie jest to wariant lepszy i nie musimy przeprowadzać rachunku dla podjęcia decyzji Systemowa ocena efektywności ekonomicznej zastosowań ICT Systemowa ocena efektywności ekonomicznej zastosowań ICT polega na całościowej ocenie zarówno samego narzędzia, jak i jego otoczenia. Jako metodę analizy przyjmujemy podejście całościowe, w którym badamy też relacje zachodzące między ocenianym narzędziem a wszystkimi elementami mającymi wpływ na oceniany obiekt, czyli ICT. Zachodzą tu różnorodne relacje (związki), takie jak między innymi synergia. Całościowa analiza polega na tym, że badamy efektywność zastosowań ICT w okresie od momentu zamiaru przeprowadzenia zmian, a więc podjęcia decyzji o wprowadzeniu lub modernizacji istniejącego 445

446 Ekonomiczny kontekst zastosowań ICT systemu informacyjnego. Analiza powinna być prowadzona również na etapie projektowania, wdrażania, a następnie weryfikowana przez cały okres życia wprowadzonych rozwiązań. W miarę postępu monitorowanych prac rachunek efektywności jest cały czas doprecyzowywany, a kierownictwo organizacji może podejmować decyzje interwencyjne mające na celu zmniejszenie strat wywołanych przez nieprzewidziane negatywne sytuacje. Takie działania są wynikiem zastosowania jednej z istotnych metod analizy systemowej, czyli sprzężenia zwrotnego. Najczęściej końcem rachunku efektywności jest moment, kiedy sumaryczne efekty będą co najmniej równe poniesionym nakładom. Ogólną procedurę rachunku przedstawiono na rysunku V.11. Jest to w zasadzie zarys procedury, który ma na celu pokazanie podstawowych etapów prowadzenia obliczeń. Rachunek oceny efektywności ekonomicznej zastosowań składa się z następujących zasadniczych etapów: Etap wstępny identyfikacja problemu i zebranie potrzebnych danych. Etap sformułowania problemu, a w tym określenia wariantów realizacji. Analiza i dobranie odpowiednich metod dla określenia efektywności zastosowań TI. Wyliczenia i rekomendacje, co do pożądanych kierunków zastosowań TI. Weryfikacja uzyskanych wyników i ewentualna korekta już podjętych decyzji. Etap wstępny, czyli etap preparacji powinien pozwolić na identyfikację problemu. Polega on na zebraniu podstawowych informacji o obiekcie, w którym stosowana jest TI. Na tym etapie należy przeprowadzić charakterystykę organizacji, a więc analizę: struktury organizacyjnej, sytuacji finansowej, planu rozwoju. Bardzo dobrze, jeżeli dysponujemy odpowiednim biznes planem. Szczególną uwagę należy zwrócić na ograniczenia finansowe i rzeczowe. Pożyteczna jest tu zwłaszcza identyfikacja ograniczeń (barier), dotycząca samej komputeryzacji, według zasad przedstawionych w poprzednich częściach rozdziału. Oczywiście istotne są informacje o środkach i warunkach, na jakich mogą być one udostępnione dla przeprowadzenia komputeryzacji. W fazie identyfikacji należy określić informacyjne powiązania organizacji z otoczeniem oraz odpowiedzieć na następujące pytania: Czy system informatyczny powinien dostarczyć danych innym systemom informatycznym, np. bankowym, statystycznym, ubezpieczeniowym? Czy należy przestrzegać określonych norm i formatów generowanych danych? 446

447 Rysunek V.11. Procedura systemowego rachunku efektywności w celu wyboru wariantu komputeryzacji. Źródło: opracowanie własne. Zarządzanie i informatyka cz. V 447

448 Ekonomiczny kontekst zastosowań ICT Czy przewiduje się podłączenie naszego systemu informatycznego do innych systemów zarówno krajowych, jak i zagranicznych? Jakie rozwiązania ICT istnieją w podobnych organizacjach w kraju i za granicą (stosowane jest w tym celu podejście benchmarkingowe)? Pytań może być o wiele więcej, ale zasadniczym celem jest uzyskanie w miarę pełnej informacji o organizacji i jej powiązaniach z otoczeniem. We właściwej procedurze obliczeniowej krokiem numer jeden jest budowa macierzy sytuacji decyzyjnych. Elementami tego zbioru są tzw. działania jednostkowe, czyli takie, które pozwalają decydentom wykonać postawione przed nimi zadania. Działania nie są jednorodne. Macierz działań jednostkowych dla przykładowej organizacji przedstawiona jest w tabeli V.3. Tabela V.3. Przykładowa macierz działań jednostkowych Lp. Poziom decyzyjny Charakterystyka jednostkowa działań 1. W jakim zakresie wprowadzana będzie komputeryzacja? Zaopatrzenie Produkcja Zbyt.. Kadry 2. Jakie będzie stosowane oprogramowanie narzędziowe? NeXTStep Linux Microsoft Windows.. UNIX 3. Jakie będzie stosowane oprogramowanie aplikacyjne? Ingres Progress MS.Word.. MS.Office 4. Jaki będzie podstawowy sprzęt komputerowy? Źródło: opracowanie własne. Dell Precision M3800 Lenovo ThinkPad L440 IBM System z9.. Sieć komputerowa Macierz zbudowana jest w sposób specyficzny. Każdy z wierszy można rozpatrywać jako pewien poziom decyzyjny. Macierz jest więc pewnym uzupełnieniem przedstawionego poprzednio drzewa decyzji. Jeżeli więc decyzja wyższego poziomu została podjęta, to można przejść do poziomu niższego. Zaleca się tu podejście z góry w dół. Nie proponujemy więc podejścia typu mam komputer jakie operacje mogę jeszcze na nim wykonać?, choć praktyka pokazuje, że takie pytania się zdarzają. Między jednostkowymi decyzjami co do zastosowań ICT zachodzą określone relacje. Mogą one być następujące: 448

449 Zarządzanie i informatyka cz. V Relacja implikacji, a więc kiedy jedno działanie powoduje konieczność realizacji działania związanego; stosując system dla działu zbytu musimy również zakupić komputer wraz z oprogramowaniem dla gospodarki magazynowej. Relacje implikacji mogą zachodzić w pionie, to znaczy, że wybór jednostkowego działania na jednym poziomie decyzyjnym powoduje, że mamy ograniczony zbiór działań na niższych poziomach. Relacja spójności, jedno działanie pociąga za sobą drugie i odwrotnie W takiej sytuacji często łączymy działania jednostkowe i w ten sposób upraszczamy macierz działań jednostkowych. Relacja wykluczenia, przyjęcie jednego działania powoduje, że odrzucamy inne konkurencyjne działania. Wybór, na przykład, określonego systemu zarządzania bazą danych powoduje, że nie zakupujemy systemów dla tych samych celów u innych producentów. Następnie wybieramy do analizy jedno z działań jednostkowych stosując metodę z góry w dół i przeprowadzamy charakterystykę wybranego działania. Polega to na określeniu dwóch grup mierników. Pierwsza to mierniki ogólne, wartościujące działanie na każdym poziomie decyzyjnym, druga to mierniki szczegółowe. Mierniki ogólne mają najczęściej wymiar wartościowy i dotyczą takich zagadnień, jak koszty i efekty oraz odpowiednie relacje typu: współczynniki efektywności względnej i bezwzględnej, okres zwrotu nakładów (patrz przegląd metod oceny efektywności). Dysponując charakterystyką jednostkowego działania, z bazy metod i procedur rachunku dobieramy odpowiedni zestaw narzędzi dla oceny tego działania. Z punktu widzenia teorii podejmowania decyzji jest to problem wielokryterialny. Dlatego też niezmiernie istotne jest sprecyzowanie zestawu kryteriów i ustalenie priorytetów. W kolejnym kroku procedury dokonujemy konfrontacji informacji uzyskanych w poprzednich krokach analizując, czy posiadane informacje są wystarczające dla przeprowadzenia oceny działania. Jeżeli okaże się, że uzyskana charakterystyka nie pozwala na przeprowadzenie oceny, to określamy, jakie są potrzebne dane uzupełniające. Następnie przeprowadzamy obliczenia wybraną metodą, korzystając z procedur zaczerpniętych z odpowiedniego banku metod i procedur. Stosowany system informatyczny można zaliczyć do systemów doradczych. W konsekwencji otrzymujemy wyniki w postaci uporządkowanego, ze względu na przyjęte kryteria, zbioru jednostkowych działań. Kolejność realizacji zależy od rozmaitych czynników. Możemy jednak przyjąć, że użytkownik weryfikując rachunek uwzględnił już istniejące bariery. 449

450 Ekonomiczny kontekst zastosowań ICT Przedstawiona w poprzednim punkcie procedura ma charakter ogólny. Przy przeprowadzeniu rachunków stosujemy szczegółowe techniki obliczeń. Jedną z nich jest analiza rachunkiem sald (ARS). Technika ta, jak i jej symulacyjne wersje przy zastosowaniu metody dynamiki systemów [Industrial Dynamics, J. Forester, 1961, 1988, 1999 i rozwinięcie między innymi przez G. Dosi, F. Malerba, 2002] MARS I i MARS II (Modele ARS) zostały zweryfikowane w praktyce gospodarczej [J. Kisielnicki, 1981 i późniejsze prace]. Analiza rachunkiem sald pozwala na uzyskanie odpowiedzi na postawione wcześniej, w drzewie decyzyjnym pytania. ARS możemy określić jako metodę pełnego systemowego rachunku ekonomicznego. W wyniku przeprowadzonych obliczeń oceniamy zwrot pełnych kosztów poniesionych na realizację danego przedsięwzięcia. Ocena ta obejmuje okres od momentu przystąpienia do prac projektowych do chwili zwrotu poniesionych kosztów (rozumianych jako nakłady inwestycyjne i koszty ponoszone w różnych fazach realizacji przedsięwzięcia). Rachunek jest pomocny w uzyskaniu odpowiedzi na następujące podstawowe pytania: Jakie są pełne koszty ponoszone na przedsięwzięcie? Jakich możemy spodziewać się efektów ekonomicznych? W jakim czasie nastąpi zwrot poniesionych nakładów? Rachunek przeprowadza się za pomocą zestawień, w których ustala się różnicę między kosztami a efektami w poszczególnych okresach (miesiącach, kwartałach, latach). Nazwa techniki pochodzi stąd, że ponoszone ciągnione koszty zestawia się z ciągnionymi efektami, jakie generuje realizacja przedsięwzięcia. Określenie ciągnione koszty i efekty oznacza, że koszty i efekty są obliczone jako suma okresów poprzedniego i danego roku (lub innego okresu, np. kwartału, miesiąca, dekady). Dla każdego z badanych okresów oblicza się saldo. Dlatego metoda nosi nazwę analiza rachunkiem sald. Jeśli suma kosztów K przewyższa sumę efektów E to powstaje następująca relacja (co dzieje się w początkowej fazie realizacji projektu): i Ei K czyli E i K i 0 gdzie: K i (dla i = 1,2,..,t) całkowite koszty poniesione w okresie i, E i (dla i = 1,2,..,t) efekty otrzymane dzięki realizacji przedsięwzięcia w okresie i. Saldem będziemy nazywali wielkość S i = E i K i. Rachunek prowadzimy dotąd, aż ciągnione saldo osiągnie wartość dodatnią, czyli S i > 0. W tym momencie ciągnione efekty przewyższają koszty i otrzymujemy zwrot poniesionych kosztów. W literaturze często używa się terminu pay off (całkowita spłata). Przeprowadzenie takiego rachunku cechuje: 450

451 Zarządzanie i informatyka cz. V Dynamiczność analizy, którą uzyskuje się przez badanie kształtowania się strumieni zmian wielkości kosztów i efektów zarówno w poszczególnych podokresach analizy, jak też w poszczególnych fazach projektowania, wdrażania i eksploatacji systemu informatycznego. Uwzględnienie elementu czasu przez przeprowadzenie rachunku z zastosowaniem stopy procentowej (r) i zasad procentu składanego. Otwartą kwestią jest przyjęcie określonej wielkości stopy procentowej. W przeprowadzonych wyliczeniach, w zależności od sytuacji makroekonomicznej, przyjmowano, że (r) wynosi od 4,5 do 7%. Rachunek przeprowadzony techniką ARS pozwala na otrzymanie odpowiedzi na wcześniej już postawione trzy podstawowe pytania: Czy stosować przedsięwzięcie informatyczne i w jakim zakresie? Jaki wariant rozwiązania wybrać? Jaki jest stopień zgodności przewidywanych i faktycznych kosztów i nakładów (kontrola realizacji przedsięwzięcia)? Odpowiedzią na pierwsze pytanie jest wspomniana wcześniej analiza kosztu utraconych szans. Czyli uzyskanie odpowiedzi na pytanie: jakie poniesiemy straty, jeżeli nie zastosujemy w danej organizacji informatyki? Drugie pytanie dotyczy problemu wyboru. Z zaproponowanych decydentowi zbiorów skutecznych wariantów zastosowań ICT, rekomendowany jest ten, który przy przyjętych ograniczeniach jest najbardziej efektywny (sprawny). Dlatego możemy przyjąć, że w tej kwestii, zadaniem rachunku ARS jest zaproponowanie decydentowi realizacji takiego przedsięwzięcia informatycznego, które spełnia kryteria dobrego projektu (realizuje planowany zakres, budżet i czas) i jest efektywne. W trzecim pytaniu decydent zainteresowany jest monitoringiem, czyli jak najwcześniejszym uzyskaniem informacji o sytuacji, w której wzrost kosztu do zatwierdzonego w planie budżetu ( K i ) spowoduje dla danego okresu i, osiągnięcie wielkości K i * uznanej przezeń za alarmującą,:. K * i K p i K r i dla i = 1, 2,.., t gdzie: p K i koszty planowane na system w momencie i, r K i koszty rzeczywiście poniesione na system w momencie i. Znajomość relacji: K * i K i pozwala na podjęcie decyzji interwencyjnych, a następnie zmianę niekorzystnej sytuacji (Koszty i efekty powinny być sprowadzone do jednolitego poziomu cen. W zasadzie ustala się go w wysokości aktualnej w chwili przeprowadzenia rachunku). 451

452 Ekonomiczny kontekst zastosowań ICT Rachunek przeprowadza się do momentu, w którym pojawi się ciągnione saldo dodatnie. Najlepszy wariant jest ten, dla którego najwcześniej pojawi się saldo dodatnie, lub dla analizowanego okresu saldo będzie miało największą wartość. Powiązania zachodzące między realizowanym przedsięwzięciem informatycznym, a decydentem przedstawia rysunek V.12. Na rysunku tym pokazano graficznie zmiany zachodzące w przedsięwzięciu w kolejnych fazach projektowania, wdrażania i następnie, eksploatacji. Decydenta reprezentuje blok o nazwie Analizator. Rysunek V.12. Analiza rachunkiem sald powiązania modułów w analizie przedsięwzięcia Źródło: opracowane własne. Funkcją analizatora jest między innymi analiza prawidłowości kształtowania się sald w poszczególnych badanych okresach. Dzięki analizatorowi możemy rozstrzygnąć następujące kwestie: Czy decydent akceptuje ponadplanowe zużycie zasobów? Czy przekroczenia mogą być zlikwidowane w przyszłych okresach przez odpowiednie decyzje interwencyjne? Czy dokonane odstępstwa będą miały znaczący wpływ na wynik rachunku ekonomicznego, a więc czy należy zweryfikować podjęte wcześniej decyzje wyboru? Funkcje analizatora można porównać do funkcji eksperta. W zasadzie analizatorem powinien być SMoK, czyli System MOnitorowania Kierownictwa. W bazie danych zawiera on bowiem dane dotyczące planowanych kosztów i efektów oraz akceptowaną tolerancję ich kształtowania się. System funkcjonuje następująco: decydent uruchamia odpowiednie środki, czyli ponosi koszty i otrzymuje informację o kształtowaniu się salda w analizowanym okresie. Uzyskane dane są porównywane z danymi planowanymi i pozwalają uruchomić następną transzę środków finansowych, jak też podjąć decyzje dotyczące realizacji projektu, nie wyłączając decyzji personalnych. ARS powinien być uzupełniony bazą wiedzy o podobnych sytuacjach, które zaistniały w historii przy realizacji podobnych przedsięwzięć. Analizator jako specyficzny system z klasy systemów doradczych powinien korzystać z: bazy danych (dane o kosztach i efektach oraz ich strukturze), bazy modeli (procedury rachunku, modele analizy trendów, modele symulacyjne. Wszystkie one pozwalają na stosunkowo pełną odpowiedź co się zmieni, jeżeli zmienią się parametry rachunku), 452

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą.

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. 1 Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. PLACET słowo niegdyś używane w naszym języku a zapożyczone z łaciny oznaczało: przyzwolenie, zgodę, a też,,podobać się. To właśnie

Bardziej szczegółowo

Darmowy fragment www.bezkartek.pl

Darmowy fragment www.bezkartek.pl WARTO TEŻ PRZECZYTAĆ: Seria: INFORMATYKA DLA ZARZĄDZANIA J. Kisielnicki, H. Sroka Systemy informacyjne biznesu Z. Szyjewski Metodyki zarządzania projektami informatycznymi Z. Pastuszak Implementacja zaawansowanych

Bardziej szczegółowo

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą.

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. 1 Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. PLACET słowo niegdyś używane w naszym języku a zapożyczone z łaciny oznaczało: przyzwolenie, zgodę, a też,,podobać się. To właśnie

Bardziej szczegółowo

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą.

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. 1 Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. PLACET słowo niegdyś używane w naszym języku a zapożyczone z łaciny oznaczało: przyzwolenie, zgodę, a też,,podobać się. To właśnie

Bardziej szczegółowo

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą.

Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. Wydawnictwo PLACET zaprasza Państwa do zapoznania się z naszą ofertą. PLACET słowo niegdyś używane w naszym języku a zapożyczone z łaciny oznaczało: przyzwolenie, zgodę, a też,,podobać się. To właśnie

Bardziej szczegółowo

Narzędzia Informatyki w biznesie

Narzędzia Informatyki w biznesie Narzędzia Informatyki w biznesie Przedstawiony program specjalności obejmuje obszary wiedzy informatycznej (wraz z stosowanymi w nich technikami i narzędziami), które wydają się być najistotniejsze w kontekście

Bardziej szczegółowo

Zarządzanie firmą Celem specjalności jest

Zarządzanie firmą Celem specjalności jest Zarządzanie firmą Celem specjalności jest przygotowanie jej absolwentów do pracy na kierowniczych stanowiskach średniego i wyższego szczebla we wszystkich rodzajach przedsiębiorstw. Słuchacz specjalności

Bardziej szczegółowo

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE Efekty kształcenia dla kierunku MIĘDZYNARODOWE STOSUNKI GOSPODARCZE - studia drugiego stopnia - profil ogólnoakademicki Forma Studiów: stacjonarne i niestacjonarne Wydział Gospodarki Międzynarodowej Uniwersytetu

Bardziej szczegółowo

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW MIĘDZYNARODOWE STOSUNKI GOSPODARCZE studia pierwszego stopnia profil ogólnoakademicki studia drugiego stopnia profil ogólnoakademicki Objaśnienie oznaczeń: S1A obszar

Bardziej szczegółowo

Spis treści. Analiza i modelowanie_nowicki, Chomiak_Księga1.indb :03:08

Spis treści. Analiza i modelowanie_nowicki, Chomiak_Księga1.indb :03:08 Spis treści Wstęp.............................................................. 7 Część I Podstawy analizy i modelowania systemów 1. Charakterystyka systemów informacyjnych....................... 13 1.1.

Bardziej szczegółowo

Uchwała Nr 28/2013/IV Senatu Politechniki Lubelskiej z dnia 26 kwietnia 2013 r.

Uchwała Nr 28/2013/IV Senatu Politechniki Lubelskiej z dnia 26 kwietnia 2013 r. Uchwała Nr 28/2013/IV Senatu Politechniki Lubelskiej z dnia 26 kwietnia 2013 r. w sprawie określenia efektów kształcenia dla studiów podyplomowych Zarządzanie Logistyką w Przedsiębiorstwie, prowadzonych

Bardziej szczegółowo

Uchwała Nr 11/2013/II Senatu Politechniki Lubelskiej z dnia 21 marca 2013 r.

Uchwała Nr 11/2013/II Senatu Politechniki Lubelskiej z dnia 21 marca 2013 r. Uchwała Nr 11/2013/II Senatu Politechniki Lubelskiej z dnia 21 marca 2013 r. w sprawie określenia efektów kształcenia dla menedżerskich studiów podyplomowych Master of Business Administration (MBA) prowadzonych

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA KIERUNEK EKONOMIA

EFEKTY KSZTAŁCENIA KIERUNEK EKONOMIA EFEKTY KSZTAŁCENIA KIERUNEK EKONOMIA Kierunek Ekonomia Studia I stopnia Efekty kształcenia: Kierunek: Ekonomia Poziom kształcenia: Studia I stopnia Uczelnia: Uczelnia Łazarskiego w Warszawie Profil: Ogólnoakademicki

Bardziej szczegółowo

Uchwała Nr 45/2014/IX Senatu Politechniki Lubelskiej z dnia 18 grudnia 2014 r.

Uchwała Nr 45/2014/IX Senatu Politechniki Lubelskiej z dnia 18 grudnia 2014 r. Uchwała Nr 45/2014/IX Senatu Politechniki Lubelskiej z dnia 18 grudnia 2014 r. w sprawie określenia efektów kształcenia dla studiów pierwszego stopnia na kierunku finanse i rachunkowość prowadzonych na

Bardziej szczegółowo

Zarządzanie strategiczne

Zarządzanie strategiczne Zarządzanie strategiczne Zajęcia w ramach specjalności "zarządzanie strategiczne" prowadzić będą specjaliści z wieloletnim doświadczeniem w pracy zarówno dydaktycznej, jak i naukowej. Doświadczenia te

Bardziej szczegółowo

6 Metody badania i modele rozwoju organizacji

6 Metody badania i modele rozwoju organizacji Spis treści Przedmowa 11 1. Kreowanie systemu zarządzania wiedzą w organizacji 13 1.1. Istota systemu zarządzania wiedzą 13 1.2. Cechy dobrego systemu zarządzania wiedzą 16 1.3. Czynniki determinujące

Bardziej szczegółowo

Studia magisterskie uzupełniające Kierunek: Ekonomia. Specjalność: Ekonomia Menedżerska

Studia magisterskie uzupełniające Kierunek: Ekonomia. Specjalność: Ekonomia Menedżerska Studia magisterskie uzupełniające Kierunek: Ekonomia Specjalność: Ekonomia Menedżerska Spis treści 1. Dlaczego warto wybrać specjalność ekonomia menedżerska? 2. Czego nauczysz się wybierając tę specjalność?

Bardziej szczegółowo

Efekty kształcenia dla kierunku studiów LOGISTYKA studia pierwszego stopnia profil praktyczny

Efekty kształcenia dla kierunku studiów LOGISTYKA studia pierwszego stopnia profil praktyczny Załącznik do uchwały Nr XXIII 5.5/13 Senatu UMCS z dnia 27 lutego 2013 r. Efekty kształcenia dla kierunku studiów LOGISTYKA studia pierwszego stopnia profil praktyczny Umiejscowienie kierunku w obszarze

Bardziej szczegółowo

WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW FINANSE STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI

WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW FINANSE STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW FINANSE STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI Umiejscowienie kierunku w obszarze kształcenia Kierunek studiów finanse należy do obszaru kształcenia

Bardziej szczegółowo

Kierunek Zarządzanie II stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych

Kierunek Zarządzanie II stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych Kierunek Zarządzanie II stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych Objaśnienie oznaczeń: Z efekty kierunkowe dla Zarządzania W wiedza

Bardziej szczegółowo

Współpraca pracowników naukowych z parkami technologicznymi na przykładzie Finlandii - propozycja implementacji rozwiązań dla Polski

Współpraca pracowników naukowych z parkami technologicznymi na przykładzie Finlandii - propozycja implementacji rozwiązań dla Polski Współpraca pracowników naukowych z parkami technologicznymi na przykładzie Finlandii - propozycja implementacji rozwiązań dla Polski Dr inż. MBA Janusz Marszalec Centrum Edisona, Warszawa 8 kwietnia 2014

Bardziej szczegółowo

Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia

Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia Załącznik nr 1 do Uchwały nr 7/VI/2012 Senatu Wyższej Szkoły Handlowej im. Bolesława Markowskiego w Kielcach z dnia 13 czerwca 2012 roku. Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia

Bardziej szczegółowo

Symbol EKO S2A_W01 S2A_W02, S2A_W03, S2A_W03 S2A_W04 S2A_W05 S2A_W06 S2A_W07 S2A_W08, S2A_W09 S2A_W10

Symbol EKO S2A_W01 S2A_W02, S2A_W03, S2A_W03 S2A_W04 S2A_W05 S2A_W06 S2A_W07 S2A_W08, S2A_W09 S2A_W10 Załącznik do uchwały nr 73 Senatu Uniwersytetu Zielonogórskiego z dnia 30 stycznia 2013 r. Opis zakładanych efektów kształcenia Nazwa kierunku studiów: Administracja 1. Odniesień efektów kierunkowych do

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI Umiejscowienie kierunku w obszarach kształcenia Kierunek studiów Zarządzanie reprezentuje dziedzinę

Bardziej szczegółowo

Kierunek Zarządzanie I stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych

Kierunek Zarządzanie I stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych Kierunek Zarządzanie I stopnia Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych Objaśnienie oznaczeń: Z efekty kierunkowe W wiedza U umiejętności

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA NA KIERUNKU GOSPODARKA I ZARZĄDZANIE PUBLICZNE STUDIA II STOPNIA

EFEKTY KSZTAŁCENIA NA KIERUNKU GOSPODARKA I ZARZĄDZANIE PUBLICZNE STUDIA II STOPNIA EFEKTY KSZTAŁCENIA NA KIERUNKU GOSPODARKA I ZARZĄDZANIE PUBLICZNE STUDIA II STOPNIA na kierunku GiZP II stopień GZP2_W01 GZP2_W02 GZP2_W03 GZP2_W04 GZP2_W05 GZP2_W06 GZP2_W07 GZP2_W08 GZP2_W09 GZP2_W10

Bardziej szczegółowo

UCHWAŁA NR 50 Senatu Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie z dnia 28 maja 2012 r.

UCHWAŁA NR 50 Senatu Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie z dnia 28 maja 2012 r. UCHWAŁA NR 50 Senatu Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie z dnia 28 maja 2012 r. w sprawie określenia opisu efektów kształcenia dla kierunku studiów ekonomia pierwszego i drugiego

Bardziej szczegółowo

Odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych WIEDZA K_W01

Odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych WIEDZA K_W01 Efekty kształcenia dla kierunku EKONOMIA studia drugiego stopnia profil ogólnoakademicki Forma studiów: stacjonarne i niestacjonarne Wydział Ekonomii Uniwersytetu Ekonomicznego w Poznaniu Umiejscowienie

Bardziej szczegółowo

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK FINANSE I RACHUNKOWOŚĆ studia stacjonarne i niestacjonarne licencjackie (I stopnia)

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK FINANSE I RACHUNKOWOŚĆ studia stacjonarne i niestacjonarne licencjackie (I stopnia) Wydział Nauk Ekonomicznych i Technicznych KIERUNEK FINANSE I RACHUNKOWOŚĆ studia stacjonarne i niestacjonarne licencjackie (I stopnia) Specjalności: finanse przedsiębiorstw informatyka w finansach Ulotka

Bardziej szczegółowo

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne licencjackie (I stopnia)

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne licencjackie (I stopnia) Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne licencjackie (I stopnia) Specjalności: transport, spedycja i przewozy NOWOŚĆ! międzynarodowe - gospodarka

Bardziej szczegółowo

GOSPODARKA TURYSTYCZNA

GOSPODARKA TURYSTYCZNA Efekty kształcenia dla kierunku GOSPODARKA TURYSTYCZNA - studia pierwszego stopnia - profil ogólnoakademicki Forma studiów: stacjonarne i niestacjonarne Wydział Gospodarki Międzynarodowej Uniwersytetu

Bardziej szczegółowo

Bardzo dobra Dobra Dostateczna Dopuszczająca

Bardzo dobra Dobra Dostateczna Dopuszczająca ELEMENTY EKONOMII PRZEDMIOTOWY SYSTEM OCENIANIA Klasa: I TE Liczba godzin w tygodniu: 3 godziny Numer programu: 341[02]/L-S/MEN/Improve/1999 Prowadzący: T.Kożak- Siara I Ekonomia jako nauka o gospodarowaniu

Bardziej szczegółowo

GT1_W09 GT1_W03 GT1_W04 GT1_W05 GT1_W06 GT1_W07 GT1_W08 GT1_W11 GT1_W12

GT1_W09 GT1_W03 GT1_W04 GT1_W05 GT1_W06 GT1_W07 GT1_W08 GT1_W11 GT1_W12 EFEKTY KSZTAŁCENIA ORAZ MACIERZE POKRYCIA KIERUNKU GOSPODARKA TURYSTYCZNA STUDIA LICENCJACKIE ------------------------------------------------------------------------------------------------- WIEDZA GT1_W01

Bardziej szczegółowo

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE Efekty kształcenia dla kierunku MIĘDZYNARODOWE STOSUNKI GOSPODARCZE - studia pierwszego stopnia - profil ogólnoakademicki Forma Studiów: stacjonarne i niestacjonarne Wydział Gospodarki Międzynarodowej

Bardziej szczegółowo

Inteligentne organizacje zarządzanie wiedzą i kompetencjami pracowników

Inteligentne organizacje zarządzanie wiedzą i kompetencjami pracowników 2010 Inteligentne organizacje zarządzanie wiedzą i kompetencjami pracowników Paulina Zadura-Lichota Zespół Przedsiębiorczości Warszawa, styczeń 2010 r. Pojęcie inteligentnej organizacji Organizacja inteligentna

Bardziej szczegółowo

Kierunkowe efekty kształcenia

Kierunkowe efekty kształcenia Kierunkowe efekty kształcenia Kierunek: ekonomia Obszar kształcenia: nauki społeczne Poziom kształcenia: studia drugiego stopnia Profil kształcenia: ogólnoakademicki Uzyskane kwalifikacje: magister Symbol

Bardziej szczegółowo

Misja Wydziału Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu

Misja Wydziału Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu Misja Wydziału Nauk Ekonomicznych i Zarządzania Uniwersytetu Mikołaja Kopernika w Toruniu Prowadzimy działalność naukowo-badawczą oraz kształcimy bazując na najnowszych osiągnięciach teorii i rozwiązaniach

Bardziej szczegółowo

Zestawy zagadnień na egzamin magisterski dla kierunku EKONOMIA (studia II stopnia)

Zestawy zagadnień na egzamin magisterski dla kierunku EKONOMIA (studia II stopnia) Zestawy zagadnień na egzamin magisterski dla kierunku EKONOMIA (studia II stopnia) Obowiązuje od 01.10.2014 Zgodnie z Zarządzeniem Rektora ZPSB w sprawie Regulaminu Procedur Dyplomowych, na egzaminie magisterskim

Bardziej szczegółowo

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne uzupełniające magisterskie (II stopnia)

Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne uzupełniające magisterskie (II stopnia) Wydział Nauk Ekonomicznych i Technicznych KIERUNEK EKONOMIA studia stacjonarne i niestacjonarne uzupełniające magisterskie (II stopnia) Specjalności: ekonomia menedżerska finanse i rynki finansowe NOWOŚĆ!

Bardziej szczegółowo

WIEDZA. przywołuje pogłębioną wiedzę o różnych środowiskach społecznych kształtujących bezpieczeństwo, ich specyfice i procesach w nich zachodzących

WIEDZA. przywołuje pogłębioną wiedzę o różnych środowiskach społecznych kształtujących bezpieczeństwo, ich specyfice i procesach w nich zachodzących Nazwa kierunku studiów: BEZPIECZEŃSTWO NARODOWE Poziom kształcenia: studia II stopnia; Profil kształcenia: praktyczny; Obszar nauk społecznych; Dziedziny nauk: nauki społeczne, nauki ekonomiczne, nauki

Bardziej szczegółowo

Uchwała nr 72/2013 Senatu Uniwersytetu Przyrodniczego w Poznaniu z dnia 22 maja 2013 r.

Uchwała nr 72/2013 Senatu Uniwersytetu Przyrodniczego w Poznaniu z dnia 22 maja 2013 r. Uchwała nr 72/2013 Senatu Uniwersytetu Przyrodniczego w Poznaniu z dnia 22 maja 2013 r. w sprawie: opinii o utworzeniu na Wydziale Hodowli i Biologii Zwierząt kierunku turystyka przyrodnicza na poziomie

Bardziej szczegółowo

Aktywne formy kreowania współpracy

Aktywne formy kreowania współpracy Projekt nr... Kształtowanie sieci współpracy na rzecz bezpieczeństwa energetycznego Dolnego Śląska ze szczególnym uwzględnieniem aspektów ekonomiczno społecznych Aktywne formy kreowania współpracy Dr inż.

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PRAWO JEDNOLITE STUDIA MAGISTERSKIE PROFIL PRAKTYCZNY

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PRAWO JEDNOLITE STUDIA MAGISTERSKIE PROFIL PRAKTYCZNY EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PRAWO JEDNOLITE STUDIA MAGISTERSKIE PROFIL PRAKTYCZNY Tabela odniesienia kierunkowych efektów kształcenia do charakterystyk drugiego stopnia Polskiej Ramy Kwalifikacji

Bardziej szczegółowo

Efekty kształcenia na studiach I stopnia dla kierunku Finanse i Rachunkowość i ich odniesienie do efektów kształcenia w obszarze nauk społecznych

Efekty kształcenia na studiach I stopnia dla kierunku Finanse i Rachunkowość i ich odniesienie do efektów kształcenia w obszarze nauk społecznych Efekty na studiach I stopnia dla kierunku Finanse i Rachunkowość i ich odniesienie do efektów w obszarze nauk Objaśnienie oznaczeń w symbolach: S obszar w zakresie nauk 1 studia pierwszego stopnia A profil

Bardziej szczegółowo

Poziom 5 EQF Starszy trener

Poziom 5 EQF Starszy trener Poziom 5 EQF Starszy trener Opis Poziomu: Trener, który osiągnął ten poziom rozwoju kompetencji jest gotowy do wzięcia odpowiedzialności za przygotowanie i realizację pełnego cyklu szkoleniowego. Pracuje

Bardziej szczegółowo

LABORATORIUM 1 - zarządzanie operacyjne

LABORATORIUM 1 - zarządzanie operacyjne LABORATORIUM 1 - zarządzanie operacyjne Konkurencja a procesy operacyjne W czasie nasilających się procesów globalizacyjnych akcent działań konkurencyjnych przesuwa się z obszaru generowania znakomitych

Bardziej szczegółowo

KIERUNKOWE EFEKTY KSZTAŁCENIA KIERUNEK STUDIÓW INFORMATYCZNE TECHNIKI ZARZĄDZANIA

KIERUNKOWE EFEKTY KSZTAŁCENIA KIERUNEK STUDIÓW INFORMATYCZNE TECHNIKI ZARZĄDZANIA KIERUNKOWE EFEKTY KSZTAŁCENIA KIERUNEK STUDIÓW INFORMATYCZNE TECHNIKI ZARZĄDZANIA Nazwa kierunku studiów: Informatyczne Techniki Zarządzania Ścieżka kształcenia: IT Project Manager, Administrator Bezpieczeństwa

Bardziej szczegółowo

KIERUNKOWE EFEKTY KSZTAŁCENIA

KIERUNKOWE EFEKTY KSZTAŁCENIA WYDZIAŁ INFORMATYKI I ZARZĄDZANIA Kierunek studiów: INFORMATYKA Stopień studiów: STUDIA II STOPNIA Obszar Wiedzy/Kształcenia: OBSZAR NAUK TECHNICZNYCH Obszar nauki: DZIEDZINA NAUK TECHNICZNYCH Dyscyplina

Bardziej szczegółowo

MATRYCA EFEKTÓW KSZTAŁCENIA (Przedmioty podstawowe)

MATRYCA EFEKTÓW KSZTAŁCENIA (Przedmioty podstawowe) MATRYCA EFEKTÓW KSZTAŁCENIA (Przedmioty podstawowe) NAZWA PRZEDMIOTU SYMBOL KIERUNKOWYCH EFEKTÓW KSZTAŁCENIA EFEKTY KSZTAŁCENIA Mikroekonomia 1 Mikroekonomia 2 Makroekonomia 1 Makroekonomia 2 Matematyka

Bardziej szczegółowo

Program i efekty kształcenia studiów podyplomowych MBA-SGH. Szkoła Główna Handlowa w Warszawie. Cel studiów i adresaci

Program i efekty kształcenia studiów podyplomowych MBA-SGH. Szkoła Główna Handlowa w Warszawie. Cel studiów i adresaci Załącznik do uchwały nr 457 Senatu SGH z dnia 25 maja 2016 r. Program i efekty kształcenia studiów podyplomowych MBA-SGH Organizator Stopień studiów Prowadzący Szkoła Główna Handlowa w Warszawie Studia

Bardziej szczegółowo

WYDZIAŁ ADMINISTRACJI I EKONOMII ADMINISTRACJA II STOPIEŃ OGÓLNOAKADEMICKI

WYDZIAŁ ADMINISTRACJI I EKONOMII ADMINISTRACJA II STOPIEŃ OGÓLNOAKADEMICKI Nazwa kierunku Poziom Profil Symbol efektów na kierunku WYDZIAŁ ADMINISTRACJI I EKONOMII ADMINISTRACJA II STOPIEŃ OGÓLNOAKADEMICKI Efekty - opis słowny. Po ukończeniu studiów drugiego stopnia na kierunku

Bardziej szczegółowo

Efekty kształcenia dla kierunku studiów TECHNOLOGIE CYFROWE W ANIMACJI KULTYRY studia pierwszego stopnia profil ogólnoakademicki

Efekty kształcenia dla kierunku studiów TECHNOLOGIE CYFROWE W ANIMACJI KULTYRY studia pierwszego stopnia profil ogólnoakademicki Załącznik nr 1 Efekty kształcenia dla kierunku studiów TECHNOLOGIE CYFROWE W ANIMACJI KULTYRY studia pierwszego stopnia profil ogólnoakademicki Umiejscowienie kierunku w obszarze kształcenia Kierunek studiów

Bardziej szczegółowo

WARTO TEŻ PRZECZYTAĆ:

WARTO TEŻ PRZECZYTAĆ: WARTO TEŻ PRZECZYTAĆ: Seria: INFORMATYKA DLA ZARZĄDZANIA J. Kisielnicki, H. Sroka Systemy informacyjne biznesu Z. Szyjewski Metodyki zarządzania projektami informatycznymi Z. Pastuszak Implementacja zaawansowanych

Bardziej szczegółowo

Marcin Kłak Zarządzanie wiedzą we współczesnym przedsiębiorstwie

Marcin Kłak Zarządzanie wiedzą we współczesnym przedsiębiorstwie Marcin Kłak Zarządzanie wiedzą we współczesnym przedsiębiorstwie Wydawnictwo Wyższej Szkoły Ekonomii i Prawa im. prof. Edwarda Lipińskiego w Kielcach Kielce czerwiec 2010 1 Spis treści Wstęp 7 Rozdział

Bardziej szczegółowo

Opisuje proces ewolucji geografii jako dziedziny wiedzy i nauki, określa jej

Opisuje proces ewolucji geografii jako dziedziny wiedzy i nauki, określa jej Załącznik nr 1 Efekty kształcenia dla kierunku studiów GEOGRAFIA studia pierwszego stopnia - profil ogólnoakademicki Umiejscowienie kierunku w obszarach kształcenia Kierunek studiów geografia należy do

Bardziej szczegółowo

Matryca efektów kształcenia. Logistyka zaopatrzenia i dystrybucji. Logistyka i systemy logistyczne. Infrastruktura logistyczna.

Matryca efektów kształcenia. Logistyka zaopatrzenia i dystrybucji. Logistyka i systemy logistyczne. Infrastruktura logistyczna. Logistyka i systemy logistyczne Logistyka zaopatrzenia i dystrybucji Logistyka gospodarki magazynowej i zarządzanie zapasami Ekologistyka Infrastruktura logistyczna Kompleksowe usługi logistyczne System

Bardziej szczegółowo

Rektora Państwowej Wyższej Szkoły Zawodowej w Koninie z dnia 9 listopada 2011 roku

Rektora Państwowej Wyższej Szkoły Zawodowej w Koninie z dnia 9 listopada 2011 roku ZARZĄDZENIE Nr 84/2011 Rektora Państwowej Wyższej Szkoły Zawodowej w Koninie z dnia 9 listopada 2011 roku zmieniające zasady organizacji studiów podyplomowych Zarządzanie jakością Na podstawie 7 Regulaminu

Bardziej szczegółowo

Objaśnienie oznaczeń:

Objaśnienie oznaczeń: Efekty kształcenia na Wydziale Ekonomicznym Uniwersytetu Gdańskiego studia pierwszego stopnia profil ogólnoakademicki studia drugiego stopnia profil ogólnoakademicki Objaśnienie oznaczeń: S1A symbol efektów

Bardziej szczegółowo

Jak zaprojektować firmę aby mogła się skalować i odnosić trwałe sukcesy? Warszawa, 13 listopada 2018 r.

Jak zaprojektować firmę aby mogła się skalować i odnosić trwałe sukcesy? Warszawa, 13 listopada 2018 r. Jak zaprojektować firmę aby mogła się skalować i odnosić trwałe sukcesy? Warszawa, 13 listopada 2018 r. Budowanie Organizacji Odnoszących Trwałe Sukcesy - Tezy 1. Zbudowanie organizacji odnoszącej trwałe

Bardziej szczegółowo

Rozdział 1. Zarządzanie wiedzą we współczesnych organizacjach gospodarczych Zarządzanie wiedzą w Polsce i na świecie w świetle ostatnich lat

Rozdział 1. Zarządzanie wiedzą we współczesnych organizacjach gospodarczych Zarządzanie wiedzą w Polsce i na świecie w świetle ostatnich lat Zarządzanie wiedzą we współczesnym przedsiębiorstwie Autor: Marcin Kłak Wstęp Rozdział 1. Zarządzanie wiedzą we współczesnych organizacjach gospodarczych 1.1. Rola i znaczenie wiedzy 1.1.1. Pojęcia i definicje

Bardziej szczegółowo

OPIS ZAKŁADANYCH EFEKTÓW KSZTAŁCENIA

OPIS ZAKŁADANYCH EFEKTÓW KSZTAŁCENIA OPIS ZAKŁADANYCH EFEKTÓW KSZTAŁCENIA Załącznik nr 1 do uchwały nr 17/II/2018 Senatu UJ z 28 lutego 2018 r. Nazwa Wydziału: Nauk o Zdrowiu Nazwa kierunku studiów: organizacja i ekonomika ochrony zdrowia

Bardziej szczegółowo

Systemy zarządzania wiedzą w strategiach firm. Prof. dr hab. Irena Hejduk Szkoła Głowna Handlowa w Warszawie

Systemy zarządzania wiedzą w strategiach firm. Prof. dr hab. Irena Hejduk Szkoła Głowna Handlowa w Warszawie Systemy zarządzania wiedzą w strategiach firm Prof. dr hab. Irena Hejduk Szkoła Głowna Handlowa w Warszawie Wprowadzenie istota zarządzania wiedzą Wiedza i informacja, ich jakość i aktualność stają się

Bardziej szczegółowo

Uchwała Nr 59/2016/IX Senatu Politechniki Lubelskiej z dnia 15 grudnia 2016 r.

Uchwała Nr 59/2016/IX Senatu Politechniki Lubelskiej z dnia 15 grudnia 2016 r. Uchwała Nr 59/2016/IX Senatu Politechniki Lubelskiej z dnia 15 grudnia 2016 r. w sprawie określenia efektów kształcenia dla studiów podyplomowych Grafika komputerowa w technice i reklamie prowadzonych

Bardziej szczegółowo

Czynniki wzrostu innowacyjności regionu i przedsiębiorstw

Czynniki wzrostu innowacyjności regionu i przedsiębiorstw Czynniki wzrostu innowacyjności regionu i przedsiębiorstw prof. dr hab. Krystyna Poznańska Szkoła Główna Handlowa w Warszawie Katedra Zarządzania Innowacjami Poziom innowacyjności Polski na tle UE W raporcie

Bardziej szczegółowo

Program Studiów podyplomowych w zakresie zarządzania Executive Master of Business Administration

Program Studiów podyplomowych w zakresie zarządzania Executive Master of Business Administration Program Studiów podyplomowych w zakresie zarządzania Executive Master of Business Administration Wydział realizujący studia podyplomowe: Ogólna charakterystyka studiów podyplomowych Wydział Nauk Ekonomicznych

Bardziej szczegółowo

PROGRAM STUDIÓW WYŻSZYCH ROZPOCZYNAJĄCYCH SIĘ W ROKU AKADEMICKIM 2015/2016

PROGRAM STUDIÓW WYŻSZYCH ROZPOCZYNAJĄCYCH SIĘ W ROKU AKADEMICKIM 2015/2016 PROGRAM STUDIÓW WYŻSZYCH ROZPOCZYNAJĄCYCH SIĘ W ROKU AKADEMICKIM 2015/2016 data zatwierdzenia przez Radę Wydziału kod programu studiów pieczęć i podpis dziekana Wydział Matematyczno-Fizyczno-Techniczny

Bardziej szczegółowo

Efekty kształcenia dla kierunku Ekonomia stopnia II

Efekty kształcenia dla kierunku Ekonomia stopnia II Efekty kształcenia dla kierunku Ekonomia stopnia II 1. Umiejscowienie kierunku w obszarze kształcenia: kierunek należy do obszaru kształcenia w zakresie nauk społecznych. 2. Profil kształcenia: ogólnoakademicki.

Bardziej szczegółowo

a) Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów

a) Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów 1. PROGRAM KSZTAŁCENIA 1) OPIS EFEKTÓW KSZTAŁCENIA a) Szczegółowe efekty kształcenia i ich odniesienie do opisu efektów kształcenia dla obszaru nauk społecznych i technicznych Objaśnienie oznaczeń: I efekty

Bardziej szczegółowo

Efekty uczenia się na kierunku. Logistyka (studia pierwszego stopnia o profilu praktycznym)

Efekty uczenia się na kierunku. Logistyka (studia pierwszego stopnia o profilu praktycznym) Efekty uczenia się na kierunku Załącznik nr 2 do uchwały nr 412 Senatu Uniwersytetu Zielonogórskiego z dnia 29 maja 2019 r. Logistyka (studia pierwszego stopnia o profilu praktycznym) Tabela 1. Kierunkowe

Bardziej szczegółowo

Wstęp... 7. 3. Technologie informacyjne wpływające na doskonalenie przedsiębiorstwa

Wstęp... 7. 3. Technologie informacyjne wpływające na doskonalenie przedsiębiorstwa Spis treści Wstęp.............................................................. 7 1. Przedsiębiorstwo w dobie globalizacji.............................. 11 1.1. Wyzwania globalnego rynku....................................

Bardziej szczegółowo

Odniesienie efektów kierunkowych kształcenia do efektów obszarowych

Odniesienie efektów kierunkowych kształcenia do efektów obszarowych Załącznik do uchwały nr 540 Senatu Uniwersytetu Zielonogórskiego z dnia 27 stycznia 2016 r. Odniesienie efektów kierunkowych kształcenia do efektów obszarowych Tabela odniesień efektów kierunkowych do

Bardziej szczegółowo

Efekty kształcenia dla kierunku Prawno-ekonomicznego

Efekty kształcenia dla kierunku Prawno-ekonomicznego II. Efekty kształcenia dla kierunku Prawno-ekonomicznego Poziom kształcenia: studia pierwszego stopnia Profil: ogólnoakademicki Dyscyplina: prawo i ekonomia Forma studiów: stacjonarne Tytuł zawodowy uzyskiwany

Bardziej szczegółowo

Przedmowa... 7 1. System zarządzania jakością w przygotowaniu projektów informatycznych...11

Przedmowa... 7 1. System zarządzania jakością w przygotowaniu projektów informatycznych...11 Spis treści Przedmowa... 7 1. System zarządzania jakością w przygotowaniu projektów informatycznych...11 1.1. Wprowadzenie...11 1.2. System zarządzania jakością...11 1.3. Standardy jakości w projekcie

Bardziej szczegółowo

Efekty uczenia się na kierunku. Ekonomia (studia drugiego stopnia o profilu praktycznym)

Efekty uczenia się na kierunku. Ekonomia (studia drugiego stopnia o profilu praktycznym) Kod efektu kierunkowego Załącznik nr 2 do uchwały nr 415 Senatu Uniwersytetu Zielonogórskiego z dnia 29 maja 2019 r. Efekty uczenia się na kierunku Ekonomia (studia drugiego stopnia o profilu praktycznym)

Bardziej szczegółowo

zna podstawową terminologię w języku obcym umożliwiającą komunikację w środowisku zawodowym

zna podstawową terminologię w języku obcym umożliwiającą komunikację w środowisku zawodowym Wykaz kierunkowych efektów kształcenia PROGRAM KSZTAŁCENIA: Kierunek Edukacja techniczno-informatyczna POZIOM KSZTAŁCENIA: studia pierwszego stopnia PROFIL KSZTAŁCENIA: praktyczny Przyporządkowanie kierunku

Bardziej szczegółowo

Specjalne strefy ekonomiczne, klastry i co dalej

Specjalne strefy ekonomiczne, klastry i co dalej 1 Specjalne strefy ekonomiczne, klastry i co dalej Seminarium naukowe Instytut Przedsiębiorstwa Kolegium Nauk o Przedsiębiorstwie Warszawa, 11 marca 2014r. Atrakcyjne miejsce dla 2 obecnych i przyszłych

Bardziej szczegółowo

Program Operacyjny Innowacyjna Gospodarka (IG)

Program Operacyjny Innowacyjna Gospodarka (IG) Priorytet 1 - Badania i rozwój nowoczesnych technologii Działanie1.1. Wsparcie badań naukowych dla budowy gospodarki opartej na wiedzy Identyfikacja kierunków prac B+R mających na celu zdynamizowanie rozwoju

Bardziej szczegółowo

System B2B jako element przewagi konkurencyjnej

System B2B jako element przewagi konkurencyjnej 2012 System B2B jako element przewagi konkurencyjnej dr inż. Janusz Dorożyński ZETO Bydgoszcz S.A. Analiza biznesowa integracji B2B Bydgoszcz, 26 września 2012 Kilka słów o sobie główny specjalista ds.

Bardziej szczegółowo

Efekty uczenia się na kierunku. Logistyka (studia drugiego stopnia o profilu praktycznym)

Efekty uczenia się na kierunku. Logistyka (studia drugiego stopnia o profilu praktycznym) Kod efektu kierunkowego Efekty uczenia się na kierunku Załącznik nr 2 do uchwały nr 413 Senatu Uniwersytetu Zielonogórskiego z dnia 29 maja 2019 r. Logistyka (studia drugiego stopnia o profilu praktycznym)

Bardziej szczegółowo

Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia

Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia Załącznik nr 1 do Uchwały nr 9/VI/2012 Senatu Wyższej Szkoły Handlowej im. Bolesława Markowskiego w Kielcach z dnia 13 czerwca 2012 roku. Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA ORAZ MACIERZE POKRYCIA KIERUNKU FINANSE MENEDŻERSKIE obowiązuje od roku akad. 2017/18

EFEKTY KSZTAŁCENIA ORAZ MACIERZE POKRYCIA KIERUNKU FINANSE MENEDŻERSKIE obowiązuje od roku akad. 2017/18 AD/ 13 RW w dniu 29.06.2017 r. EFEKTY KSZTAŁCENIA ORAZ MACIERZE POKRYCIA KIERUNKU FINANSE MENEDŻERSKIE obowiązuje od roku akad. 2017/18 STUDIA LICENCJACKIE -------------------------------------------------------------------------------------------------

Bardziej szczegółowo

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ SPOŁECZNO-HUMANISTYCZNY EFEKTY KSZTAŁCENIA. Kierunek studiów LOGISTYKA

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ SPOŁECZNO-HUMANISTYCZNY EFEKTY KSZTAŁCENIA. Kierunek studiów LOGISTYKA PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ SPOŁECZNO-HUMANISTYCZNY EFEKTY KSZTAŁCENIA Kierunek studiów LOGISTYKA Poziom i profil kształcenia STUDIA I STOPNIA, PROFIL PRAKTYCZNY Forma studiów STUDIA

Bardziej szczegółowo

Program kształcenia na Studiach Doktoranckich Wydziału Zarządzania Uniwersytetu Warszawskiego w roku 2014/2015

Program kształcenia na Studiach Doktoranckich Wydziału Zarządzania Uniwersytetu Warszawskiego w roku 2014/2015 Program kształcenia na Studiach Doktoranckich Wydziału Zarządzania Uniwersytetu Warszawskiego w roku 201/2015 Wydział Zarządzania UW posiada uprawnienia do nadawania stopnia doktora w dwóch dyscyplinach:

Bardziej szczegółowo

Efekt kształcenia. Wiedza

Efekt kształcenia. Wiedza Efekty dla studiów drugiego stopnia profil ogólnoakademicki na kierunku Informatyka na specjalności Przetwarzanie i analiza danych, na Wydziale Matematyki i Nauk Informacyjnych, gdzie: * Odniesienie oznacza

Bardziej szczegółowo

Wprowadzenie w tematykę zarządzania projektami/przedsięwzięciami

Wprowadzenie w tematykę zarządzania projektami/przedsięwzięciami Wprowadzenie w tematykę zarządzania projektami/przedsięwzięciami punkt 2 planu zajęć dr inż. Agata Klaus-Rosińska 1 DEFINICJA PROJEKTU Zbiór działań podejmowanych dla zrealizowania określonego celu i uzyskania

Bardziej szczegółowo

Efekty kształcenia dla kierunku Administracja. Wydział Prawa i Administracji Uczelni Łazarskiego

Efekty kształcenia dla kierunku Administracja. Wydział Prawa i Administracji Uczelni Łazarskiego Efekty kształcenia dla kierunku Administracja Wydział Prawa i Administracji Uczelni Łazarskiego II stopień Umiejscowienie kierunku w obszarach kształcenia Kierunek studiów Administracja należy do obszaru

Bardziej szczegółowo

Efekty kształcenia dla studiów podyplomowych: Sposób dokumentacji efektów kształcenia

Efekty kształcenia dla studiów podyplomowych: Sposób dokumentacji efektów kształcenia Efekty kształcenia dla studiów podyplomowych: Lp. K_W01 K_W02 K_W06 K_W08 K_W09 Efekty kształcenia dla studiów podyplomowych zna terminologię używaną w pedagogice a w szczególności w oraz jej zastosowanie

Bardziej szczegółowo

ZARZĄDZANIE KAPITAŁEM OBROTOWYM FIRMY

ZARZĄDZANIE KAPITAŁEM OBROTOWYM FIRMY 1.1.1 Zarządzanie kapitałem obrotowym firmy I. OGÓLNE INFORMACJE PODSTAWOWE O PRZEDMIOCIE ZARZĄDZANIE KAPITAŁEM OBROTOWYM FIRMY Nazwa jednostki organizacyjnej prowadzącej kierunek: Wydział w Ostrowie Wielkopolski

Bardziej szczegółowo

Osoba posiadająca kwalifikacje II stopnia WIEDZA

Osoba posiadająca kwalifikacje II stopnia WIEDZA ZAMIERZONE KSZTAŁCENIA: Symbol K_W01 K_W0 K_W0 K_W0 K_W05 K_W06 K_W07 K_W08 K_W09 K_W10 K_W11 K_W1 K_W1 K_W1 K_W15 1 K_W15 Osoba posiadająca kwalifikacje II stopnia WIEDZA Ma pogłębioną wiedzę o charakterze

Bardziej szczegółowo

STRATEGIA CYFRYZACJI REGIONU MAZOWIECKIE SPOTKANIA Z E-ADMINISTRACJĄ WARSZAWA, R.

STRATEGIA CYFRYZACJI REGIONU MAZOWIECKIE SPOTKANIA Z E-ADMINISTRACJĄ WARSZAWA, R. 1 STRATEGIA CYFRYZACJI REGIONU 2 MAZOWIECKIE SPOTKANIA Z E-ADMINISTRACJĄ WARSZAWA, 02.06.2014 R. Agenda 1) Strategia rozwoju Województwa Mazowieckiego, informatyzacja regionu 2) Program zintegrowanej informatyzacji

Bardziej szczegółowo

Zarządzanie wiedzą w opiece zdrowotnej

Zarządzanie wiedzą w opiece zdrowotnej Zarządzanie wiedzą w opiece zdrowotnej Magdalena Taczanowska Wiceprezes Zarządu Sygnity SA Agenda Procesy decyzyjne w ochronie zdrowia Zarządzanie wiedzą w ochronie zdrowia Typologia wiedzy w opiece zdrowotnej

Bardziej szczegółowo

WIEDZA T1P_W06. K_W01 ma podstawową wiedzę o zarządzaniu jako nauce, jej miejscu w systemie nauk i relacjach do innych nauk;

WIEDZA T1P_W06. K_W01 ma podstawową wiedzę o zarządzaniu jako nauce, jej miejscu w systemie nauk i relacjach do innych nauk; SYMBOL Efekty kształcenia dla kierunku studiów: inżynieria zarządzania; Po ukończeniu studiów pierwszego stopnia na kierunku inżynieria zarządzania, absolwent: Odniesienie do obszarowych efektów kształcenia

Bardziej szczegółowo

UCHWAŁA NR R SENATU UNIWERSYTETU EKONOMICZNEGO WE WROCŁAWIU z dnia 22 czerwca 2017 r.

UCHWAŁA NR R SENATU UNIWERSYTETU EKONOMICZNEGO WE WROCŁAWIU z dnia 22 czerwca 2017 r. UCHWAŁA NR R.0000.47.2017 SENATU UNIWERSYTETU EKONOMICZNEGO WE WROCŁAWIU z dnia 22 czerwca 2017 r. w sprawie zatwierdzenia efektów kształcenia dla kierunku studiów Gospodarka przestrzenna studia drugiego

Bardziej szczegółowo

Opis zakładanych efektów kształcenia

Opis zakładanych efektów kształcenia Załącznik do uchwały nr 218 Senatu Uniwersytetu Zielonogórskiego z dnia 18 grudnia 2013 r Nazwa kierunku studiów: Psychologia Obszar kształcenia: Obszar nauk społecznych Poziom kształceni: jednolite studia

Bardziej szczegółowo

Budowanie oferty programowej kształcenia zawodowego do potrzeb innowacyjnej gospodarki i rynku pracy

Budowanie oferty programowej kształcenia zawodowego do potrzeb innowacyjnej gospodarki i rynku pracy Warszawa, 24 listopada 2017 r. Budowanie oferty programowej kształcenia zawodowego do potrzeb innowacyjnej gospodarki i rynku pracy dr inż. Krzysztof SYMELA Ośrodek Badań i Rozwoju Edukacji Zawodowej Kluczowe

Bardziej szczegółowo

Osoba posiadająca kwalifikacje II stopnia WIEDZA

Osoba posiadająca kwalifikacje II stopnia WIEDZA ZAMIERZONE KSZTAŁCENIA: Symbol K_W01 K_W0 K_W0 K_W0 K_W05 K_W06 K_W07 K_W08 K_W09 K_W10 K_W11 K_W1 K_W1 K_W1 K_W15 1 K_W15 Osoba posiadająca kwalifikacje II stopnia WIEDZA Ma pogłębioną wiedzę o charakterze

Bardziej szczegółowo

Organizacyjny aspekt projektu

Organizacyjny aspekt projektu Organizacyjny aspekt projektu Zarządzanie funkcjonalne Zarządzanie między funkcjonalne Osiąganie celów poprzez kierowanie bieżącymi działaniami Odpowiedzialność spoczywa na kierownikach funkcyjnych Efektywność

Bardziej szczegółowo

7. Kierunkowe efekty kształcenia i ich odniesienie do efektów obszarowych. Kierunkowe efekty kształcenia

7. Kierunkowe efekty kształcenia i ich odniesienie do efektów obszarowych. Kierunkowe efekty kształcenia 1. Nazwa kierunku: SOCJOLOGIA 2. Stopień studiów: pierwszy 3. Profil: ogólnoakademicki 4. Obszar: nauki społeczne 5. Sylwetka absolwenta Absolwent posiada ogólną wiedzę o rodzajach struktur, więzi i instytucji

Bardziej szczegółowo

Uchwała Nr 69 /2012. Senatu Uniwersytetu Jana Kochanowskiego w Kielcach. z dnia 31 maja 2012 roku

Uchwała Nr 69 /2012. Senatu Uniwersytetu Jana Kochanowskiego w Kielcach. z dnia 31 maja 2012 roku Uchwała Nr 69 /2012 Senatu Uniwersytetu Jana Kochanowskiego w Kielcach z dnia 31 maja 2012 roku w sprawie określenia efektów kształcenia dla kierunku zarządzanie na poziomie drugiego stopnia o profilu

Bardziej szczegółowo