Wykrywanie wiedzy w dużych zbiorach danych: przykład personalizacji inżynierii ontologicznej

Wielkość: px
Rozpocząć pokaz od strony:

Download "Wykrywanie wiedzy w dużych zbiorach danych: przykład personalizacji inżynierii ontologicznej"

Transkrypt

1 Cezary Chudzian, Janusz Granat, Edward Klimasara, Jarosław Sobieszek, Andrzej P. Wierzbicki W artykule, po przedyskutowaniu szeroko rozumianego pojęcia inżynierii wiedzy, a w szczególności inżynierii ontologicznej, koncentrującej się na wykrywaniu wiedzy w dużych zbiorach tekstu, omówiono rezultaty prac wykonanych w Instytucie Łączności PIB w ramach projektu badawczego zamawianego Usługi i sieci teleinformatyczne następnej generacji aspekty techniczne, aplikacyjne i rynkowe. Prace wstępne i rozpoznawcze doprowadziły do sformułowania założenia na przyjazny, spersonalizowany system wspomagania wyszukiwania wiedzy w dużych zbiorach tekstu. Efektem końcowym zaś jest pilotowy system PrOnto wykorzystujący narzędzia inżynierii ontologicznej w dwóch aspektach: jednym wspomagającym wyszukiwanie informacji w dokumentach elektronicznych na podstawie osobistej ontologii użytkownika i drugim wspomagającym współdzielenie źródeł wiedzy przy wykorzystaniu modeli ontologicznych. Artykuł kończą wnioski co do stosowalności różnych metod wykorzystania narzędzi inżynierii ontologicznej oraz sposobów kontynuacji prac. inżynieria wiedzy, inżynieria ontologiczna, personalizacja ontologii, human centered computing Wprowadzenie W ciągu ostatniej dekady lat, szczególnego znaczenia w telekomunikacji oraz szerzej w wykorzystaniu internetu, nabrało wynajdywanie formuł logicznych i relacji, dotyczących wybranych informacji oraz modeli wiedzy zawartej w bardzo dużych zbiorach danych, bądź zgromadzonych przez operatorów telekomunikacyjnych, udostępnianych urzędom regulacyjnym, bądź po prostu dostępnych w internecie. Prace w tym zakresie są prowadzone w Instytucie Łączności już ponad dziesięć lat. Rozwijanych jest kilka głównych działów technik inżynierii wiedzy. Wykorzystanie zaawansowanych narzędzi i metod logiki matematycznej, inżynierii ontologicznej, optymalizacji i podziału zbiorów danych do rozpoznawania wzorców, wykrywania zdarzeń i anomalii, wielokryterialnej teorii decyzji. Wykorzystanie różnorodnych zaawansowanych metod statystycznych. Wszystkie one mogą służyć wykrywaniu wiedzy w dużych zbiorach danych []. Terminy angielskie to data mining lub knowledge mining, związane z tym inne pojęcia to knowledge management, knowledge engineering i knowledge science. Naukoznawstwo ma inne (filozoficzne) tradycyjne znaczenie w języku polskim, zarządzanie wiedzą zaś jest dzisiaj głównie przedmiotem nauk o zarządzaniu, dlatego postanowiono wykorzystywać w tym zakresie pojęcie inżynierii wiedzy w szerokim znaczeniu tego słowa, nie ograniczając go, jak to bywa w tradycji akademickiej, do metod sztucznej inteligencji i algorytmów uczenia się maszyn. 3

2 Tak szeroko rozumiana inżynieria wiedzy może być wykorzystywana w bardzo różnorodnych dziedzinach, np. w opracowaniach dla operatorów telekomunikacyjnych, a zaawansowane metody statystyczne mogą być przydatne do analizy wartości różnych wskaźników stanu rozwoju społeczeństwa informacyjnego w Polsce czy na Mazowszu. W tym artykule omówiono głównie metody inżynierii ontologicznej we wspomaganiu wykrywania wiedzy i zarządzania wiedzą. Trzeba tu dodać jeszcze jedno wyjaśnienie. Metody inżynierii ontologicznej koncentrują się zazwyczaj, jak to wynika z dotychczasowych prac nad sztuczną inteligencją, na automatyzacji wydobywania wiedzy z dużych zbiorów tekstu, preferencje użytkownika zaś mogą być uwzględniane, ale zazwyczaj w niewielkim zakresie. Specyfika prac referowanych w tym artykule jest jednak odmienna. Zakładając nadrzędną pozycję użytkownika co uzasadniono bardziej szczegółowo dalej koncentrowano się na radykalnej personalizacji osobistej ontologii użytkownika, polegającej na łączeniu intuicyjnie określanej przez użytkownika ontologii odgórnej z ontologią oddolną wynikającą z automatycznej analizy dużych zbiorów tekstu. Inżynieria wiedzy a inżynieria ontologiczna W związku z narastającą ilością informacji i danych cyfrowych gromadzonych bądź to w internecie, bądź u operatorów telekomunikacyjnych i w innych instytucjach czy przedsiębiorstwach oraz w uniwersytetach i instytutach badawczych, ważnym problemem stała się kwestia wyszukiwania w wielkich zbiorach danych nie tylko informacji interesujących, ale więcej przydatnych relacji między takimi informacjami, czyli inaczej mówiąc wiedzy ukrytej w wielkich zbiorach danych. Używa się tu celowo określenia wiedzy ukrytej (tacit knowledge), choć stosuje się ono w zasadzie do wiedzy trudnej do wyrażenia słowami, przedsłownej, ukrytej zazwyczaj w umyśle ludzkim [5-8]. Ale rzecz w tym, że wiedza przedsłowna, jeszcze nie wyrażona słowami czy wzorami, jest zawarta także w wielkich zbiorach danych, a trudnym zadaniem jest właśnie wydobycie jej z tych zbiorów, czyli dokonanie tego, co w nomenklaturze anglojęzycznej nazywane jest data mining czy też raczej knowledge mining, i wyrażenie tej wiedzy ukrytej słowami, wzorem, regułą logiczną czy inną formą modelu. W niektórych pracach źródłowych używa się wręcz pojęcia knowledge science; jednakże jak wspomniano w języku polskim naukoznawstwo ma inne tradycyjne znaczenie, o odcieniu filozoficznym obejmującym epistemologię i inne dziedziny pokrewne. Dziedziną pokrewną zarówno do naukoznawstwa jak i do wydobywania wiedzy z dużych zbiorów danych jest zarządzanie wiedzą, ale ono, choć historycznie wyrosło z informatyki (zob. np. [9]), jest traktowane dzisiaj raczej jako przedmiot nauk o zarządzaniu. Z tych wszystkich względów używa się raczej pojęcia inżynieria wiedzy w stosunku do konstrukcji i wykorzystania informatycznych narzędzi wydobywania wiedzy ukrytej z dużych zbiorów danych, lub nawet szerzej, obejmując tym pojęciem także informatyczne narzędzia przetwarzania dużych tekstów, zatem informacji słownej. Takie znaczenie pojęcia inżynierii wiedzy jest znacznie szersze, niż jego tradycyjne znaczenie akademickie, traktujące inżynierię wiedzy wąsko, jako związaną ze sztuczną inteligencją i metodami automatycznego uczenia się maszyn przy czym to szersze rozumienie oczywiście obejmuje to rozumienie węższe, ale kładzie większy nacisk na rolę człowieka i użytkownika systemów informatycznych w procesach wydobywania czy przetwarzania wiedzy. Zazwyczaj, choć nie tylko, gdyż do wiedzy ukrytej można zaliczyć intuicyjne dziedzictwo ludzkości, obejmujące m.in. sądy syntetyczne a priori [2] czy horyzonty hermeneutyczne (zob. np. [3]), w istocie wyrażające przekonania intuicyjne utrwalane przez systemy edukacyjne, a także emocjonalne dziedzictwo ludzkości, obejmujące m.in. nieświadomość zbiorową ([4]) wraz z jej częściami archetypami i mitami ludzkości, czy też ładunek emocjonalny wszystkich filmów zatem wiedza ukryta może być zawarta nie tylko w umyśle człowieka (zob. [5]). 4

3 Przy tym szerszym jej rozumieniu, inżynierię wiedzy można podzielić na kilka podstawowych działów. Dział I Dział II Dział III Wąsko rozumiana inżynieria sztucznej inteligencji i automatycznego uczenia się. Inżynieria wydobywania wiedzy ukrytej z dużych zbiorów danych. Inżynieria przetwarzania tekstu, czyli także wydobywania wiedzy, ale wyrażonej w formie słownej. Dział I nie będzie tu omawiany, gdyż poświęcone są mu obszerne monografie, (np. [0]). Dział II ma na celu wyrażanie wiedzy ukrytej zawartej w dużych zbiorach danych w formie użytecznych dla użytkownika modeli: logicznych, statystycznych, decyzyjnych. Opiera się zatem na takich dziedzinach podstawowych, jak logika, statystyka, wielokryterialna teoria decyzji, itp. Jest on oczywiście związany z Działem I, wykorzystując do pewnego stopnia automatyczne uczenie się, ale przy założeniu znacznie większej roli człowieka w wydobywaniu i przetwarzaniu wiedzy, tworzeniu modeli wiedzy. W wielu zastosowaniach, istotna jest także interpretacja słowna takich modeli wiedzy, zgodna z wymaganiami użytkownika, mającymi zazwyczaj także charakter wiedzy ukrytej, którą dopiero trzeba przekształcić w słowa. Dział III ma na celu wynajdywanie czy też wybór wiedzy tekstowej, jawnej, istotnej dla użytkownika a zawartej w dużych zbiorach tekstowych. Dziedziny podstawowe dla tego działu to inżynieria ontologiczna (konstruowanie taksonomii uzupełnionych o różnorodne relacje logiczne w dużych zbiorach tekstu), sieci semantyczne (semantic web), inżynieria wyszukiwarek internetowych, itp. W zastosowaniach, istotna okazuje się interpretacja tej wybranej wiedzy tekstowej przez użytkownika, zatem znów zgodnie z jego wiedzą ukrytą, tak jak w kręgu hermeneutycznym (zob. []) czy w hermeneutycznej spirali kreowania wiedzy (zob. [2]). Inżynieria wiedzy może być pomocna w zarządzaniu wiedzą. Jest oczywiste, że samo pojęcie zarządzania wiedzą może być interpretowane zwłaszcza przy uwzględnieniu dużego znaczenia wiedzy ukrytej w umysłach ludzi jako absurdalne czy wewnętrznie sprzeczne. Jest jednak faktem historycznym, że pojęcie knowledge management zostało użyte najpierw w odniesieniu do narzędzi inżynierii wiedzy mających zapewnić ciągłość prac nad oprogramowaniem przez firmę DEC (Digital Equipment Corporation) we wczesnych latach osiemdziesiątych (choć podobne narzędzia, bez użycia pojęcia knowledge management, były już wcześniej stosowane przez firmę IBM). Dopiero w latach dziewięćdziesiątych pojęcie to zaczęło się pojawiać w naukach o zarządzaniu, co doprowadziło, z jednej strony, do ogromnej kariery tego niezbyt precyzyjnego hasła, z drugiej strony jednak do licznych kontrowersji (zob. np. [9]). Stąd też tradycja traktowania zarządzania wiedzą jako części inżynierii software owej jest szacowna. Ale nauki o zarządzaniu, które wdrożyły to pojęcie o dekadę później, nadały mu jednak znacznie szersze znaczenie i opublikowały ogromną literaturę z tym związaną. Tak więc istnieją dziś dwa przeciwne poglądy, jak interpretować to pojęcie [3], [4]: Jako zarządzanie informacją istotną dla działań związanych z wiedzą, z naciskiem na systemy informacyjne, bazy i składnice danych, wydobywanie wiedzy z danych, groupware, systemy obiegu dokumentów, analizę tekstów i inżynierię ontologiczną, etc. Jako zarządzanie procesami związanymi z wiedzą, z naciskiem na teorię organizacji, uczenia się, rodzaje wiedzy oraz procesów kreowania wiedzy. Pierwszy pogląd jest naturalnie reprezentowany przez informatyków i nauki czy techniki pokrewne, natomiast drugi przez socjologów, teoretyków zarządzania, filozofów czy psychologów i dominuje w naukach o zarządzaniu. Reprezentanci drugiego poglądu zarzucają zwolennikom pierwszego trakto- 5

4 wanie wiedzy jako obiektu podczas gdy trzeba ją postrzegać jako wiedzę związaną z procesami, i twierdzą, że zarządzanie wiedzą to zarządzanie ludźmi. Wszystko to prawda (zob. także [5], [6]), ale oba te poglądy są jednostronne. Chociaż trzeba przyznać, że zarządzanie wiedzą nie może być zredukowane do zarządzania informacją, to jednak bardzo często słuszne poglądy powodują nadmierne uproszczenia i przeoczenia. Problem jest bardziej złożony, ponieważ zarządzanie wiedzą rozpoczęło się od technik informacyjnych i nie może być bez nich kontynuowane; a istota problemu polega na tym, że zarządzanie ludźmi musi być dziś rozumiane jako zarządzanie pracownikami wiedzy, a ci bardzo często reprezentują obecnie techniki informacyjne. Co więcej, zarządzanie wiedzą w instytucjach komercyjnych zwykle wielkich korporacjach, gdyż małe firmy dziś jeszcze bardzo rzadko stać na kosztowne systemy zarządzania wiedzą ma zupełnie odmienny charakter, niż zarządzanie wiedzą w instytucjach badawczych czy akademickich, (zob. [5], [8]). Zarządzanie wiedzą w instytucji administracyjnej czy regulacyjnej może mieć większe podobieństwo do zarządzania wiedzą w instytucji badawczej, niż w instytucji komercyjnej i nawet wielkie instytucje regulacyjne będą szukały jak najtańszych rozwiązań zarządzania wiedzą. Stąd całe prace grupy tematycznej zajmującej się zagadnieniem wykrywania wiedzy opierały się na założeniu maksymalnego wykorzystania oprogramowania swobodnego, darmowego (free software) oraz na specyfice lokalnego zarządzania wiedzą. Działalność naukowo-badawcza charakteryzuje się szczególnymi wymaganiami w zakresie zarządzania wiedzą. W odróżnieniu od potrzeb aktywności produkcyjnej, czy usługowej typowo zorientowanych na wspomaganie działań operacyjnych, jednym z najistotniejszych zadań działalności naukowej jest eksploracja potencjalnych kierunków rozwoju. Tradycyjne systemy zarządzania wiedzą, powstałe w dużej mierze w odpowiedzi na rzeczywiste potrzeby przedsiębiorstw, skupiły się w przeważającym stopniu na wspomaganiu praktycznych aspektów ich działalności, pomijając właściwie zastosowania charakterystyczne dla działalności naukowo-badawczej. Procesy opisujące powstawanie wiedzy w organizacjach (w tym także naukowo-badawczych) zostały zebrane w ramach teorii kreatywnego środowiska [8], będącej syntezą prac zapoczątkowanych na gruncie operacyjnym [7]. Jednym z elementów tej teorii jest model działalności naukowej nazwany potrójną helisą opisujący typowy sposób powstawania wiedzy w instytucjach naukowo-badawczych. Składa się on z trzech współwystępujących procesów, tzw. spiral tworzenia wiedzy, przedstawiających: badania literaturowe (spirala EAIR), eksperymenty (spirala EEIS), dyskusje (spirala EDIS). Nazwy spiral są akronimami pochodzącymi od angielski nazw czynności składowych danego procesu. Cykliczna natura spiral oddaje ciągłość i powtarzalność procesu tworzenia wiedzy. Dalej zasadniczym tematem będzie wspomaganie procesu badań literaturowych opisanego przez spiralę EAIR, zwaną też z racji swoich podstaw filozoficznych [] spiralą hermeneutyczną. Składa się ona z czterech etapów: W instytucjach akademickich główne motywacje są związane z indywidualnymi celami twórcy wiedzy (powiększanie reputacji naukowej, zdobywanie stopni i tytułów, w mniejszym stopniu cele komercyjne) oraz z powiększaniem intelektualnego dziedzictwa ludzkości, zatem z indywidualną oraz publiczną własnością wiedzy. W instytucjach komercyjnych główne motywacje związane są z celami grupowymi (dochód i reputacja przedsiębiorstwa), zatem z korporacyjną prywatyzacją wiedzy. Dlatego też uproszczony sąd postmodernistycznej socjologii o tym, że skoro uczelnie są producentami wiedzy, zatem powinny być zarządzane tak jak przedsiębiorstwa komercyjne, jest dalece chybiony. 6

5 Enlightenment ten etap zaczyna się od pomysłu, który jest uważany za warty dalszej eksploracji i obejmuje proces wyszukiwania i gromadzenia potencjalnych źródeł informacji, Analysis to etap racjonalnej analizy materiałów, które zostały uznane za istotne, Hermeneutic immersion w tym etapie pomysły zanalizowane w poprzednim etapie zaczynają być pojmowane intuicyjnie, Reflection to etap intuicyjnego rozważania nowych pomysłów. Ze spiralą EAIR związane jest też pojęcie agenta hermeneutycznego [8], czyli narzędzia wspierającego jej kolejne etapy, mającego służyć badaczom w znajdowaniu i analizie źródeł potrzebnej im informacji. Racjonalna natura dwóch pierwszych faz spirali hermeneutycznej powoduje, że są one dużo bardziej podatne na próby ich wspomagania przy użyciu narzędzi komputerowych. Zwłaszcza pierwsza z nich jest coraz bardziej istotna w obliczu szybko rosnącej liczby potencjalnych źródeł informacji, co jest związane w dużym stopniu z rozwojem internetu. Warto zwrócić uwagę, że termin przeciążenie informacją został użyty po raz pierwszy w 970 roku [8], a więc jeszcze przed pierwszymi pracami opisującymi protokoły TCP/IP, na długo przed rozpowszechnieniem internetu. Obecnie liczba i zawartość informacyjna źródeł wiedzy dostępnych przez internet przewyższa inne dostępne kanały. Analiza tekstu i inżynieria ontologiczna rozwijały się równolegle do zarządzenia wiedzą, chociaż niewątpliwie mogą być one traktowane jako ważne narzędzia tej obszerniejszej dziedziny (zob. np. [9]). Słowo ontologia było zapożyczone z filozofii, gdzie oznacza teorię bytów lub systematyczną analizę bycia (zob. np. [20]); w informatyce nadano mu inne znaczenie, odpowiadające raczej klasyfikacji bytów oraz słów je reprezentujących. Obecnie, w technikach informacyjnych traktuje się ontologię jako wzbogaconą taksonomię, słownik z hierarchią i innymi wzajemnymi relacjami pojęć, ewentualnie dalej wzbogacony o sformalizowane relacje logiczne między pojęciami lub ich klasami. W ciągu lat dziewięćdziesiątych nastąpiła znaczna ewolucja inżynierii ontologicznej, związana z pojęciem semantic web, oparta na założeniu, że współczesna sieć powinna zawierać zbiór wiedzy odpowiadający dorobkowi intelektualnemu ludzkości, a zatem współczesne techniki informacyjne powinny z niej móc wydobyć całą ludzką wiedzę w postaci uniwersalnej ontologii. Traktowane jako środki reprezentacji i wspólnego rozumienia wiedzy o różnych dziedzinach świata, ontologie odgrywają dzisiaj ważną rolę w wielu zastosowaniach, takich jak rozwój systemów informacyjnych, organizacja zawartości stron internetowych, kategoryzacja produktów komercyjnych, słowniki standardowe w określonych dziedzinach, itp. (zob. np. [2]-[24]). Także w tej dziedzinie można zaobserwować różne kontrowersje, związane z kilkoma przeciwstawnymi podejściami do konstrukcji, wykorzystania i interpretacji ontologii. Jest wiele metod konstrukcji ontologii, (zob. np. [25]), można wśród nich wyróżnić metody konstrukcji ontologii lekkich czy też o lekkiej strukturze (lightweight ontologies, zawierających prostą, np. hierarchiczną, strukturę pojęć) oraz ontologii ciężkich czy też o ciężkiej strukturze (heavyweight ontologies, obejmujących złożone relacje pomiędzy pojęciami, ich logiczną strukturę oraz możliwości formalizacji rozumowania); konstrukcję ontologii lokalnych charakteryzujących pojęcia używane przez daną grupę, np. badaczy czy w danej sferze kulturowej (różne sfery kulturowe używają często tych samych słów, jak ontologia, w absolutnie odmiennych znaczeniach) w przeciwstawieniu do ontologii uniwersalnych próbujących reprezentować wszystkie materiały danej dziedziny bądź wszystkie publikowane w internecie. Można też mówić o konstrukcji ontologii od początku (from scratch), przez adaptację (reuse) lub automatycz- Założenie to jest dyskusyjne, (zob. np. [5]) o roli komponentów intuicyjnych i emocjonalnych w dziedzictwie intelektualnym ludzkości, dyskutowanej też w jednym z poprzednich odnośników, oraz dalsze uwagi w tym artykule o powodach radykalnej personalizacji ontologii osobistych. 7

6 2 nie (stosując automatyczne metody inżynierii ontologicznej, (zob. [24]); podział taki nie jest jednak w pełni precyzyjny, gdyż dobre narzędzia inżynierii ontologicznej są zawsze półautomatyczne, zakładają pewną interakcję z użytkownikiem (konstruktorem ontologii), przy czym zasadniczym problemem jest charakter i sposób takiej interakcji. Wśród najbardziej zaawansowanych są prace Standard Upper Ontology Working Group (SUO WG), skierowane na forming an upper ontology whose domain is all of human consensus reality wraz ze związaną z nimi ontologią CYC (zob. np. [26]); jest to niewątpliwie ciekawa próba budowy uniwersalnego słownika, można jednak mieć do niej wiele wątpliwości z perspektywy zastosowań lokalnych, gdzie popularność użycia danego pojęcia w internecie nie musi decydować o znaczeniu i rozumieniu tego pojęcia. Związane jest to jeszcze z jednym, zasadniczym rozróżnieniem sposobów konstrukcji ontologii: odgórną konstrukcją ontologii (top down), wynikającą z doświadczenia ekspertów, ich intuicji i emocjonalnych przekonań, oraz oddolną konstrukcją ontologii (automatyczną lub półautomatyczną, wynikającą z jawnie zapisanych tekstów). Lokalna konstrukcja ontologii była zazwyczaj odgórna, ale obecny stan rozwoju inżynierii ontologicznej umożliwia kombinację metod odgórnych i oddolnych, problemem jest tylko sposób ich połączenia. Można na to spojrzeć z perspektywy prób łączenia wiedzy ukrytej (tacit knowledge, wiedzy intuicyjnej i emocjonalnej) z wiedzą jawną (explicit knowledge, wiedzy racjonalnej), które według [5], [7] są podstawą wszelkich metod kreowania wiedzy. Z tej perspektywy, uniwersalne ontologie są mało wartościowe do zastosowań lokalnych, gdyż nie uwzględniają wiedzy ukrytej lokalnej grupy ekspertów. Perspektywę taką potwierdza techniczna i ewolucyjna teoria intuicji [27], [28], która wykorzystuje współczesną wiedzę telekomunikacji i informatyki dla wykazania, że użycie języka (zatem także logiki) uprościło co najmniej dziesięć tysięcy razy postrzeganie i rozumowanie obrazowe oraz ogólniej 2 immanentne (wszystkimi zmysłami). W wyniku tego pozostał ogromny nadmiar mózgu, wykorzystywany w rozmaitych funkcjach życiowych, umiejętnościach ukrytych, także niekiedy we wnioskowaniu intuicyjnym, egzystencjalnym, transcendentalnym, etc. Nadmiar ten wyraża się oszacowaniem, że tylko nie więcej niż 0, promila neuronów mózgu człowieka zaangażowana jest w myślenie logiczne i argumentację słowną. Dlatego ludzka intuicja może być znacznie potężniejsza od argumentacji logicznej. Wynika stąd jednak także potrzeba radykalnej personalizacji osobistych ontologii użytkowników narzędzi ontologicznych, polegającej na zwiększeniu roli ich intuicji w definiowaniu ich ontologii, rozpoczynaniu od lokalnej ontologii odgórnej. Z tej perspektywy właśnie warte zainteresowania są nowe podejścia do tworzenia ontologii (od początku lub przez adaptację, o lekkiej strukturze) dla lokalnej grupy badaczy, łączącymi podejścia odgórne i oddolne, półautomatyczne. W grupie tematycznej zajmującej się wykrywaniem wiedzy związanej z projektem PBZ Usługi i sieci teleinformatyczne następnej generacji aspekty techniczne, aplikacyjne i rynkowe zakładano początkowo szersze wykorzystanie i rozwój metod inżynierii wiedzy dla wspomagania decyzji regulacyjnych, lecz cel ten musiał ulec zawężeniu w wyniku zasadniczego ograniczenia przyznanego finansowania tego tematu. Dlatego wybrano dziedzinę częściową, która jednak rokuje szybkie zastosowania w administracji podejmującej decyzje regulacyjne, a mianowicie wykrywanie wiedzy w dużych Pasmo niezbędne do przekazywania obrazów jest co najmniej 00 razy większe niż pasmo niezbędne dla przekazywania mowy, a złożoność obliczeniowa przetwarzania takich dużych zbiorów informacji jest nieliniowa, przyjęcie zależności kwadratowej jest tu oszacowaniem łagodnym. Stąd obraz jest wart co najmniej dziesięć tysięcy słów. Zatem w ewolucyjnym rozwoju człowieka, po etapie mowy, nastąpił ogromny skrót ewolucyjny. Niektórzy filozofowie mówili o nadmiarze umysłu nad mózgiem, ale zgodnie z omawianą tu ewolucyjną teorią intuicji jest to właśnie nadmiarowość mózgu, czasami wykorzystywana jako nadmiar umysłu. 8

7 zbiorach danych tekstowych oraz zarządzanie wiedzą w określonej instytucji, nawiązując do Działu III w przedstawionej klasyfikacji metod inżynierii wiedzy, czyli analizę tekstu oraz inżynierię ontologiczną. Z tego samego powodu, zdecydowano się ograniczyć wstępne zastosowania i testy do instytucji badawczej, tj. Instytutu Łączności. Rezultaty prac grupy tematycznej zajmującej się zagadnieniem wykrywania wiedzy Prace wstępne i konstrukcja przykładowych ontologii We współpracy z IIASA (International Institute for Applied Systems Analysis) oraz JAIST (Japan Advanced Institute for Science and Technology, School of Knowledge Science) przeprowadzono bardzo obszerny przegląd literatury. Z przeglądu tego jednak wynika, że chociaż kwestia łączenia metod odgórnych i oddolnych w tworzeniu ontologii była podjęta (np. [29]), nie zaproponowano jednak specjalnych metod takiego połączenia. Wyjątkiem jest podejście użyte wspólnie ze współpracownikami japońskimi, a relacjonowane m.in. w [6]. W podejściu tym wyrażenie wiedzy ukrytej ekspertów wspomagane jest refleksją hermeneutyczną, to jest refleksją tych ekspertów nad świadomie poszerzoną dziedziną obejmującą opracowywaną ontologię. Inne podejście, też mające na celu wyrażenie wiedzy ukrytej oraz też prezentowane w [6], wynikające z doświadczeń prac prowadzonych w Instytucie Łączności, to refleksja organizacyjna, czyli refleksja ekspertów nad strukturą organizacyjną Instytutu i prowadzonych w nim badań. Rozważano też inne metody eksplikacji wiedzy ukrytej ekspertów, takie jak tworzenie map umysłu (mind mapping), ale te są w mniejszym stopniu kontrolowane bezpośrednio przez eksperta, podczas gdy podstawowym założeniem eksplikacji wiedzy ukrytej powinna być suwerenna rola eksperta wobec komputera. Dokonano porównania kilku narzędzi inżynierii ontologicznej, pozyskanych z sieci lub dostosowanych przez prace własne, w zastosowaniu do zbiorów danych obejmujących bądź anglojęzyczne publikacje w Journal of Telecommunications and Information Technology (JTIT), bądź teksty polskojęzyczne związane z działalnością Instytutu Łączności. O ile struktura ontologii wykryta w tych pierwszych tekstach wskazywała na tylko bardzo ogólne relacje (np. takie, że sieć składa się z węzłów i łączy), o tyle w drugich tekstach miała ona już pewne podobieństwo ze strukturą organizacyjną IŁ, (zob. [30], [3]). Tak więc ze wstępnego porównania różnych metod wykrywania oraz łączenia wiedzy ukrytej z jawną przy tworzeniu ontologii wynika, że rozszerzona metoda refleksji organizacyjnej zaczynająca się od refleksji nad strukturą organizacyjną, ujmująca też przyjętą wizję i strategię instytucji, w razie potrzeby pogłębiona o refleksję hermeneutyczną (zob. [5], [8]) jest najbardziej skuteczna w przygotowaniu ekspertów tworzących ontologię lokalnej instytucji do interakcji i korekt wyników pracy półautomatycznych narzędzi oddolnej inżynierii ontologicznej. Przykładowe ontologie instytucji badawczej przedstawione zostały w [6]. Trzeba jednak podkreślić, że algorytmy wykrywania wiedzy dla potrzeb instytucji badawczej obejmują nie tylko konstrukcję ontologii, lecz także systemy wspomagania zarządzania wiedzą wykorzystujące narzędzia inżynierii ontologicznej. Narzędzia zarządzania wiedzą Opracowano kilka narzędzi, mających charakter rozwiązań wstępnych. Obejmowały one: system katalogowania obiektów, system zarządzania dokumentami i procesami, oraz system OntoGen PL. 9

8 Główną funkcją systemu katalogowania obiektów było tworzenie katalogu obiektów i zapewnienie możliwości łatwego wyszukiwania w nim potrzebnych danych. Z jednej strony można spojrzeć na tę funkcjonalność jak na uproszczony system zarządzania wiedzą, z drugiej jak na kooperacyjne podejście do idei agenta hermeneutycznego, (zob. [8]). Wyszukiwanie danych oparte jest na współpracy użytkowników systemu przy opisie informacji. Katalogowanymi obiektami były pojęcia związane z działalnością publikacyjną instytucji badawczych, tzn. osoba, artykuł, instytucja i czasopismo, połączone typowymi relacjami, takimi jak autorstwo, czy zatrudnienie. Zaproponowane rozwiązanie jest jednak dużo bardziej uniwersalne. Umożliwia ono właściwie dowolną zmianę dziedziny problemu, jeżeli tylko jego opis da się wyrazić w przyjętym metamodelu obiektowym. Metamodel składa się z klas opisywanych atrybutami i powiązanych relacjami wiele do jednego i wiele do wielu i, mimo swej prostoty, jest na tyle ogólny, że można w nim opisać wiele rzeczywistych systemów. Przyjęte podejście jest przykładem tworzenia oprogramowania kierowanego modelem. Podstawowym elementem jest tu definicja modelu problemu oparta na stworzonym prostym języku opisu systemów katalogowych. Na tej podstawie automatycznie jest generowany kod programu i interfejs użytkownika. System zarządzania dokumentami i procesami (SZDP) można traktować jak prototyp systemu zarządzania wiedzą do wspomagania kreatywności i wymiany wiedzy w środowiskach badawczych i naukowych. Głównym zadaniem SZDP jest przechowywanie i udostępnianie dokumentów w kontekście zachodzących w instytucji procesów i osób je realizujących. Dokumenty są prezentowane na tle projektów badawczych i struktury organizacyjnej instytucji. Na poziomie metadanych, typy lub klasy procesów są definiowane na podstawie szablonów opisujących typy zadań tworzących proces, z przypisanymi wzorcami dokumentów potwierdzających ich realizację i domyślnymi terminami wykonania. Tworzenie procesu wymaga określenia jego typu i precyzyjnego przypisania terminu realizacji zadań wchodzących w jego skład oraz wyznaczenia osób lub grup osób odpowiedzialnych za zadania. Wykonanie zadania jest każdorazowo potwierdzane dostarczeniem właściwego dokumentu. W ten sposób tworzone jest repozytorium dokumentów oraz jest gromadzona wiedza na temat realizowanych projektów badawczych i pracowników, wraz z wzajemnymi powiązaniami między wszystkimi opisywanymi obiektami, co stanowić może podstawę do analizy działalności pracowników, ich doświadczenia projektowego, dorobku publikacyjnego, czy też do tworzenia bazy dobrych praktyk projektowych. System OntoGen PL to modyfikacja systemu OntoGen taka, aby obsługiwał on dokumenty w języku polskim z uwzględnieniem specyficznej fleksji polskiej. OntoGen (http://ontogen.ijs.si/) jest bezpłatnym programem służącym do budowy ontologii dziedziny na podstawie związanego z nią zbioru dokumentów. Ontologia powstaje na drodze realizacji interaktywnego procesu wydobywania pojęć i relacji przy wykorzystaniu metod eksploracji danych występujących w postaci tekstowej (text mining). Więcej na temat samego narzędzia i wyników uzyskanych przy jego zastosowaniu można znaleźć w pracy [32]. Obok konstrukcji ontologii odgórnej (w formie hierarchicznej) podjęto też próbę konstrukcji oddolnej ontologii dla Instytutu Łączności, na podstawie zbioru artykułów zawartych w wydawanym przez Instytut czasopiśmie Journal of Telecommunications and Information Technology. Analiza wykazała jednak, że teksty te nie są w pełni reprezentatywne dla profilu placówki, a w wykorzystaniu wewnętrznych raportów z prac prowadzonych w Instytucie, nie publikowanych w czasopiśmie, stanął na przeszkodzie brak wsparcia OntoGen dla języka polskiego, w którym tworzone są opracowania. Nota bene, niewiele jest też narzędzi komercyjnych, które sprawdzają się przy komplikacjach, jakie wprowadza język polski. 0

9 Rys.. Przykładowa ontologia oddolna zagadnień badawczych IŁ W celu weryfikacji możliwości poprawy rezultatów osiągniętych w [32], przez uwzględnienie dokumentów polskojęzycznych, utworzone zostało środowisko programowe o roboczej nazwie OntoGen PL. Podstawową jego cechą jest wykorzystanie w całości bezpłatnego oprogramowania. Część zadań związana z przetwarzaniem danych jest realizowana przez autorski kod napisany w języku C. Rozbudowane środowisko OntoGen PL zostało przetestowane na zbiorze dokumentów zamieszczonych na stronach intranetowych IŁ. W głównej mierze są to raporty z realizacji prac statutowych obejmujące okres od 2000 do początku 2008 roku. Łącznie było analizowanych 260 opracowań. Biorąc po uwagę stosunkowo długi czas powstawania prac oraz pochodzenie opracowań ze wszystkich komórek badawczych Instytutu, można liczyć na ich reprezentatywność dla rzeczywistych obszarów, w których IŁ jest aktywny. W pierwszym kroku teksty zostały przetworzone, przez konwersję z formatu PDF do postaci czysto tekstowej, redukcję fleksji i inne operacje o charakterze technicznym, związanym z dostosowaniem korpusu do wymagań OntoGen. Ontologia przedstawiona na rys. była konstruowana metodą grupowania bez nadzoru. W kolejnych krokach procedury aktualna struktura pojęć jest sprowadzana do postaci bardziej szczegółowej, przez podział węzłów odpowiadających pojęciom. Rolą użytkownika, w przypadku takiego podejścia, jest w głównej mierze decyzja co do liczby podwęzłów powstających w wyniku podziału. W trakcie tworzenia struktury dążono do uzyskania jak największej jednorodności zagadnień w poszczególnych węzłach. Najwyższy poziom hierarchii pojęć składa się z trzech podstawowych grup tematycznych, które można hasłowo scharakteryzować jako: anteny i sieci radiowe węzeł (79 dokumentów w tej kategorii), urządzenia zasilające sieci radiowe i sieci optyczne węzeł 2 (96 dokumentów) oraz

10 aspekty społeczne i rynkowe telekomunikacji i poczty oraz systemy informacyjne węzeł 3 (84 skojarzone dokumenty). Dalszy podział węzła prowadzi do wyodrębnienia zagadnień z dziedziny: wzorcowania i pomiarów laboratoryjnych., badania jakości sieci z wykorzystaniem próbników.2, anten i komunikacji radiowej.3. Węzeł 2 dzieli się na podgrupy tematyczne obejmujące: sieci optyczne 2., urządzenia zasilające w telekomunikacji 2.2. Najbardziej rozbudowaną częścią grafu opisującego strukturę zagadnień badawczych jest podzbiór węzłów zorientowanych wokół problematyki społeczno-ekonomicznej i systemów informacyjnych (główny węzeł 3). Rozbudowa tej części grafu wynika jednak z faktu, że półautomatyczne tworzenie tej ontologii nadzorowała osoba o zainteresowaniach badawczych związanych z tym właśnie obszarem; gdyby to był np. specjalista w zakresie urządzeń zasilających w telekomunikacji, to rozbudowie uległaby niewątpliwie inna część grafu. Z węzła 3 zostały wyodrębnione grupy zagadnień związanych z: rynkiem usług pocztowych 3., zastosowaniami teorii gier w telekomunikacji 3.2, problemami regulacji i świadczenia usługi powszechnej 3.3, zarządzeniem wiedzą i społeczeństwem informacyjnym 3.4, rynkiem i ekonomią 3.5, wnioskowaniem opartym o zaawansowaną logikę 3.6. Do ciekawych wniosków prowadzi porównanie uzyskanego wyniku ze strukturą organizacyjną IŁ. Stosunkowo łatwo jest skojarzyć część węzłów z jednostkami działającymi w ramach Instytutu, przy czym niektóre z tych skojarzeń wymagają jednak dodatkowej wiedzy na temat profili jednostek (dostępnej np. na stronie internetowej Instytutu Prototypowe systemy wspomagania zarządzania wiedzą Na podstawie wniosków z opisanych działań wstępnych opracowano dwa systemy prototypowe: jeden wspomagający wyszukiwanie informacji w dokumentach elektronicznych opartych na osobistej ontologii użytkownika, drugi wspomagający współdzielenie źródeł wiedzy na podstawie modeli ontologicznych. Funkcje tych systemów połączono następnie w systemie PrOnto. Wyszukiwanie informacji w dokumentach elektronicznych na podstawie osobistej ontologii użytkownika Początki prac dotyczących sprawnego wyszukiwania informacji datuje się na lata czterdzieste XX wieku [33]. Wraz z rozwojem internetu nabrały one istotnego praktycznego znaczenia, co potwierdza, że strona wyszukiwarki Google jest najczęściej odwiedzanym miejscem w internecie. W tym miejscu warto zwrócić uwagę na pewną dychotomię związaną z pojęciem wyszukiwania informacji, występuje bowiem: 2

11 wyszukiwanie informacji mającej odpowiedzieć na konkretne pytanie użytkownika, nazwane szukaniem, wyszukiwanie informacji interesującej użytkownika, ale nie będącej wyrazem jego wprost sprecyzowanych potrzeb, nazwane przeglądaniem. Kierunki te rozwijane są w ramach dziedzin nazwanych w języku angielskim odpowiednio information retrieval i information filtering. Tradycyjne wyszukiwarki internetowe od samego początku łączyły w pewnym stopniu wsparcie dla obu tych czynności, choć z czasem większą popularność zdobyły rozwiązania lepiej przystosowane do wspomagania pierwszej z nich, a oparte na wyszukiwaniu dokumentów zawierających podane słowa. Pierwszy nurt podąża w kierunku tzw. semantycznego internetu (zob. np. [34]) + formalnego podejścia do opisu informacji opartego na ścisłych definicjach znaczenia gromadzonych danych. Umożliwia to odpowiadanie na pytania przez zastosowanie reguł wnioskowania. Najnowszą praktyczną inkarnacją wyszukiwarek z tego nurtu jest Wolfram Alpha. Drugi nurt zakłada określenie przez użytkownika jego preferencji, przy czym mogą być one wyrażone wprost lub też mieć postać niejawną, wywnioskowaną z historii jego zachowań. Są to odpowiednio tzw. content-based information filtering i collaborative filtering. Jawna postać preferencji może być opisana przez ontologie, przy czym są to najczęściej proste leksykony lub taksonomie. W tym przypadku wyszukiwanie informacji opiera się na analizie treści dokumentów i porównywaniu ich z profilem użytkownika. Historia zachowań użytkownika, a więc niejawna postać jego preferencji, używana jest do znajdowania podobnie zachowujących się użytkowników i rekomendacji na tej podstawie stosownych produktów (np. filmów, zob. np. [35]). Ten sposób postępowania nabrał w ostatnich latach dużego praktycznego znaczenia, związanego w dużej mierze ze znacznym rozwojem handlu w internecie. Wśród licznych praktycznych implementacji tego pomysłu warto tu wymienić serwis CiteULike, służący wymianie publikacji naukowych. Z ogólnego punktu widzenia, rozróżnienie między szukaniem a przeglądaniem, przypomina podobny podział obecny w teorii optymalnych decyzji, a mianowicie konieczność wyboru między eksploatacją posiadanej wiedzy a eksploracją w celu pozyskania nowej. Podobnie w ogólnym zadaniu wyszukiwania informacji istotnym problemem jest to, czy sformułowane pytanie jest tym, które użytkownik powinien zadać, aby uzyskać satysfakcjonującą go odpowiedź. W ostatnim czasie, w wielu wyszukiwarkach pojawiły się zarówno sugestie odnośnie do potencjalnych zapytań, czy ich uszczegółowień, jak i rozszerzanie systemów rekomendacji o informacje strukturalne. Zdaniem autorów brak jest jednak systemu łączącego w zadowalającym stopniu te zadania, w szczególności przeznaczonego do zastosowań naukowo-badawczych. W pewnym stopniu zadania te są realizowane przez system Ontoshare [36], jednak położono w nim główny nacisk na budowę i wykorzystanie ontologii grupowej, stąd sposób organizacji i wyszukiwania informacji jest w dużym stopniu kwestią indywidualnych preferencji. Takie podejście ogranicza w pewnym stopniu suwerenność użytkownika. Z tych powodów, w ramach działań grupy tematycznej zajmującej się wykrywaniem wiedzy rozpoczęto prace nad środowiskiem PrOnto, którego głównym celem ma być wspomaganie dzielenia się wiedzą i wyszukiwania potrzebnych informacji w instytucjach naukowo-badawczych. W szczególności wspierany ma być pierwszy krok spirali hermeneutycznej. Reprezentacja preferencji użytkowników została oparta na indywidualnych ontologiach. W tej chwili jest to zbiór pojęć powiązanych ze sobą relacjami. Z każdym pojęciem związany jest zestaw fraz kluczowych z przypisanymi im wagami, określającymi istotność danej frazy kluczowej dla konkretnego pojęcia. Środowisko PrOnto będzie bardziej szczegółowo opisane dalej. 3

12 Jednym z problemów szczegółowych, niezbędnych przy rozwoju takich środowisk, jak system PrOnto, jest wybór algorytmu wyszukiwania fraz kluczowych. Jednym ze standardowych zadań wyszukiwania wzorców w algorytmice jest problem znany jako multiple pattern string matching, a więc problem wyszukiwania słów z zadanego zbioru w łańcuchu znaków. Można łatwo dostosować sformułowanie tego problemu do zadania wyszukiwania fraz kluczowych z zadanego ich zbioru, definiowanego, np. przez struktury onotologiczne użytkowników. Rys. 2. Zależność czasu indeksowania od rozmiaru dokumentu Złożoność obliczeniowa trywialnego algorytmu dla tego zadania, używającego operacji wyszukiwania ciągu znaków w tekście dla każdego wzorca jest liniowa względem liczby wzorców, co przy zakładanej ich liczbie (rzędu 0 mln), czyni go nieużywalnym. Dlatego zdecydowano się na implementację algorytmu Aho-Corasick [37], służącego do szybkiego wyszukiwania w tekście łańcuchów znaków pochodzących z zadanego wcześniej zbioru. Istotną cechą tego algorytmu jest jego złożoność obliczeniowa, która nie zależy od liczby wyszukiwanych wzorców. Ze względu na planowany rozmiar systemu, struktury używane do indeksowania przechowywane są w bazie danych. Dzięki temu możliwe jest, np. indeksowanie dokumentów przy użyciu wszystkich tematów z Wikipedii (stąd właśnie oszacowanie rzędu 0 mln fraz kluczowych). Eksperymenty pokazują, że czas indeksowania dokumentu zależy liniowo od jego rozmiaru (rys. 2), a nie od liczby fraz kluczowych, co zgodne jest z oszacowaniem teoretycznym. Innym ważnym problemem szczegółowym jest ocena zgodności dokumentu z pojęciem ontologicznym. W celu dokonania takiej oceny, system został formalnie zdefiniowany jako krotka (D, C, K, f, g), złożona z: zbioru dokumentów D = {d_,..., d_nd}, zbioru pojęć C = {c_,..., c_nc}, zbioru fraz kluczowych K = {k_,..., k_nk}, 4

13 funkcji określającej wagę danej frazy kluczowej dla danego pojęcia f: CxK R, funkcji określającej wyniki indeksowania g: DxK R. Na tej podstawie można zdefiniować funkcję oceny zgodności dokumentu z pojęciem ontologicznym h: DxC R w postaci sumy wyników indeksowania ważonej frazami kluczowymi przypisanymi danemu pojęciu: h(d_i, c_j) = f ( c _ j, k _ k) g( d _ i, k _ k) Miara ta prezentowana jest w interfejsie użytkownika i używana do porządkowania wyników wyszukiwania. Współdzielenie źródeł wiedzy na podstawie modeli ontologicznych k _ k Problemy gromadzenia, organizacji i wymiany źródeł wiedzy są już od dłuższego czasu obecne wśród tematów badań w dziedzinie zarządzania informacją i wiedzą. Jednak to ostatnie lata przyniosły rosnące zainteresowanie tymi zagadnieniami, ze względu na zwiększone zapotrzebowanie na metody umożliwiające zapanowanie nad wielością źródeł informacji dostępnych zarówno w sieciach publicznych, jak i wewnątrz organizacji i przedsiębiorstw. Najbardziej klasycznym sposobem uzyskania dostępu do informacji jest jej wyszukiwanie według słów kluczowych. Technika, ulegająca stałemu ulepszaniu i poprawie, zaczyna, wraz ze wzrostem wolumenu informacji i wymagań użytkowników sieci, ocierać się o granicę swoich możliwości. Oczywiście ten sposób poszukiwania interesujących źródeł wiedzy będzie jeszcze przez dłuższy czas dominował, jednak nawet giganci rynku wyszukiwarek są zmuszeni do poszukiwania nowych rozwiązań usprawniających procesy poszukiwania i porządkowania. Wyszukiwarka Wolfram Alpha interpretuje słowa kluczowe wchodzące w skład zapytania użytkownika i prezentuje wyniki w uporządkowanej formie, Google Squared zaś organizuje rezultaty wyszukiwania w formie tabelarycznej, przy czym kolejne wiersze odpowiadają znalezionym obiektom, kolumny zaś to ich atrybuty. Należy zwrócić uwagę na aktualność tych rozwiązań, jako że zarówno produkt Google, jak i wyszukiwarka Stephena Wolframa zostały udostępnione w 2009 roku. Innym sposobem na poprawę wyników wyszukiwania źródeł informacji i wiedzy jest personalizacja, polegająca na umożliwieniu użytkownikom modyfikacji uzyskanych w sposób automatyczny rezultatów i przypisywaniu im komentarzy. Przykładem tego typu rozwiązania jest usługa Google SearchWiki. Portale społecznościowe, których rozkwit nastąpił w ostatnich latach, gromadzą informację o swoich użytkownikach, ich zainteresowaniach i aktywności. Pojawiają się pomysły wykorzystania struktury takich portali i powiązań między ich użytkownikami, jako dodatkowego wymiaru organizującego wiedzę i pozwalającego uzyskiwać lepsze wyniki wyszukiwania [38]. Szczególnym zagadnieniem jest organizacja procesów gromadzenia i zarządzania zasobami wiedzy w organizacjach badawczych, bądź w tzw. Communities of Practice (CoP), w których szczególny nacisk kładzie się na wymianę informacji niezbędnej do rozwiązywania konkretnych problemów, tworzenie nowej wiedzy i wsparcie kreatywności [5], [8]. Znane są też systemy zorganizowane w postaci sieci społecznych, wspomagające wymianę informacji naukowej i ułatwiające kontakt osób zaangażowanych w działalność badawczą, w szczególności można przywołać IndexCopernicus, BiomedExperts, czy BioCrowd. Stephen Wolfram jest również znany jako autor programu Mathematica. 5

14 2 3 4 W większości sieci społecznych informacja jest organizowana za pomocą tzw. tagów, czyli słów kluczowych, które są przypisywane przez użytkowników zasobom, co lokuje ten sposób indeksowania na przeciwnym biegunie w stosunku do sposobu indeksowania stosowanego w wyszukiwarkach internetowych, które wiążą słowa kluczowe z dokumentami na podstawie zawartości tych dokumentów. W ramach projektu On-To-Knowledge powstał system OntoShare [36], którego zadaniem jest umożliwienie wymiany źródeł wiedzy w ramach CoP. Podstawowym założeniem systemu jest wykorzystanie wspólnej dla CoP ontologii. Użytkownik wyraża chęć udostępnienia dokumentu w OntoShare. Dokument jest analizowany przez system i opisywany zestawem słów kluczowych. Każdy z użytkowników systemu jest charakteryzowany przez profil, złożony ze zbioru właściwych jego sposobowi percepcji dziedziny pojęć ontologicznych, a każde pojęcie jest z kolei powiązane ze zbiorem słów kluczowych. OntoShare bada podobieństwo pojęć tworzących profile użytkowników do opisu dokumentu i, w przypadku stwierdzenia znacznej zbieżności, proponuje zaetykietowanie dokumentu sygnaturą jednego lub wielu pojęć. Użytkownicy mogą również dodawać nowe pojęcia do swoich profili. Dzięki takiemu modelowi opisu wiedzy, można lokalizować we wspólnej przestrzeni najbardziej interesujące z punktu widzenia użytkownika dokumenty, ale także i osoby deklarujące znajomość określonej tematyki. Nieco innym podejściem do problemu wymiany wiedzy opierającego się na opisie ontologicznym jest projekt SWAP (Semantic Web and Peer-to-Peer, [39], [40]). Projekt powstał w wyniku obserwacji gwałtownego rozwoju sieci bezpośredniej wymiany (P2P) i miał na celu stworzenie sieci P2P 2 umożliwiającej wymianę wiedzy między niezależnymi agentami, posługującymi się wspólnymi, lub 3 prywatnymi ontologiami. Zakłada się, że wiedza jest rozproszona między węzłami sieci P2P i podstawowym zadaniem systemu jest dopasowywanie opisujących ją ontologii poszczególnych węzłów, w celu lokalizacji źródeł odpowiadających w największym stopniu zapytaniom użytkowników. Szczególnie istotne są w tym kontekście zagadnienia związane z dopasowywaniem ontologii (Ontology Matching, zob. [4]), a metody dopasowania stanowią znaczną część prac badawczych w ramach projektu SWAP. Jednym z produktów projektu jest Bibster [42], system do wymiany informacji bibliograficznej w środowisku rozproszonym. Spośród różnych innych prób zmierzenia się z zagadnieniem zarządzania wiedzą na podstawie modeli ontologicznych, warto także wspomnieć o projekcie SEKT (Semantically Enabled Knowledge Technologies), którego tematyka obejmuje szereg zagadnień związanych z tworzeniem i dopasowywaniem ontologii oraz wymianą wiedzy. Co ciekawe, wyniki prac nad porządkowaniem wiedzy na podstawie modeli ontologicznych, są dziś 4 trudno dostępne w domenie publicznej. Można podejrzewać, że rezultaty okazały się niewystarczająco zadowalające i nie przetrwały próby czasu. Z drugiej jednak strony, echa tych projektów można znaleźć na stronach internetowych komercyjnych partnerów tworzących projektowe konsorcja. Informacja na tych stronach ma charakter przeważnie marketingowy, jednak można na jej podstawie przypuszczać, że firmy wykorzystały przynajmniej wnioski z prac badawczych przy tworzeniu portfolio swoich produktów. Skoncentrowano się tu na wyszukiwarkach operujących na dokumentach tekstowych. Sieci P2P (Peer-to-Peer Networks), takie jak BitTorrent, Gnutella, Napster, edonkey, Kad, służą dziś przede wszystkim do bezpośredniej wymiany plików. Istnieją także inne zastosowania sieci P2P, w tym również wymiana metadanych tworzących sieci semantyczne, np. sieć Edutella. Indywidualne ontologie nazwane zostały kontekstami (contexts), nazwa ontologia zaś jest wtedy zarezerwowana dla współdzielonych struktur semantycznych. Łatwo dostępny jest tylko Bibster (http://bibster.semanticweb.org ). 6

15 System PrOnto W przekonaniu autorów niniejszego opracowania, organizacja wiedzy w strukturze ontologicznej sprawdza się znacznie lepiej jako podstawa reprezentacji wiedzy w systemie jej współdzielenia niż w przypadku oparcia się jedynie na słowach kluczowych. Pojęcia ontologiczne i relacje między nimi pozwalają systematyzować wiedzę w intuicyjny sposób, odpowiadający spojrzeniu na zagadnienia mieszczące się w obszarze zainteresowań osoby lub grupy osób. Uzyskane w ten sposób indywidualne profile mogą być w przyszłości wykorzystane przy tworzeniu mechanizmów współdzielenia wiedzy. Modele ontologiczne są również istotne w kontekście poznawczym, związanym z poszerzaniem osobistego horyzontu hermeneutycznego, ułatwiając lokalizację pojęć leżących na granicy horyzontów indywidualnych i nawigację w obrębie sąsiednich, przylegających horyzontów. Prosty przykład użyteczności takiego rozwiązania to przyjęcie punktu widzenia osoby, która wykazuje się znaczną wiedzą w określonej tematyce i wykorzystanie jej struktury ontologicznej jako mapy prowadzącej przez dany obszar zagadnień, ułatwiającej przyswajanie nowej wiedzy w sposób uporządkowany. Frazy kluczowe są w takich zastosowaniach bardziej problematyczne. Wyszukiwanie informacji na podstawie fraz kluczowych wymaga dokładnej znajomości tych fraz. Ontologie stanowią natomiast wyższy poziom abstrakcji, bliższy sposobowi opisu dziedziny właściwemu ludziom. Dostęp do wielu profili użytkowników, na poziomie opisu ontologicznego, daje możliwość odnalezienia właściwych fraz kluczowych, powiązanych z pojęciami tworzącymi te profile, co z kolei zwiększa znacznie prawdopodobieństwo dotarcia do istotnej informacji, nawet w przypadku nikłej znajomości dziedziny, w tym fraz kluczowych charakteryzujących opisujące ją dokumenty, co jest przypadkiem nagminnym w procesie przyswajania nowej wiedzy. Wspomniany system PrOnto jest środowiskiem do organizacji i współdzielenia źródeł wiedzy, zorientowanym na wspieranie procesów poznawczych i kreatywności w środowisku badawczym. Został stworzony w Instytucie Łączności i istnieje obecnie w fazie prototypu. Dostęp do systemu odbywa się za pośrednictwem przeglądarki www i jest chroniony hasłem. Użytkownik dostarcza do wspólnej bazy dokumenty, które uważa za istotne dla prowadzonych przez siebie badań. Opisuje jednocześnie swój obszar zainteresowań za pomocą struktury ontologicznej, bliskiej mapie pojęć, a także proponuje słowa kluczowe charakteryzujące dostarczone przez siebie dokumenty i wiąże je z elementami swojej ontologii. Ontologia jest następnie używana jako perspektywa, służąca do porządkowania dokumentów względem rankingu słów kluczowych powiązanych z pojęciami, a także do poszukiwania profili ontologicznych posługujących się podobnymi znaczeniowo pojęciami. Zaimplementowano szereg narzędzi wspierających zarówno refleksję hermeneutyczną nad indywidualną strukturą pojęć, jak i współdzielenie źródeł wiedzy. Model ontologiczny Reprezentacja źródeł wiedzy w środowisku PrOnto (rys. 3) jest tworzona na podstawie schematu, który można w sposób symboliczny przedstawić jako strukturę: gdzie: KR := ( H, C, R, K, D, α, α, δ, γ, γ ) H jest zbiorem horyzontów albo perspektyw odpowiadających indywidualnym lub grupowym punktom spojrzenia na zasoby wiedzy przechowywane w systemie; zdefiniowany w ten sposób horyzont stanowi uogólnienie użytkownika systemu, C R C D 7

16 γ C jest zbiorem pojęć tworzących horyzont H, R jest zbiorem relacji między pojęciami z C, α C : C H i α R : R H stanowią, odpowiednio, przypisanie pojęć z C i relacji z R do horyzontów z H, δ : R C C przypisuje relacjom z R pojęcia będące jej argumentami, K jest zbiorem fraz lub słów kluczowych, D jest zbiorem bądź bazą dokumentów, : D D K R jest miarą reprezentatywności fraz z K dla dokumentów z D; została zaimplementowana klasyczna miara TF-IDF (Term Frequency Inverse Document Frequency), wartość TF IDF( k K, d D) rośnie wraz z częstością występowania frazy k w dokumencie d i maleje wraz z całkowitą liczbą dokumentów zawierających k, γ C : C K R jest miarą będącą subiektywną oceną rozkładu prawdopodobieństwa P( c k), c C k K ; jest to miara definiowana dla każdego pojęcia c C przez właściciela horyzontu H, do którego c należy; każdemu pojęciu z C może zostać przypisana dowolna liczba fraz kluczowych z K. Na podstawie przedstawionego wyżej modelu została stworzona podstawowa dla systemu funkcja rankingowa (analogiczna do stosowanej funkcji oceny zgodności dokumentu z pojęciem ontologicznym h: DxC R), która umożliwia porządkowanie dokumentów względem struktury pojęć: φ ( c, d ) γ ( c, k) γ ( d, k) d D, c C = k K C D Rys. 3. Reprezentacja źródeł wiedzy w PrOnto 8

17 Współdzielenie wiedzy Dalej zostaną pokrótce przedstawione mechanizmy dzielenia wiedzy w systemie PrOnto. Stanowią one, obok indywidualnego porządkowania źródeł wiedzy, jedną z dwóch zasadniczych funkcjonalności prototypowej wersji systemu. Perspektywa indywidualna nie będzie tutaj przedstawiona. Dostarczanie źródeł wiedzy. Jak to już sygnalizowano wcześniej, poszukiwanie źródeł wiedzy związanych z przedmiotem badań jest istotnym elementem procesu kreowania wiedzy i znalazło odzwierciedlenie w hermeneutycznej spirali EAIR (Enlightenment-Analysis-Hermeneutic Immersion- Reflection), jako krok analizy (Analysis), [5]. Podczas procesu poszukiwań źródeł, część z nich zostaje odrzucona, część zaś zaklasyfikowana jako szczególnie istotne w kontekście badanego zagadnienia. PrOnto umożliwia umieszczenie dokumentów w dzielonej między swoich użytkowników wspólnej przestrzeni źródeł wiedzy (w przedstawionym modelu odpowiada on bazie dokumentów D). Aby dodatkowy nakład pracy związany z rejestrowaniem dokumentu w systemie był jak najmniejszy, została stworzona dedykowana wtyczka do przeglądarki Firefox, która po zainstalowaniu sprowadza całą czynność do prostych operacji wykonywanych za pomocą myszy (rys. 4). Rys. 4. Udostępnianie strony WWW. Zaznaczone zostały elementy powiązane z PrOnto Firefox Extension 9

18 Perspektywy innych użytkowników systemu. System PrOnto umożliwia spojrzenie na zgromadzone dokumenty z perspektywy innych użytkowników, a ściślej mówiąc, przez pryzmat ich struktury ontologicznej. Funkcjonalność taka daje możliwość poszerzania własnego horyzontu pojęciowego w sposób uporządkowany, a szczególnie przydatna wydaje się na etapie poznawania dziedziny, w której właściciel horyzontu jest biegły. Ekran aplikacji został przedstawiony na rys. 5. Po lewej jego stronie zobrazowana została mapa pojęć, po prawej lista dokumentów odpowiadających pojęciu Semantic Search Engines, uporządkowana według wartości funkcji rankingowej φ. Pod ikoną dokumentu wyświetlone zostały frazy kluczowe, które są wspólne dla pojęcia i dokumentu, wraz z przypisanymi im wartościami γ ( c, k) γ ( d k). C D, Rys. 5. Dostęp do dokumentów z perspektywy profili innych użytkowników Dopasowanie ontologii. Kolejna klasa analiz, oferowana przez PrOnto, to dopasowywanie ontologii. Użytkownik uzyskuje dzięki temu informację o pojęciach występujących w innych profilach, które są podobne do pojęć, którymi on sam się posługuje. Obecna wersja PrOnto dopasowuje pojęcia według równości przypisanych im etykiet, oraz przez porównanie zbiorów słów kluczowych przypisanych pojęciom przez użytkowników (rys. 6). Dla pojęć, które mają swoje odpowiedniki w profilach innych użytkowników istnieje możliwość śledzenia relacji (rys. 7). Przedstawiane są, w formie listy, pojęcia sąsiednie do dopasowanych pojęć z innych ontologii, przy czym sąsiedniość oznacza tu bycie w relacji z pojęciem. Wielowymiarowe wyszukiwanie dokumentów. PrOnto jest wyposażone w zaawansowaną wyszukiwarkę osób, pojęć, dokumentów i fraz kluczowych (rys. 8), która prezentuje wyniki poszukiwań w wielowymiarowej strukturze. Na rys. 8, w prawej jego części, widać wynik wyszukiwania dokumentów, którym przypisano najbardziej dopasowane do nich pojęcia, przy czym miara dopasowania d ustalony dokument, c pojęcie, k ustalona fraza kluczowa. 20

19 to znana z wcześniejszych rozważań funkcja rankingowa φ. Pojęcia pochodzą z profili wszystkich użytkowników. Po rozwinięciu ikony pojęcia są wyświetlane frazy kluczowe, które charakteryzują jednocześnie dokumenty i pojęcia, determinując ich pozycję w rankingu. Lewa część okna z rys. 8 stanowi interfejs służący do definiowania powiązań pojęć ze słowami kluczowymi, w tym wartości miary. γ C Rys. 6. Podobieństwo profili użytkowników Rys. 7. Śledzenie relacji 2

20 Wyniki analiz w trybie off-line Oprócz interaktywnego trybu pracy, PrOnto wykonuje analizy zgromadzonej wiedzy bez udziału użytkownika. Wyniki tych analiz, prezentowane w formie listy wiadomości, mają wspomagać użytkownika w konstruowaniu własnego profilu i informować o istotnych zdarzeniach w systemie (rys. 9). Z punktu widzenia współdzielenia wiedzy ważne jest szczególnie dostarczanie informacji o nowych pojęciach, pokrewnych własnym, które pojawiają się w profilach innych użytkowników i informacja o dostarczeniu do systemu źródeł wiedzy leżących w obszarze zainteresowania użytkownika. Rys. 8. Dokumenty, pojęcia i frazy kluczowe Rys. 9. Informacja o zdarzeniach 22

Zakład Zaawansowanych Technik Informacyjnych (Z-6)

Zakład Zaawansowanych Technik Informacyjnych (Z-6) Zakład Zaawansowanych Technik Informacyjnych (Z-6) Sprawozdanie dla grupy tematycznej PBZ i. Systemy wspomagania decyzji regulacyjnych: Wykrywanie wiedzy w dużych zbiorach danych telekomunikacyjnych PBZ

Bardziej szczegółowo

Systemy z bazą wiedzy (spojrzenie bardziej korporacyjne) Baza wiedzy. Baza wiedzy. Baza wiedzy. Baza wiedzy

Systemy z bazą wiedzy (spojrzenie bardziej korporacyjne) Baza wiedzy. Baza wiedzy. Baza wiedzy. Baza wiedzy Zarządzanie wiedzą z bazą wiedzy (spojrzenie bardziej korporacyjne) Wybrane aspekty technologiczne związane z wiedzą i zarządzaniem wiedzą Google: baza wiedzy 1,180,000 znalezionych systemy zarządzania

Bardziej szczegółowo

Ontologie, czyli o inteligentnych danych

Ontologie, czyli o inteligentnych danych 1 Ontologie, czyli o inteligentnych danych Bożena Deka Andrzej Tolarczyk PLAN 2 1. Korzenie filozoficzne 2. Ontologia w informatyce Ontologie a bazy danych Sieć Semantyczna Inteligentne dane 3. Zastosowania

Bardziej szczegółowo

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.

SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie. SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:

Bardziej szczegółowo

PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"

PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu Podstawy baz danych PODSTAWY BAZ DANYCH 19. Perspektywy baz danych 1 Perspektywy baz danych Temporalna baza danych Temporalna baza danych - baza danych posiadająca informację o czasie wprowadzenia lub czasie ważności zawartych

Bardziej szczegółowo

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE

MIĘDZYNARODOWE STOSUNKI GOSPODARCZE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW MIĘDZYNARODOWE STOSUNKI GOSPODARCZE studia pierwszego stopnia profil ogólnoakademicki studia drugiego stopnia profil ogólnoakademicki Objaśnienie oznaczeń: S1A obszar

Bardziej szczegółowo

Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl

Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl Komputerowe Systemy Przemysłowe: Modelowanie - UML Arkadiusz Banasik arkadiusz.banasik@polsl.pl Plan prezentacji Wprowadzenie UML Diagram przypadków użycia Diagram klas Podsumowanie Wprowadzenie Języki

Bardziej szczegółowo

Projekt dotyczy stworzenia zintegrowanego, modularnego systemu informatycznego wspomagającego zarządzanie pracownikami i projektami w firmie

Projekt dotyczy stworzenia zintegrowanego, modularnego systemu informatycznego wspomagającego zarządzanie pracownikami i projektami w firmie Projekt dotyczy stworzenia zintegrowanego, modularnego systemu informatycznego wspomagającego zarządzanie pracownikami i projektami w firmie informatycznej. Zadaniem systemu jest rejestracja i przechowywanie

Bardziej szczegółowo

Transformacja wiedzy w budowie i eksploatacji maszyn

Transformacja wiedzy w budowie i eksploatacji maszyn Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy Wydział Mechaniczny Transformacja wiedzy w budowie i eksploatacji maszyn Bogdan ŻÓŁTOWSKI W pracy przedstawiono proces

Bardziej szczegółowo

Załącznik nr 1WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PEDAGOGIKA STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI

Załącznik nr 1WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PEDAGOGIKA STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI Dz.U. z 2013 poz. 1273 Brzmienie od 31 października 2013 Załącznik nr 1WZORCOWE EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW PEDAGOGIKA STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI Umiejscowienie kierunku

Bardziej szczegółowo

Analiza korespondencji

Analiza korespondencji Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy

Bardziej szczegółowo

Wykład I. Wprowadzenie do baz danych

Wykład I. Wprowadzenie do baz danych Wykład I Wprowadzenie do baz danych Trochę historii Pierwsze znane użycie terminu baza danych miało miejsce w listopadzie w 1963 roku. W latach sześcdziesątych XX wieku został opracowany przez Charles

Bardziej szczegółowo

SHAREPOINT SHAREPOINT QM SHAREPOINT DESINGER SHAREPOINT SERWER. Opr. Barbara Gałkowska

SHAREPOINT SHAREPOINT QM SHAREPOINT DESINGER SHAREPOINT SERWER. Opr. Barbara Gałkowska SHAREPOINT SHAREPOINT QM SHAREPOINT DESINGER SHAREPOINT SERWER Opr. Barbara Gałkowska Microsoft SharePoint Microsoft SharePoint znany jest również pod nazwą Microsoft SharePoint Products and Technologies

Bardziej szczegółowo

Internet, jako ocean informacji. Technologia Informacyjna Lekcja 2

Internet, jako ocean informacji. Technologia Informacyjna Lekcja 2 Internet, jako ocean informacji Technologia Informacyjna Lekcja 2 Internet INTERNET jest rozległą siecią połączeń, między ogromną liczbą mniejszych sieci komputerowych na całym świecie. Jest wszechstronnym

Bardziej szczegółowo

Prezentacja specjalności studiów II stopnia. Inteligentne Technologie Internetowe

Prezentacja specjalności studiów II stopnia. Inteligentne Technologie Internetowe Prezentacja specjalności studiów II stopnia Inteligentne Technologie Internetowe Koordynator specjalności Prof. dr hab. Jarosław Stepaniuk Tematyka studiów Internet jako zbiór informacji Przetwarzanie:

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA PIERWSZEGO STOPNIA - PROFIL OGÓLNOAKADEMICKI Umiejscowienie kierunku w obszarach kształcenia Kierunek studiów Zarządzanie reprezentuje dziedzinę

Bardziej szczegółowo

Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty

Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty Karta opisu przedmiotu Zaawansowane techniki analizy systemowej oparte o modelowanie warsztaty przedmiotu Stopień studiów i forma: Rodzaj przedmiotu Kod przedmiotu Grupa kursów Zaawansowane techniki analizy

Bardziej szczegółowo

Zasady Wykorzystywania Plików Cookies

Zasady Wykorzystywania Plików Cookies Zasady Wykorzystywania Plików Cookies Definicje i objaśnienia używanych pojęć Ilekroć w niniejszym zbiorze Zasad wykorzystywania plików Cookies pojawia się któreś z poniższych określeń, należy rozumieć

Bardziej szczegółowo

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów

Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie

Bardziej szczegółowo

Monitoring procesów z wykorzystaniem systemu ADONIS

Monitoring procesów z wykorzystaniem systemu ADONIS Monitoring procesów z wykorzystaniem systemu ADONIS BOC Information Technologies Consulting Sp. z o.o. e-mail: boc@boc-pl.com Tel.: (+48 22) 628 00 15, 696 69 26 Fax: (+48 22) 621 66 88 BOC Management

Bardziej szczegółowo

Kierunkowe efekty kształcenia. dla kierunku KULTUROZNAWSTWO. Studia drugiego stopnia

Kierunkowe efekty kształcenia. dla kierunku KULTUROZNAWSTWO. Studia drugiego stopnia Załącznik nr 2 do Uchwały nr 41/2014/2015 Senatu Akademickiego Akademii Ignatianum w Krakowie z dnia 26 maja 2015 r. Kierunkowe efekty kształcenia dla kierunku KULTUROZNAWSTWO Studia drugiego stopnia Profil

Bardziej szczegółowo

KIERUNKOWE EFEKTY KSZTAŁCENIA

KIERUNKOWE EFEKTY KSZTAŁCENIA WYDZIAŁ INFORMATYKI I ZARZĄDZANIA Kierunek studiów: INFORMATYKA Stopień studiów: STUDIA II STOPNIA Obszar Wiedzy/Kształcenia: OBSZAR NAUK TECHNICZNYCH Obszar nauki: DZIEDZINA NAUK TECHNICZNYCH Dyscyplina

Bardziej szczegółowo

Diagramy ERD. Model struktury danych jest najczęściej tworzony z wykorzystaniem diagramów pojęciowych (konceptualnych). Najpopularniejszym

Diagramy ERD. Model struktury danych jest najczęściej tworzony z wykorzystaniem diagramów pojęciowych (konceptualnych). Najpopularniejszym Diagramy ERD. Model struktury danych jest najczęściej tworzony z wykorzystaniem diagramów pojęciowych (konceptualnych). Najpopularniejszym konceptualnym modelem danych jest tzw. model związków encji (ERM

Bardziej szczegółowo

Informatyka w kontroli i audycie

Informatyka w kontroli i audycie Informatyka w kontroli i audycie Informatyka w kontroli i audycie Wstęp Terminy zajęć 30.11.2013 - godzina 8:00-9:30 ; 9:45-11:15 15.12.2013 - godzina 8:00-9:30 ; 9:45-11:15 05.04.2014 - godzina 15:45-17:15

Bardziej szczegółowo

Kierunkowe efekty kształcenia Po ukończeniu studiów absolwent:

Kierunkowe efekty kształcenia Po ukończeniu studiów absolwent: EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW FILOLOGIA POLSKA poziom kształcenia profil kształcenia tytuł zawodowy absolwenta studia pierwszego stopnia ogólnoakademicki licencjat I. Umiejscowienie kierunku

Bardziej szczegółowo

Bazy danych - wykład wstępny

Bazy danych - wykład wstępny Bazy danych - wykład wstępny Wykład: baza danych, modele, hierarchiczny, sieciowy, relacyjny, obiektowy, schemat logiczny, tabela, kwerenda, SQL, rekord, krotka, pole, atrybut, klucz podstawowy, relacja,

Bardziej szczegółowo

PageRank i HITS. Mikołajczyk Grzegorz

PageRank i HITS. Mikołajczyk Grzegorz PageRank i HITS Mikołajczyk Grzegorz PageRank Metoda nadawania indeksowanym stronom internetowym określonej wartości liczbowej, oznaczającej jej jakość. Algorytm PageRank jest wykorzystywany przez popularną

Bardziej szczegółowo

Inteligentne Multimedialne Systemy Uczące

Inteligentne Multimedialne Systemy Uczące Działanie realizowane w ramach projektu Absolwent informatyki lub matematyki specjalistą na rynku pracy Matematyka i informatyka może i trudne, ale nie nudne Inteligentne Multimedialne Systemy Uczące dr

Bardziej szczegółowo

Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl

Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Aby skorzystać z możliwości RapidMinera w zakresie analizy tekstu, należy zainstalować Text Mining Extension. Wybierz: 1 Po

Bardziej szczegółowo

Lean management w procesie obsługi klienta

Lean management w procesie obsługi klienta Lean management w procesie obsługi klienta Lean Management oznacza sprawne a zarazem efektywne kosztowe wykonywanie wszystkich działań w firmie przy założeniu minimalizacji strat, minimalizacji stanów

Bardziej szczegółowo

W dalszej części dokumentu przedstawiamy skrócony opis kluczowych funkcji systemu. Niniejszy dokument nie zawiera opisu technicznego systemu.

W dalszej części dokumentu przedstawiamy skrócony opis kluczowych funkcji systemu. Niniejszy dokument nie zawiera opisu technicznego systemu. 1. Informacje Podstawowe Mediamanager 2.1 jest systemem wspierającym zarządzanie dokumentami elektronicznymi. Podstawowymi funkcjami realizowanymi przez oprogramowanie jest przetrzymywanie, zarządzanie

Bardziej szczegółowo

Wyszukiwanie w czasie rzeczywistym sposób na zwiększenie widoczności zasobów bibliotek cyfrowych w wyszukiwarkach internetowych Karolina Żernicka

Wyszukiwanie w czasie rzeczywistym sposób na zwiększenie widoczności zasobów bibliotek cyfrowych w wyszukiwarkach internetowych Karolina Żernicka Wyszukiwanie w czasie rzeczywistym sposób na zwiększenie widoczności zasobów bibliotek cyfrowych w wyszukiwarkach internetowych Karolina Żernicka Instytut Informacji Naukowej i Bibliologii Uniwersytet

Bardziej szczegółowo

QUERY język zapytań do tworzenia raportów w AS/400

QUERY język zapytań do tworzenia raportów w AS/400 QUERY język zapytań do tworzenia raportów w AS/400 Dariusz Bober Katedra Informatyki Politechniki Lubelskiej Streszczenie: W artykule przedstawiony został język QUERY, standardowe narzędzie pracy administratora

Bardziej szczegółowo

Praca magisterska Jakub Reczycki. Opiekun : dr inż. Jacek Rumiński. Katedra Inżynierii Biomedycznej Wydział ETI Politechnika Gdańska

Praca magisterska Jakub Reczycki. Opiekun : dr inż. Jacek Rumiński. Katedra Inżynierii Biomedycznej Wydział ETI Politechnika Gdańska System gromadzenia, indeksowania i opisu słownikowego norm i rekomendacji Praca magisterska Jakub Reczycki Opiekun : dr inż. Jacek Rumiński Katedra Inżynierii Biomedycznej Wydział ETI Politechnika Gdańska

Bardziej szczegółowo

Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia

Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia Załącznik nr 1 do Uchwały nr 9/VI/2012 Senatu Wyższej Szkoły Handlowej im. Bolesława Markowskiego w Kielcach z dnia 13 czerwca 2012 roku. Efekty kształcenia dla kierunku ekonomia studia drugiego stopnia

Bardziej szczegółowo

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle

Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Badania operacyjne: Wykład Zastosowanie kolorowania grafów w planowaniu produkcji typu no-idle Paweł Szołtysek 12 czerwca 2008 Streszczenie Planowanie produkcji jest jednym z problemów optymalizacji dyskretnej,

Bardziej szczegółowo

3.1. Na dobry początek

3.1. Na dobry początek Klasa I 3.1. Na dobry początek Regulamin pracowni i przepisy BHP podczas pracy przy komputerze Wykorzystanie komputera we współczesnym świecie Zna regulamin pracowni i przestrzega go. Potrafi poprawnie

Bardziej szczegółowo

Alicja Marszałek Różne rodzaje baz danych

Alicja Marszałek Różne rodzaje baz danych Alicja Marszałek Różne rodzaje baz danych Rodzaje baz danych Bazy danych można podzielić wg struktur organizacji danych, których używają. Można podzielić je na: Bazy proste Bazy złożone Bazy proste Bazy

Bardziej szczegółowo

Zalew danych skąd się biorą dane? są generowane przez banki, ubezpieczalnie, sieci handlowe, dane eksperymentalne, Web, tekst, e_handel

Zalew danych skąd się biorą dane? są generowane przez banki, ubezpieczalnie, sieci handlowe, dane eksperymentalne, Web, tekst, e_handel według przewidywań internetowego magazynu ZDNET News z 8 lutego 2001 roku eksploracja danych (ang. data mining ) będzie jednym z najbardziej rewolucyjnych osiągnięć następnej dekady. Rzeczywiście MIT Technology

Bardziej szczegółowo

Web 3.0 Sieć Pełna Znaczeń (Semantic Web) Perspektywy dla branży motoryzacyjnej i finansowej. Przyjęcie branżowe EurotaxGlass s Polska 10 luty 2012

Web 3.0 Sieć Pełna Znaczeń (Semantic Web) Perspektywy dla branży motoryzacyjnej i finansowej. Przyjęcie branżowe EurotaxGlass s Polska 10 luty 2012 Web 3.0 Sieć Pełna Znaczeń (Semantic Web) Perspektywy dla branży motoryzacyjnej i finansowej Przyjęcie branżowe EurotaxGlass s Polska 10 luty 2012 Web 3.0 - prawdziwa rewolucja czy puste hasło? Web 3.0

Bardziej szczegółowo

Zapewnij sukces swym projektom

Zapewnij sukces swym projektom Zapewnij sukces swym projektom HumanWork PROJECT to aplikacja dla zespołów projektowych, które chcą poprawić swą komunikację, uprościć procesy podejmowania decyzji oraz kończyć projekty na czas i zgodnie

Bardziej szczegółowo

epuap Opis standardowych elementów epuap

epuap Opis standardowych elementów epuap epuap Opis standardowych elementów epuap Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka SPIS TREŚCI SPIS TREŚCI...

Bardziej szczegółowo

RELACYJNE BAZY DANYCH

RELACYJNE BAZY DANYCH RELACYJNE BAZY DANYCH Aleksander Łuczyk Bielsko-Biała, 15 kwiecień 2015 r. Ludzie używają baz danych każdego dnia. Książka telefoniczna, zbiór wizytówek przypiętych nad biurkiem, encyklopedia czy chociażby

Bardziej szczegółowo

Technologia informacyjna (IT - Information Technology) dziedzina wiedzy obejmująca:

Technologia informacyjna (IT - Information Technology) dziedzina wiedzy obejmująca: 1.1. Podstawowe pojęcia Technologia informacyjna (IT - Information Technology) dziedzina wiedzy obejmująca: informatykę (włącznie ze sprzętem komputerowym oraz oprogramowaniem używanym do tworzenia, przesyłania,

Bardziej szczegółowo

6. Organizacja dostępu do danych przestrzennych

6. Organizacja dostępu do danych przestrzennych 6. Organizacja dostępu do danych przestrzennych Duża liczba danych przestrzennych oraz ich specyficzny charakter sprawiają, że do sprawnego funkcjonowania systemu, przetwarzania zgromadzonych w nim danych,

Bardziej szczegółowo

Streszczenie pracy doktorskiej Autor: mgr Wojciech Wojaczek Tytuł: Czynniki poznawcze a kryteria oceny przedsiębiorczych szans Wstęp W ciągu

Streszczenie pracy doktorskiej Autor: mgr Wojciech Wojaczek Tytuł: Czynniki poznawcze a kryteria oceny przedsiębiorczych szans Wstęp W ciągu Streszczenie pracy doktorskiej Autor: mgr Wojciech Wojaczek Tytuł: Czynniki poznawcze a kryteria oceny przedsiębiorczych szans Wstęp W ciągu ostatnich kilku dekad diametralnie zmienił się charakter prowadzonej

Bardziej szczegółowo

Wyszukiwanie informacji

Wyszukiwanie informacji Wyszukiwanie informacji Informatyka Temat 1 Krotoszyn, wrzesień 2015 r. 1 Informatyka 1 Przeszukiwanie zasobów internetowych Krotoszyn, 2015 r. Spis treści prezentacji 1. Wprowadzenie 2. Gdzie szukać informacji?

Bardziej szczegółowo

Założenia monitoringu innowacyjności województwa mazowieckiego

Założenia monitoringu innowacyjności województwa mazowieckiego Założenia monitoringu innowacyjności województwa mazowieckiego Wojciech Dziemianowicz prezentacja składa się z materiałów przygotowanych przez firmy GEOPROFIT i ECORYS Polska sp. z o.o. na zlecenie Urzędu

Bardziej szczegółowo

WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH W KLASIE 4 SZKOŁY PODSTAWOWEJ

WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH W KLASIE 4 SZKOŁY PODSTAWOWEJ WYMAGANIA EDUKACYJNE Z ZAJĘĆ KOMPUTEROWYCH W KLASIE 4 SZKOŁY PODSTAWOWEJ 1. W ZAKRESIE BEZPIECZNEGO POSŁUGIWANIA SIĘ KOMPUTEREM I OPROGRAMOWANIEM UCZEŃ: przestrzega podstawowych zasad bezpiecznej i higienicznej

Bardziej szczegółowo

MATEMATYCZNE METODY WSPOMAGANIA PROCESÓW DECYZYJNYCH

MATEMATYCZNE METODY WSPOMAGANIA PROCESÓW DECYZYJNYCH MATEMATYCZNE METODY WSPOMAGANIA PROCESÓW DECYZYJNYCH 1. Przedmiot nie wymaga przedmiotów poprzedzających 2. Treść przedmiotu Proces i cykl decyzyjny. Rola modelowania matematycznego w procesach decyzyjnych.

Bardziej szczegółowo

Sposoby wyszukiwania multimedialnych zasobów w Internecie

Sposoby wyszukiwania multimedialnych zasobów w Internecie Sposoby wyszukiwania multimedialnych zasobów w Internecie Lidia Derfert-Wolf Biblioteka Główna Uniwersytetu Technologiczno-Przyrodniczego w Bydgoszczy e-mail: lidka@utp.edu.pl III seminarium z cyklu INFOBROKER:

Bardziej szczegółowo

Procesowa specyfikacja systemów IT

Procesowa specyfikacja systemów IT Procesowa specyfikacja systemów IT BOC Group BOC Information Technologies Consulting Sp. z o.o. e-mail: boc@boc-pl.com Tel.: (+48 22) 628 00 15, 696 69 26 Fax: (+48 22) 621 66 88 BOC Management Office

Bardziej szczegółowo

Zarządzanie wiedzą w instytucji naukowej cz. I

Zarządzanie wiedzą w instytucji naukowej cz. I Zarządzanie wiedzą w instytucji naukowej cz. I Jolanta Przyłuska Dział Zarządzania Wiedzą IMP Łódź Projekt współfinansowany przez Unię Europejską ze środków Europejskiego Funduszu Rozwoju Regionalnego

Bardziej szczegółowo

Temat: Ułatwienia wynikające z zastosowania Frameworku CakePHP podczas budowania stron internetowych

Temat: Ułatwienia wynikające z zastosowania Frameworku CakePHP podczas budowania stron internetowych PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W ELBLĄGU INSTYTUT INFORMATYKI STOSOWANEJ Sprawozdanie z Seminarium Dyplomowego Temat: Ułatwienia wynikające z zastosowania Frameworku CakePHP podczas budowania stron internetowych

Bardziej szczegółowo

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA I STOPNIA PROFIL PRAKTYCZNY

EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA I STOPNIA PROFIL PRAKTYCZNY WYŻSZA SZKOŁA BEZPIECZEŃSTWA z siedzibą w Poznaniu EFEKTY KSZTAŁCENIA DLA KIERUNKU STUDIÓW ZARZĄDZANIE STUDIA I STOPNIA PROFIL PRAKTYCZNY UMIEJSCOWIENIE KIERUNKU W OBSZARZE Kierunek studiów zarządzanie

Bardziej szczegółowo

Podstawowe pakiety komputerowe wykorzystywane w zarządzaniu przedsiębiorstwem. dr Jakub Boratyński. pok. A38

Podstawowe pakiety komputerowe wykorzystywane w zarządzaniu przedsiębiorstwem. dr Jakub Boratyński. pok. A38 Podstawowe pakiety komputerowe wykorzystywane w zarządzaniu przedsiębiorstwem zajęcia 1 dr Jakub Boratyński pok. A38 Program zajęć Bazy danych jako podstawowy element systemów informatycznych wykorzystywanych

Bardziej szczegółowo

Efekty kształcenia wymagane do podjęcia studiów 2 stopnia na kierunku Informatyka

Efekty kształcenia wymagane do podjęcia studiów 2 stopnia na kierunku Informatyka Efekty kształcenia wymagane do podjęcia studiów 2 stopnia na kierunku Informatyka Test kwalifikacyjny obejmuje weryfikację efektów kształcenia oznaczonych kolorem szarym, efektów: K_W4 (!), K_W11-12, K_W15-16,

Bardziej szczegółowo

Bydgoskie Centrum Archiwizacji Cyfrowej sp. z o.o.

Bydgoskie Centrum Archiwizacji Cyfrowej sp. z o.o. STRONA GŁÓWNA ` Usługa earchiwizacja.pl przeznaczona jest zarówno dla osób indywidualnych, jak i firm. Wykorzystuje zasadę przetwarzania danych w chmurze. Pozwala to na dostęp do własnej bazy dokumentów

Bardziej szczegółowo

WYSZUKIWANIE INFORMACJI W INTERNECIE

WYSZUKIWANIE INFORMACJI W INTERNECIE Sławomir Szaruga Ośrodek Nowoczesnych Technologii Informacyjnych ŁCDNiKP WYSZUKIWANIE INFORMACJI W INTERNECIE II etap edukacji (klasa VI) Cele kształcenia Cele ogólne: kształtowanie umiejętności wyszukiwania

Bardziej szczegółowo

Raport oceny kompetencji

Raport oceny kompetencji Symulacje oceniające kompetencje Raport oceny kompetencji Rut Paweł 08-01-2015 Kompetencje sprzedażowe dla efactor Sp. z o.o. Dane osobowe Rut Paweł CEO pawel.rut@efactor.pl more-than-manager.com 2 z 13

Bardziej szczegółowo

technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych.

technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych. Informatyka Coraz częściej informatykę utoŝsamia się z pojęciem technologii informacyjnych. Za naukową podstawę informatyki uwaŝa się teorię informacji i jej związki z naukami technicznymi, np. elektroniką,

Bardziej szczegółowo

Virtual Grid Resource Management System with Virtualization Technology

Virtual Grid Resource Management System with Virtualization Technology Virtual Grid Resource Management System with Virtualization Technology System zarządzania zasobami wirtualnego Gridu z wykorzystaniem technik wirtualizacji Joanna Kosińska Jacek Kosiński Krzysztof Zieliński

Bardziej szczegółowo

Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych

Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych Wykorzystanie standardów serii ISO 19100 oraz OGC dla potrzeb budowy infrastruktury danych przestrzennych dr inż. Adam Iwaniak Infrastruktura Danych Przestrzennych w Polsce i Europie Seminarium, AR Wrocław

Bardziej szczegółowo

CELE I TREŚCI NAUCZANIA POSZCZEGÓLNYCH PRZEDMIOTÓW I. PRZEDMIOTY PODSTAWOWE, WSPÓLNE DLA OBYDWU ŚCIEŻEK:

CELE I TREŚCI NAUCZANIA POSZCZEGÓLNYCH PRZEDMIOTÓW I. PRZEDMIOTY PODSTAWOWE, WSPÓLNE DLA OBYDWU ŚCIEŻEK: CELE I TREŚCI NAUCZANIA POSZCZEGÓLNYCH PRZEDMIOTÓW PODYPLOMOWYCH STUDIÓW INFOBROKERSTWA I ZARZĄDZANIA INFORMACJĄ I. PRZEDMIOTY PODSTAWOWE, WSPÓLNE DLA OBYDWU ŚCIEŻEK: 1. Informacja w nauce, społeczeństwie

Bardziej szczegółowo

Baza danych. Modele danych

Baza danych. Modele danych Rola baz danych Systemy informatyczne stosowane w obsłudze działalności gospodarczej pełnią funkcję polegającą na gromadzeniu i przetwarzaniu danych. Typowe operacje wykonywane na danych w systemach ewidencyjno-sprawozdawczych

Bardziej szczegółowo

Security Master Class

Security Master Class Security Master Class Platforma kompleksowej analizy zdarzeń Linux Polska SIEM Radosław Żak-Brodalko Senior Solutions Architect Linux Polska sp. z o.o. Podstawowe problemy Jak pokryć lukę między technicznym

Bardziej szczegółowo

Architektura korporacyjna jako narzędzie koordynacji wdrażania przetwarzania w chmurze

Architektura korporacyjna jako narzędzie koordynacji wdrażania przetwarzania w chmurze Architektura korporacyjna jako narzędzie koordynacji wdrażania przetwarzania w chmurze Prof. SGH, dr hab. Andrzej Sobczak, Kierownik Zakładu Systemów Informacyjnych, Katedra Informatyki Gospodarczej SGH

Bardziej szczegółowo

Wydział Elektrotechniki, Informatyki i Telekomunikacji. Instytut Informatyki i Elektroniki. Instrukcja do zajęć laboratoryjnych

Wydział Elektrotechniki, Informatyki i Telekomunikacji. Instytut Informatyki i Elektroniki. Instrukcja do zajęć laboratoryjnych Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Informatyki i Elektroniki Instrukcja do zajęć laboratoryjnych wersja: 1.0 Nr ćwiczenia: 12, 13 Temat: Cel ćwiczenia: Wymagane przygotowanie

Bardziej szczegółowo

Program modułu multimedialnego mgr Urszula Galant. PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie

Program modułu multimedialnego mgr Urszula Galant. PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie PROGRAM MODUŁU MULTIMEDIALNEGO DLA UCZNIÓW KLAS IV VI SP im. Szarych Szeregów w Płochocinie 1 I. WSTĘP Wraz z powszechną komputeryzacją większości dziedzin życia codziennego oraz szybkim rozwojem sprzętu

Bardziej szczegółowo

Ćwiczenie to ma na celu zarysowanie tego problemu i postawienie uczniów w sytuacji podejmowania decyzji, która zawsze wiąże się z pewnym ryzykiem.

Ćwiczenie to ma na celu zarysowanie tego problemu i postawienie uczniów w sytuacji podejmowania decyzji, która zawsze wiąże się z pewnym ryzykiem. Opis ćwiczenia ĆWICZENIE Czy biznes jest opłacalny? Ent-teach Rozdział 3 Analiza Rynku To ćwiczenie skierowane jest do studentów wszystkich obszarów kształcenia zawodowego, którzy biorą udział w projekcie

Bardziej szczegółowo

System zarządzający grami programistycznymi Meridius

System zarządzający grami programistycznymi Meridius System zarządzający grami programistycznymi Meridius Instytut Informatyki, Uniwersytet Wrocławski 20 września 2011 Promotor: prof. Krzysztof Loryś Gry komputerowe a programistyczne Gry komputerowe Z punktu

Bardziej szczegółowo

Funkcje wyszukiwania i adresu PODAJ.POZYCJĘ

Funkcje wyszukiwania i adresu PODAJ.POZYCJĘ Funkcje wyszukiwania i adresu PODAJ.POZYCJĘ Mariusz Jankowski autor strony internetowej poświęconej Excelowi i programowaniu w VBA; Bogdan Gilarski właściciel firmy szkoleniowej Perfect And Practical;

Bardziej szczegółowo

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego

Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Budowa sztucznych sieci neuronowych do prognozowania. Przykład jednostek uczestnictwa otwartego funduszu inwestycyjnego Dorota Witkowska Szkoła Główna Gospodarstwa Wiejskiego w Warszawie Wprowadzenie Sztuczne

Bardziej szczegółowo

Generacja Y o mediach społecznościowych w miejscu pracy

Generacja Y o mediach społecznościowych w miejscu pracy Generacja Y o mediach społecznościowych w miejscu pracy Raport z badania Szymon Góralski Wrocław, 2013 ul. Więzienna 21c/8, 50-118 Wrocław, tel. 71 343 70 15, fax: 71 343 70 13, e-mail: biuro@rrcc.pl,

Bardziej szczegółowo

O systemach D-Sight Charakterystyka

O systemach D-Sight Charakterystyka O systemach D-Sight Charakterystyka Systemy wspomagania podejmowania decyzji firmy D-Sight Nawet stosunkowo proste problemy decyzyjne wymagają wieloaspektowej (wielokryterialnej) analizy. Jest to racjonalne

Bardziej szczegółowo

Uniwersytet Jagielloński Collegium Medicum. Anna Uryga, Jolanta Cieśla, Lucjan Stalmach

Uniwersytet Jagielloński Collegium Medicum. Anna Uryga, Jolanta Cieśla, Lucjan Stalmach Wyniki działań realizowanych w Bibliotece Medycznej UJ CM w latach 2011-2013 w ramach projektu SYNAT/PASSIM w zakresie stworzenia platformy hostingowej i komunikacyjnej dla sieciowych zasobów wiedzy dla

Bardziej szczegółowo

POLITYKA COOKIES. Definicje. Rodzaje wykorzystywanych Cookies

POLITYKA COOKIES. Definicje. Rodzaje wykorzystywanych Cookies POLITYKA COOKIES Niniejsza Polityka Cookies określa zasady przechowywania i dostępu do informacji na urządzeniach Użytkownika za pomocą plików Cookies, służących realizacji usług świadczonych drogą elektroniczną

Bardziej szczegółowo

Rzeczywistość rozszerzona w edukacji w świetle piśmiennictwa

Rzeczywistość rozszerzona w edukacji w świetle piśmiennictwa IS-1/068/NCBR/2014: EduAR Opracowanie systemu komputerowego Rzeczywistości Rozszerzonej przeznaczonego do zastosowania w oprogramowaniu dydaktycznym dedykowanym przedmiotom ścisłym Rzeczywistość rozszerzona

Bardziej szczegółowo

Jak ustawić cele kampanii?

Jak ustawić cele kampanii? Jak ustawić cele kampanii? Czym są cele? Jest to funkcjonalność pozwalająca w łatwy sposób śledzić konwersje wygenerowane na Twojej stronie www poprzez wiadomości email wysłane z systemu GetResponse. Mierzenie

Bardziej szczegółowo

Po ukończeniu studiów pierwszego stopnia na kierunku ekonomia absolwent:

Po ukończeniu studiów pierwszego stopnia na kierunku ekonomia absolwent: Efekty kształcenia dla kierunku studiów ekonomia Studia pierwszego stopnia profil praktyczny 1. Umiejscowienie kierunku w obszarze. Kierunek studiów ekonomia należy do dziedziny nauk ekonomicznych w ramach

Bardziej szczegółowo

Wykład 1 Inżynieria Oprogramowania

Wykład 1 Inżynieria Oprogramowania Wykład 1 Inżynieria Oprogramowania Wstęp do inżynierii oprogramowania. Cykle rozwoju oprogramowaniaiteracyjno-rozwojowy cykl oprogramowania Autor: Zofia Kruczkiewicz System Informacyjny =Techniczny SI

Bardziej szczegółowo

Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia

Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia Załącznik nr 1 do Uchwały nr 7/VI/2012 Senatu Wyższej Szkoły Handlowej im. Bolesława Markowskiego w Kielcach z dnia 13 czerwca 2012 roku. Efekty kształcenia dla kierunku ekonomia studia pierwszego stopnia

Bardziej szczegółowo

Usługi analityczne budowa kostki analitycznej Część pierwsza.

Usługi analityczne budowa kostki analitycznej Część pierwsza. Usługi analityczne budowa kostki analitycznej Część pierwsza. Wprowadzenie W wielu dziedzinach działalności człowieka analiza zebranych danych jest jednym z najważniejszych mechanizmów podejmowania decyzji.

Bardziej szczegółowo

Axiell Arena Biblioteka XXI wieku

Axiell Arena Biblioteka XXI wieku Axiell Arena Biblioteka XXI wieku Wstęp Axiell Arena to system zarządzania informacją biblioteczną, stworzony w oparciu o zaawansowany system zarządzania treścią internetową czyli Content Management System

Bardziej szczegółowo

omnia.pl, ul. Kraszewskiego 62A, 37-500 Jarosław, tel. +48 16 621 58 10 www.omnia.pl kontakt@omnia.pl

omnia.pl, ul. Kraszewskiego 62A, 37-500 Jarosław, tel. +48 16 621 58 10 www.omnia.pl kontakt@omnia.pl .firma Dostarczamy profesjonalne usługi oparte o nowoczesne technologie internetowe Na wstępie Wszystko dla naszych Klientów Jesteśmy świadomi, że strona internetowa to niezastąpione źródło informacji,

Bardziej szczegółowo

I. Szczegółowe efekty kształcenia Administracja I o

I. Szczegółowe efekty kształcenia Administracja I o I. Szczegółowe efekty kształcenia Administracja I o Założenia ogólne 1. Nazwa kierunku studiów: Administracja 2. Nazwy specjalności kształcenia tworzonych w ramach kierunku: administracja publiczna i administracja

Bardziej szczegółowo

Efekty kształcenia dla studiów podyplomowych: Sposób dokumentacji efektów kształcenia

Efekty kształcenia dla studiów podyplomowych: Sposób dokumentacji efektów kształcenia Efekty kształcenia dla studiów podyplomowych: Lp. K_W01 K_W02 K_W06 K_W08 K_W09 Efekty kształcenia dla studiów podyplomowych zna terminologię używaną w pedagogice a w szczególności w oraz jej zastosowanie

Bardziej szczegółowo

Zarządzanie procesami w Twojej firmie Wygodne. Mobilne. Sprawdzone.

Zarządzanie procesami w Twojej firmie Wygodne. Mobilne. Sprawdzone. - monitorowanie zgłoszeń serwisowych - kontrola pracy serwisantów - planowanie przeglądów i odbiorów - mobilna obsługa zgłoszeń - historia serwisowania urządzeń - ewidencja przepływu części serwisowych

Bardziej szczegółowo

Projektowanie architektury informacji katalogu biblioteki w oparciu o badania użytkowników Analiza przypadku

Projektowanie architektury informacji katalogu biblioteki w oparciu o badania użytkowników Analiza przypadku Projektowanie architektury informacji katalogu biblioteki w oparciu o badania użytkowników Analiza przypadku dr Stanisław Skórka Biblioteka Główna Instytut Informacji Naukowej i Bibliotekoznawstwa Uniwersytet

Bardziej szczegółowo

PRZEWODNIK PO PRZEDMIOCIE

PRZEWODNIK PO PRZEDMIOCIE Nazwa przedmiotu: Systemy ekspertowe w zarządzaniu firmą Expert systems in enterprise management Kierunek: Zarządzanie i Inżynieria Produkcji Rodzaj przedmiotu: Rodzaj zajęć: Wyk. Ćwicz. Lab. Sem. Proj.

Bardziej szczegółowo

Kierunek Stosunki Międzynarodowe. Studia I stopnia. Profil ogólnoakademicki. Efekty kształcenia:

Kierunek Stosunki Międzynarodowe. Studia I stopnia. Profil ogólnoakademicki. Efekty kształcenia: Kierunek Stosunki Międzynarodowe Studia I stopnia Profil ogólnoakademicki Efekty kształcenia: Kierunek: Stosunki Międzynarodowe Poziom kształcenia: studia I stopnia Uczelnia: Uczelnia Łazarskiego w Warszawie

Bardziej szczegółowo

Architektury i protokoły dla budowania systemów wiedzy - zadania PCSS w projekcie SYNAT

Architektury i protokoły dla budowania systemów wiedzy - zadania PCSS w projekcie SYNAT Architektury i protokoły dla budowania systemów wiedzy - zadania PCSS w projekcie SYNAT A. Dudczak, C. Mazurek, T. Parkoła, J. Pukacki, M. Stroiński, M. Werla, J. Węglarz Poznańskie Centrum Superkomputerowo-Sieciowe

Bardziej szczegółowo

Systemy baz danych w zarządzaniu przedsiębiorstwem. W poszukiwaniu rozwiązania problemu, najbardziej pomocna jest znajomość odpowiedzi

Systemy baz danych w zarządzaniu przedsiębiorstwem. W poszukiwaniu rozwiązania problemu, najbardziej pomocna jest znajomość odpowiedzi Systemy baz danych w zarządzaniu przedsiębiorstwem W poszukiwaniu rozwiązania problemu, najbardziej pomocna jest znajomość odpowiedzi Proces zarządzania danymi Zarządzanie danymi obejmuje czynności: gromadzenie

Bardziej szczegółowo

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32

Analiza i projektowanie oprogramowania. Analiza i projektowanie oprogramowania 1/32 Analiza i projektowanie oprogramowania Analiza i projektowanie oprogramowania 1/32 Analiza i projektowanie oprogramowania 2/32 Cel analizy Celem fazy określania wymagań jest udzielenie odpowiedzi na pytanie:

Bardziej szczegółowo

ZARZĄDZANIE I INŻYNIERIA PRODUKCJI

ZARZĄDZANIE I INŻYNIERIA PRODUKCJI ZARZĄDZANIE I INŻYNIERIA PRODUKCJI STUDIA PIERWSZEGO STOPNIA PROFIL OGÓLNOAKADEMICKI Załącznik nr 2 Odniesienie efektów kierunkowych do efektów obszarowych i odwrotnie Załącznik nr 2a - Tabela odniesienia

Bardziej szczegółowo

firmy produkty intranet handel B2B projekty raporty notatki

firmy produkty intranet handel B2B projekty raporty notatki firmy mail intranet produkty DOKUMENTY handel raporty B2B projekty notatki serwis zadania Dlaczego warto wybrać Pakiet ITCube? Najczęściej wybierany polski CRM Pakiet ITCube jest wykorzystywany przez ponad

Bardziej szczegółowo

Autor: Artur Lewandowski. Promotor: dr inż. Krzysztof Różanowski

Autor: Artur Lewandowski. Promotor: dr inż. Krzysztof Różanowski Autor: Artur Lewandowski Promotor: dr inż. Krzysztof Różanowski Przegląd oraz porównanie standardów bezpieczeństwa ISO 27001, COSO, COBIT, ITIL, ISO 20000 Przegląd normy ISO 27001 szczegółowy opis wraz

Bardziej szczegółowo