Rozdział 23 Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności Streszczenie. W rozdziale przedstawiony został model systemu zarządzania wiedzą, w którym uwzględniono aspekty wiarygodności. Dla zaprezentowanego modelu opisane zostały również metody definiowania wiarygodności w Sieci Semantycznej oraz wnioskowania względem wiedzy wzbogaconej o informacje na temat wiarygodności. Na początku model definiuje ontologię wiarygodności ontologię, która pozwala przypisać pewne zbiory cech do konkretnych asercji. Następnie opisana została semantyka systemu zarządzania wiedzą uwzględniającego aspekty zaufania. Zaproponowano również język zapytań, pozwalający na wyrażanie wymagań dotyczących wiarygodności dla pytań dziedzinowych. W podsumowaniu opisano pewne aspekty implementacyjne prototypowego systemu bazującego na omawianym modelu, a także zastosowania prezentowanego systemu w dziedzinie medycznej. 1 Wstęp W [1] przedstawiono metodę definiowania wiarygodności w Sieci Semantycznej (Semantic Web) [2] przy użyciu ontologicznego opisu asercji. Definiowanie wiarygodności jest rozumiane jako przypisanie asercjom unarnym i binarnym zbioru cech i ich wartości. Wnioskowanie z uwzględnieniem aspektów wiarygodności polega na utworzeniu dynamicznego modelu ontologii zawierającego tylko te asercje, których cechy spełniają zadane wymagania a następnie wykonanie zapytania dziedzinowego na tym właśnie modelu. W niniejszym rozdziale sformalizujemy procesy opisu wiarygodności asercji i definiowania wymagań dotyczących wiarygodności wiedzy. Sformalizowanie tych procesów polega na zdefiniowaniu modelu systemu zarządzania wiedzą nie w pełni wiarygodną oraz dostosowaniu języka zapytań do wymagań stawianych przez te procesy. W podrozdziale 2 zaprezentowano formalną definicję modelu omawianego systemu. Rozszerzenie języka zapytań do bazy wiedzy tak, aby uwzględniał on kwestie wiarygodności, opisane zostało w podrozdziale 3. Pewne aspekty implementacyjne prototypowego systemu bazującego na omawianym modelu opisane zostały w podrozdziale 4. Podrozdział 5 podsumowuje rozdział. Krzysztof Goczyła, Teresa Zawadzka, Michał Zawadzki Politechnika Gdańska, Wydział Elektroniki, Telekomunikacji i Informatyki, ul. G. Narutowicza 11/12, 80-92 Gdańsk, Polska email:{kris, tegra, michawa}@eti.pg.gda.pl
K. Goczyła, T. Zawadzka, M. Zawadzki 2 Model systemu zarządzania wiedzą nie w pełni wiarygodną Model systemu (ze względu na brak miejsca w uproszczonej formie) przedstawiony zostanie w postaci kilku definicji oraz przykładów je wyjaśniających. Podstawowym pojęciem używanym do zdefiniowania modelu systemu jest ontologia: Definicja 2.1. Niech = jest alfabetem, w którym jest alfabetem A O A Ox A Os terminów będących nazwami konceptów, ról i atrybutów a A Ox A Os jest alfabetem terminów będących nazwami osobników. Niech Ox jest zbiorem aksjomatów wyrażonych w terminach alfabetu A, zaś Os jest zbiorem asercji wyrażonych w terminach alfabetu Ox A O, przy czym Ox i O s są wyrażone w pewnej logice opisowej L O. Ontologią nazywamy parę O = <Ox, O s >. Wyobraźmy sobie pewną ontologię O wyrażoną w logice opisowej dialektu ALC: [3] L O o ekspresywności Przykład 2.1. Terminologia O x opisuje dziedzinę leków (koncept Lek). Każdy lek składa się z pewnych składników (koncept Składnik). Poprzez składniki leku rozumiemy pewną ilość substancji zawartej w leku wyrażoną w pewnych jednostkach. Dlatego każdy składnik ma pewną substancję (rola masubstancję, której zakresem jest koncept Substancja) o zadanej ilości (atrybut mailość). Ilość substancji jest wyrażona w pewnych jednostkach (rola majednostkę, której zakresem jest koncept Jednostka). Dodatkowo leki i substancje mogą wchodzić ze sobą w interakcję (rola mainterakcjęz). Ontologia O składa się nie tylko z terminologii, ale również ze zbioru asercji O s (w przykładzie, dla przejrzystości, ograniczamy się jedynie do substancji aktywnych; interakcje między lekami i/lub substancjami są fikcyjne). Przykładowa ontologia składa się z czterech leków (Tritace, Witamina C, Folik, L-Karnityna). W skład tych leków wchodzą odpowiednio składniki: ramipryl 5 mg, kwas askorbinowy 200 mg, kwas foliowy 0,4 mg oraz winian L-Karnityny 447 mg. Dla tych składników jednostką są wszędzie miligramy. Dodatkowo w ontologii podano, że w interakcję z kwasem foliowym wchodzą kwas askorbinowy, rampiryl oraz lek Tritace. 286
Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności W powyższym przykładzie, Lek, Składnik, Substancja oraz Jednostka to nazwy konceptów, zaś mailość, majednostkę, masubstancję, maskładnik i mainterakcję to nazwy ról razem tworzą alfabet A = { Lek, Składnik, Substancja, Jednostka, O x mailość, majednostkę, masubstancję, maskładnik, mainterakcję}. Nazwy osobników tworzą alfabet A Ox = { mg, Tritace, Rampiryl_5_mg, Ramipryl, Witamina_C, Kwas_askorbinowy_200_mg, Kwas_askorbinowy, Folik, Kwas_foliowy_0.4_mg, Kwas_foliowy, L-Karnityna, Winian_L-Karnityny_447_mg, Winian_L-Karnityny }. Nazwy konceptów, ról, atrybutów i osobników tworzą alfabet A O. Pierwsza część przykładu to zbiór aksjomatów Ox, natomiast druga to zbiór asercji O s. Kolejnym krokiem jest zdefiniowanie systemu zarządzania wiedzą nie w pełni wiarygodną: Definicja 2.2. System zarządzania wiedzą nie w pełni wiarygodną W jest trójką postaci <D, T, M>, w której D jest ontologią dziedzinową, T jest ontologią wiarygodności, natomiast M jest odwzorowaniem pomiędzy zbiorem asercji zdefiniowanych w ontologii D a zbiorem nazw osobników zdefiniowanych w ontologii T. W tak zdefiniowanym systemie ontologia dziedzinowa to ontologia przechowująca wiedzę na temat dziedziny zainteresowań (np. Leki). Ontologia wiarygodności to ontologia opisująca wiarygodność zdań z ontologii dziedzinowej. Odwzorowanie łączy natomiast wiarygodność z wiedzą dziedzinową. Formalne definicje elementów systemu zarządzania wiedzą przedstawiają definicje poniżej: Definicja 2.3. Ontologią dziedzinową D = <D x, D s > jest ontologia zgodna z definicją 2.1. Ontologią dziedzinową niech będzie w ontologia zdefiniowana w przykładzie 2.1. Definicja 2.4. Ontologią wiarygodności T = <T x, T s > jest ontologia zgodna z definicją 2.1. Dodatkowo, w alfabecie A jest zawarty termin Asercje: Asercje, co Tx A T x implikuje fakt, że do zbioru aksjomatów Tx należy aksjomat zawierania Asercje m. Zbiór asercji Ts = T T składa się z dwóch zbiorów asercji. Zbiór T nie s1 s2 s1 zawiera asercji unarnych postaci Asercje( i ) i jest niezależny od ontologii dziedzinowej D. Zbiór T to zbiór asercji zależny od ontologii dziedzinowej D i składa się s 2 z asercji Asercje( i1 ) Asercje( i n ) gdzie n jest liczbą asercji w ontologii dziedzinowej D, oraz asercji definiujących cechy osobników i 1 i n. Zgodnie z powyższą definicją, ontologię wiarygodności możemy widzieć jako trzy zbiory: zbiór T x opisujący terminologię oraz dwa zbiory i składające się na opis asercji Ts =. W przykładach poniżej spróbujemy dokładnie wyjaśnić T s1 T s2 definicję ontologii wiarygodności. Najpierw zdefiniujemy sobie prostą terminologię wiarygodności: T s1 Przykład 2.2. Asercje m mapoziomzaufania. 0 * mapoziomzaufania. 1 m T s2 287
K. Goczyła, T. Zawadzka, M. Zawadzki macertyfikat.organcertyfikujący m mapotwierdzonąaktualność. 1990 * mapotwierdzonąaktualność. 2008 m potwierdzonyprzez.lekarzrodzinny m Terminologia powyżej definiuje cechy, jakie będzie można przypisać asercjom z ontologii dziedzinowej. I tak możemy przypisać poziom zaufania jako liczbę z przedziału <0..1>, czy potwierdzić aktualność w latach od 1990 do 2008. Możemy również określić cechę posiadania certyfikatu wydanego przez jeden z Organów certyfikacji (zdefiniujemy je za chwilę), czy potwierdzenia przez jednego z Lekarzy rodzinnych (również zdefiniowanych dalej). Oczywiście każda asercja może mieć przypisanych kilka różnych cech. W kolejnym kroku tworzymy listę organów certyfikacji i lekarzy rodzinnych. Tak zdefiniowany zbiór asercji to właśnie zbiór niezależny od ontologii dziedzinowej. T s1 Przykład 2.3 OrganCertyfikujący( HON ) OrganCertyfikujący( UCL ) LekarzRodzinny( Kowalski ) LekarzRodzinny( Nowak ) LekarzRodzinny( Wiśniewski ) T s2 Zbiór budujemy w dwóch krokach. W pierwszym kroku do wstawiamy asercje unarne postaci Asercje( i ), gdzie i oznacza pewnego osobnika. Liczba asercji unarnych takiego typu jest równa liczbie asercji zdefiniowanych w ontologii dziedzinowej. Definicja odwzorowania M pokaże, że każdy z dodanych osobników jednoznacznie odpowiada asercji z ontologii dziedzinowej D. W drugim kroku osobnikom nadajemy cechy zdefiniowane w terminologii wiarygodności. I tak przyjmijmy, że asercje o leku Tritace i Witaminie C zostały poddane certyfikacji przez HON [4] oraz UCL, zaś informacje o leku Folik i L- Karnityna tylko przez UCL. Dodatkowo HON zatwierdził informacje o interakcjach. Wiemy również, że informacje o Witaminie C zostały potwierdzone przez dra Kowalskiego. Dr Wiśniewski potwierdził jedynie informacje dotyczące leku Tritace. Informacje o lekach są na poziomie zaufania 0,8 a informacje o interakcjach na poziomie zaufania 0,7 (ze względu na brak miejsca pominiemy tutaj formalny zapis powyższych stwierdzeń). W kolejnym kroku definiujemy odwzorowanie M: T s2 Definicja 2.5. Odwzorowanie M: Ds A T s jest to pewna injekcja pomiędzy zbiorem asercji Ds zdefiniowanych w ontologii dziedzinowej D a zbiorem nazw osobników zdefiniowanych w ontologii wiarygodności T z użyciem alfabetu. Odwzorowanie M ma takie własności, że dla każdego modelu J dla T: d ((d D s ) (M(d) J Asercje J )), a ((a J Asercje J ) (M -1 (a) D s )). W naszym przykładzie odwzorowanie M jest następujące (fragment): Przykład 2.4. M(Jednostka( mg )) = Jednostka_mg M(Lek( Tritace )) = Lek_Tritace M(Składnik( Rampiryl_5_mg )) = Składnik_Rampiryl_5_mg M(Substancja( Ramipryl )) = Substancja_Ramipryl 288 A T s
Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności A T s Należy zauważyć, iż zakresem odwzorowania M jest tylko pewien podzbiór nazw osobników zdefiniowanych z użyciem alfabetu (koncept Asercje). Do alfabetu tego należą również nazwy takie jak HON, UCL, Kowalski, Nowak i Wiśniewski (zdefiniowane w przykładzie 2.3), które nie mają swoich odpowiedników w ontologii dziedzinowej. Zdefiniujmy teraz model systemu zarządzania wiedzą nie w pełni wiarygodną: Definicja 2.6. Niech ontologia T = <T x, T s > będzie ontologią wyrażoną w logice opisowej L, natomiast A = A A jest alfabetem terminów zdefiniowanych T T T ' x T s w ontologii wiarygodności T, w którym A = A {PodzbiórAsercji} i T x zawiera aksjomat PodzbiórAsercji m Asercje. T ' x T x Zdefiniujmy ponadto: S J = {J: J jest modelem T }, D s (J) = {o s : o s = M -1 (a) a J PodzbiórAsercji J }, S = {D D s (J): J S J }, s S N = {N = <D x, D s >: D s, oraz S Ds A N = A jest alfabetem, w którym jest wyrażona ontologia N, przy czym A D x D s A D s zawiera zbiór terminów będących nazwami osobników pojawiających się w zbiorze asercji Ds, oraz N jest wyrażona w logice opisowej L D }. Interpretacja I jest modelem dla W jeśli jest modelem pewnej ontologii N S N. Definicja 2.6 określa, że I jest modelem systemu zarządzania wiedzą jeśli jest modelem ontologii N zbudowanej ze zbioru aksjomatów ontologii dziedzinowej i dowolnego podzbioru asercji tej ontologii. D s (J) jest pewnym zbiorem asercji (ale nie są to wszystkie asercje z ontologii dziedzinowej, tylko ich podzbiór) stanowiących opis świata dla ontologii N. Dlatego też w terminologii wiarygodności wprowadzono koncept PodzbiórAsercji. Zauważmy, że wykorzystanie w definicji D s (J) konceptu Asercje spowodowałoby, że ontologia N zawierałby zawsze wszystkie asercje z ontologii dziedzinowej. Ontologia N jest budowana w taki sposób, że składa się z wszystkich aksjomatów zdefiniowanych w ontologii dziedzinowej i pewnego podzbioru asercji z ontologii dziedzinowej - czyli właśnie D s (J). Gdyby D s (J) zawierał wszystkie asercje z ontologii dziedzinowej istniałaby tylko jedna ontologia N równa ontologii dziedzinowej. Interpretacja I jest modelem dla W, jeżeli jest modelem przynajmniej jednej z ontologii N. Idea modelu systemu wiarygodności zakłada, że w procesie odpowiadania na zapytania domyślnie tworzona jest pewna ontologia N (zawierająca tylko te asercje, które spełniają pewne warunki). Koncept PodzbiórAsercji jest wykorzystany po to, aby model tak zbudowanej ontologii N był również modelem systemu zarządzania wiedzą nie w pełni wiarygodną W. Możemy zauważyć, że istnieją różne modele ontologii T. Przede wszystkim należy zwrócić uwagę, że jakiegokolwiek nie weźmiemy osobnika będącego wystąpieniem konceptu Asercje, to w jednym modelu osobnik ten może być wystąpieniem konceptu PodzbiórAsercji a w innym nie. Zdefiniujmy teraz semantykę systemu zarządzania wiedzą nie w pełni wiarygodną: Definicja 2.7. Semantyka sem(w) jest zdefiniowana jako sem(w) = {I: I jest modelem dla W }. 289
K. Goczyła, T. Zawadzka, M. Zawadzki W systemach zarządzania wiedzą występują dwa typy zapytań: zapytania dotyczące tylko części terminologicznej ontologii, do których należą zapytania dotyczące problemów zawierania, spełnialności, równoważności czy rozłączności; zapytania dotyczące osobników, do których należą zapytania dotyczące problemów określenia zbioru wystąpień konceptów czy sprawdzania przynależności. W systemie zarządzania wiedzą na różnym poziomie wiarygodności rozważamy jedynie zapytania dotyczące osobników. Zapytania dotyczące terminologii pozostają identyczne, jak w systemie zarządzania wiedzą nie odnoszącym się do problemu wiarygodności wiedzy. W podrozdziale 3.2 przedstawiono sposób zadawania zapytań do systemu zarządzania wiedzą nie w pełni wiarygodną. 3 Wyrażanie wymagań wiarygodności dla asercji i pytań dziedzinowych Jak wynika z przedstawionego w poprzedniej sekcji modelu, wnioskowanie względem wiedzy nie w pełni wiarygodnej odbywa się w dwóch krokach: (1) określenia zbioru asercji spełniających zadane kryteria wiarygodności, oraz (2) przeprowadzenia wnioskowania dziedzinowego na tymże zbiorze. Aby istniała możliwość zdefiniowania wymagań odnośnie wiarygodności, wymagane jest rozszerzenie języka zapytań do baz wiedzy. W rozdziale przedstawiona została propozycja modyfikacji języka DIGUT [5] opracowanego na Politechnice Gdańskiej [6]. Jednak w podobny sposób można rozszerzyć inne języki zapytań do bazy wiedzy. 3.1 Określanie wiarygodności asercji Typowe stwierdzenie dotyczące asercji w języku DIGUT przedstawiono poniżej: <?xml version="1.0"?> <tells xmlns="http://kio.pg.gda.pl/digut/2.0/lang" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance" xsi:schemalocation="http://kio.pg.gda.pl/digut/2.0/lang http://kio.pg.gda.pl/km/digut/2.0/digut.xsd" uri=kburi > </tells> TellSubquery+ Składa się ono z nagłówka informującego o typie rozkazu (tutaj tells stwierdzenie), informacji, do której bazy jest kierowane, oraz treści stwierdzenia, gdzie treść to jedno lub więcej stwierdzeń o asercjach. Rozszerzenie tego rozkazu o definicję wiarygodności polega na wprowadzeniu dodatkowego, opcjonalnego elementu <trustworthiness> do treści zapytania. Użytkownik może, ale nie musi, zdefiniować wiarygodności. Jeśli wiarygodność nie zostanie zdefiniowana, asercje zostaną zapisane bez informacji o wiarygodności wnioskowanie z użyciem tych asercji będzie możliwe tylko, gdy w pytaniu nie postawimy żadnych wymagań wiarygodności: <?xml version="1.0"?> 290
Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności <tells xmlns="http://kio.pg.gda.pl/digut/2.0/lang" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance" xsi:schemalocation="http://kio.pg.gda.pl/digut/2.0/lang http://kio.pg.gda.pl/km/digut/2.0/digut.xsd" uri=kburi > {<trustworthiness> TrustworthinessDefinition (Concept expression) </tells> </tustworthiness>} TellSubquery+ Definicja wiarygodności polega na określeniu relacji (cech) między osobnikiem/ osobnikami reprezentującymi asercje a wartościami cech wiarygodności. Przykładowo, dla terminologii z przykładu 2.1, określenie, że zdefiniowane asercje są zatwierdzone przez HON i potwierdzone przez dra Kowalskiego, w logice opisowej można przedstawić jako: macertyfikat( x, HON ) potwierdzonyprzez( x, Kowalski ) gdzie x oznacza osobnika reprezentującego asercje. Powyższy zapis w języku DIGUT wygląda następująco: <related> <individual name=""/> <ratom name="macertyfikat"/> <individual name="hon"/> </related> <related> <individual name=""/> <ratom name="potwierdzonyprzez"/> <individual name="kowalski"/> </related> Należy zwrócić uwagę, że nazwy osobnika będącego przedmiotem roli są puste w rzeczywistości wstawiany jest w to miejsce nowo utworzony osobnik reprezentujący asercje. 3.2 Określanie wymagań wiarygodności dla pytań dziedzinowych Zwykłe pytanie dziedzinowe w języku DIGUT ma następującą postać: <?xml version="1.0"?> <asks xmlns="http://kio.pg.gda.pl/digut/2.0/lang" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance" xsi:schemalocation="http://kio.pg.gda.pl/digut/2.0/lang http://kio.pg.gda.pl/km/digut/2.0/digut.xsd" uri=kburi > AskSubquery+ </asks> 291
K. Goczyła, T. Zawadzka, M. Zawadzki Podobnie jak stwierdzenie, pytanie składa się z nagłówka informującego o typie rozkazu (tutaj asks zapytanie), informacji, do której bazy to zapytanie ma być zadane, oraz treści zapytania, gdzie treść zapytania to jedno lub więcej pytań dziedzinowych. Rozszerzenie tego rozkazu o definicję wymagań wiarygodności polega, podobne jak w przypadku definiowania asercji, na wprowadzeniu dodatkowego, opcjonalnego elementu <trustworthiness> do treści zapytania. Użytkownik może, ale nie musi, zdefiniować wymagania wiarygodności. Jeśli te wymagania nie zostaną zdefiniowane, wnioskowanie przeprowadzane jest na całym zbiorze asercji: <?xml version="1.0"?> <asks xmlns="http://kio.pg.gda.pl/digut/2.0/lang" xmlns:xsi="http://www.w3.org/2001/xmlschema-instance" xsi:schemalocation="http://kio.pg.gda.pl/digut/2.0/lang http://kio.pg.gda.pl/km/digut/2.0/digut.xsd" uri=kburi > {<trustworthiness> </asks> TrustworthinessDefinition (Concept expression) </tustworthiness>} AskSubquery+ Definicja wymagań wiarygodności polega na określeniu konceptu, do którego muszą należeć wszystkie osobniki reprezentujące asercje dziedzinowe, które spełniają zadane wymagania. Przykładowo, dla omawianej terminologii, aby wnioskować względem asercji zatwierdzonych przez HON i potwierdzonych przez dra Kowalskiego, należy koncept zdefiniować w logice opisowej następująco: macertyfikat.{ HON } * potwierdzonyprzez.{ Kowalski } natomiast w języku DIGUT: <and> <exists> <ratom name="macertyfikat"/> <iset> <individual name="hon"/> </iset> </exists> <exists> <ratom name="potwierdzonyprzez"/> <iset> <individual name="kowalski"/> </iset> </exists> </and> Warto zauważyć również, że identyfikator bazy wiedzy (uri) pozostaje bez zmian, mimo iż w rzeczywistości dotyczy on teraz bazy wiedzy opisującej wiarygodność dla bazy dziedzinowej. 292
4 Prototypowa implementacja Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności Prototypowa implementacja systemu zarządzania wiedzą nie w pełni wiarygodną wykonywana jest w ramach projektu PIPS (Personalised Information Platform for Life and Health Services) [7], którego celem jest zarządzanie wiedzą medyczną w celu wspomagania zdrowego trybu życia obywateli UE. W projekcie tym problem wiarygodności wiedzy jest bardzo istotny baza wiedzy systemu PIPS musi zarządzać różnymi źródłami wiedzy medycznej także źródłami internetowymi, których wiarygodność może być różna. Chcąc zbudować system, który będzie mógł wspomagać decyzję lekarzy co do zastosowania konkretnej terapii, czy podania leku, wymagane jest, aby podpowiedzi te były jak najbardziej wiarygodne. W ramach prac nad implementacją wymagane jest rozważenie kilku kwestii: w jaki sposób przedstawić asercje w formie osobników; jak efektywnie budować dynamiczne ontologie z wybranych asercji, co jest jednoznaczne z efektywnością odpowiedzi na zapytania. Do wykonania prototypu jako silnik wnioskujący wykorzystywany jest system KaSeA [8] opracowany na Politechnice Gdańskiej, jednak nie ma przeciwwskazań co do zastosowania dowolnego innego systemu. System ten ma kilka cech, które ułatwiają wykonanie implementacji. W implementacji zastosowano połączenie ontologii wiarygodności z ontologią dziedzinową. Dzięki temu, że w języku DIGUT, jak również w systemie KaSeA istnieje możliwość dodania opisu do definiowanego osobnika, jest to bardzo prosty sposób zapisania osobnika wraz z reprezentowaną przez niego asercją. Opis taki może mieć postać tekstową (np. definicja asercji w języku DIGUT lub OWL [9]), bezpośrednio postać zapisu w logice opisowej lub nawet postać pseudokodu. Wybór może zależeć od sposobu, w jaki system wnioskujący budujący dynamiczne ontologie wczytuje dane. Zatem ontologia wiarygodności składa się m.in. ze wspomnianych osobników, którym przypisane są asercje z ontologii dziedzinowej. Na takiej ontologii wykonywane jest następnie zapytanie o zbiór osobników, spełniających kryteria wiarygodności. Wynikiem wykonania tego zapytania będzie lista osobników, a co za tym idzie lista asercji spełniających zadane kryteria. Kolejnym krokiem jest efektywne budowanie dynamicznych ontologii dziedzinowych na podstawie otrzymanego zbioru asercji. Ze względu na fakt, iż system KaSeA w głównej mierze jest zoptymalizowany pod kątem szybkiego przetwarzania zapytań dla dużej liczby osobników, proces ładowania danych, czyli tworzenia bazy wiedzy, jest długotrwały. W związku z tym proces dynamicznego budowania ontologii byłby nieefektywny. Pewnym obejściem tego problemu jest utworzenie na zapas kilku ontologii odpowiadających typowym kryteriom wiarygodności i używanie ich do przetwarzania pytań dziedzinowych. Dla innych kryteriów dynamicznie budowane byłyby nowe ontologie (w tym wypadku czas odpowiedzi na pełne zapytanie byłby zwiększony o czas zbudowania takiej ontologii). Rozwiązaniem metody na zapas w systemie KaSeA jest zastosowanie wspieranych przez ten system kontekstów [10], [11], czyli różnych punktów widzenia na dziedzinę. Dodatkowym plusem tego rozwiązania jest fakt, że zmiany w jednym kontekście mogą być automatycznie propagowane do innych kontekstów przy użyciu standardowych mechanizmów systemu KaSeA. 293
K. Goczyła, T. Zawadzka, M. Zawadzki 5 Podsumowanie W rozdziale zaprezentowano model systemu zarządzania wiedzą nie w pełni wiarygodną. Problem ten dotyczy w szczególności Sieci Semantycznej, choć jak to zostało przedstawione w poprzednim podrozdziale, nie ogranicza się tylko do niej. Warto zauważyć, że zaprezentowane rozwiązanie zakłada wybranie fragmentu ontologii, spełniającego kryteria wiarygodności i dopiero na nim przeprowadzenie wnioskowani dziedzinowego. Jest to podejście zdecydowanie różne od podejścia numerycznego, przedstawionego m.in. w [12] i [13], a zakładającego stosowanie sygnatur rozmytych w reprezentacji kartograficznej, co uniemożliwiało efektywne wnioskowanie na dużej liczbie osobników. Należy podkreślić, że zaprezentowany model i metody przetwarzania zapytań są uniwersalne nie ograniczają się jedynie do systemów o określonej metodzie wnioskowania lub reprezentacji wiedzy. Z powodzeniem można zastosować przedstawione rozwiązania dla dowolnego systemu zarządzania wiedzą opartego na ontologach i logice opisowej. Mimo iż w omawianym podejściu wnioskowanie musi przebiegać na dwóch różnych terminologiach, może ono być przeprowadzone z wykorzystaniem standardowych algorytmów wnioskujących. Dalsze prace skupiać się będą głównie na dopracowaniu i rozwinięciu prototypu oraz przeprowadzeniu testów wydajnościowych uzasadniających zastosowanie opisywanego modelu. Literatura 1. Zawadzki M.: Definiowanie wiarygodności w Sieci Semantycznej metodą ontologicznego opisu asercji. W: Bazy Danych, Nowe Technologie, Architektura, metody formalne i zaawansowana analiza danych, red S. Kozielski, B. Małysiak, P. Kasprowski, D. Mrozek, Warszawa WKŁ, 2007, str. 273-282. 2. Berners-Lee T., Hendler J., Lassila O.: The Semantic Web, May 2001; Scientific American Magazine. 3. Baader F. A., McGuiness D. L., Nardi D., Patel-Schneider P. F.: The Description Logic Handbook: Theory, implementation, and applications, Cambridge University Press, 2003. 4. Heath on the Net Foundation, http://www.hon.ch/. 5. DIGUT Description Logic Interface by Gdańsk University of Technology http://km.pg.gda.pl/kmg/digut.html. 6. KMG@GUT, Knowledge Management Group at Gdańsk University of Technology, http://km.pg.gda.pl/kmg. 7. Goczyła K., Grabowska K., Waloszek W., Zawadzki M.: Inference Mechanisms for Knowledge Management System in E-health Environment. W: Software engineering: evolution and emerging Technologies, red: K. Zieliński, T. Szmuc, Amsterdam: IOS Press, 2005, str. 418-423. 8. Goczyła K., Grabowska K., Waloszek W., Zawadzki M.: The knowledge cartography - a new approach to reasoning over description logics ontologies. W: SOFSEM 2006: Theory and Practice of Computer Science: 32nd Conference on Current Trends in Theory and Practice of Computer Science, red: J. Wiedermann, J. Stuller, G. Tel, J. Pokorny, M. Bielikova, Berlin Heilderberg: Springer-Verlag, 2006, str. 293-302, Lecture Notes in Computer Science Vol 3831. 294
Model systemu zarządzania wiedzą z uwzględnieniem aspektów wiarygodności 9. OWL Web Ontology Language, W3C Recommendation, 10 February 2004, http://www.w3.org/tr/owl-ref/. 10. Goczyła K., Waloszek A., Waloszek W.: Hierarchiczny podział przestrzeni ontologii na konteksty, w: Bazy danych. Nowe technologie, red. Kozielski S., Małysiak B., Kasprowski P., Mrozka D., s. 247-260, WKŁ, 2007. 11. Goczyła K., Waloszek A., Waloszek W.: Contextualization of a DL Knowledge Base, w: Proceedings of the International Workshop on Description Logics, s. 291-298, 2007. 12. Goczyła K., Zawadzki M.: Przetwarzanie i wnioskowanie z wiedzy o różnym poziomie zaufania. W: Bazy Danych Modele, Technologie, Narzędzia - analiza danych i wybrane zastosowania, red. S. Kozielski, B. Małysiak, P. Kasprowski, D. Mrozek, Warszawa WKŁ, 2005, str. 207-213. 13. Goczyła K., Zawadzki M.: Analiza problemu zaufania do ontologii dla różnych modeli wnioskowania. W: Bazy Danych, Struktury, Algorytmy, Metody - architektura, metody formalne i eksploracja danych, red. S. Kozielski, B. Małysiak, P. Kasprowski, D. Mrozek, Warszawa WKŁ, 2006, str. 331-340. 295