WYSZUKIWANIE I AKTYWOWANIE REGUŁ W SYSTEMACH WSPOMAGANIA DECYZJI Z WIEDZĄ NIEPEŁNĄ TOMASZ JACH
|
|
- Karol Lisowski
- 8 lat temu
- Przeglądów:
Transkrypt
1 WYSZUKIWANIE I AKTYWOWANIE REGUŁ W SYSTEMACH WSPOMAGANIA DECYZJI Z WIEDZĄ NIEPEŁNĄ TOMASZ JACH Uniwersytet Śląski, Instytut Informatyki Sosnowiec, ul. Będzińska 39 tomasz.jach@us.edu.pl Streszczenie W artykule przedstawione są rozważania na temat możliwości użycia metod analizy skupień (grupowania) w celu szybkiego wyszukiwania, aktywowania reguł oraz wnioskowania w złożonych bazach wiedzy w warunkach wiedzy niepełnej. Autor przedstawia dalszy ciąg badań skupiając się na różnicy pomiędzy wynikami osiąganymi przez algorytmy AHC i mahc. Przedstawiona zostaje również metoda do wyznaczania optymalnej liczby skupień reguł w bazach wiedzy. 1. Wstęp Skomplikowane systemy informatyczne od wielu lat rozpracowują złożone problemy natury algorytmicznej. Obok nich istnieje grupa problemów, która nie ulega łatwej algorytmizacji. W tym polu pomocne są systemy wspomagania decyzji (SWD). Działanie ich [1] opiera się na zdolności do wyciągania logicznych i poprawnych wniosków dysponując zbiorem faktów oraz reguł. Klasyczne wnioskowanie polega na uaktywnianiu reguł, których wszystkie przesłanki są spełnione (inaczej: przesłanki są faktami znanymi w systemie). Przez r i oznaczymy i-tą regułę w systemie odpowiadającą przyjętej w klasycznych SWD postaci klauzuli Horna, gdzie każdy literał z części przesłankowej i decyzyjnej tworzony jest w oparciu o zbiór atrybutów A oraz zbiory wartości każdego atrybutu. Parę budującą przesłanki i konkluzje reguł będziemy dalej nazywać deskryptorem ( ) dzięki czemu regułę r i możemy przedstawić następująco:. Jednym z głównych parametrów charakteryzujących efektywność SWD jest czas wnioskowania. Istnieje prosta zależność mówiąca o wzroście czasu wyszukiwania reguł wraz ze wzrostem ich liczby w bazie wiedzy. Długość samej reguły, a ściślej liczba przesłanek, również wpływa na długość czasu wnioskowania. Szczególnym przypadkiem są tzw. reguły złożone czyli takie, gdzie para (atrybut, wartość) występująca w konkluzji jednej z reguł, występuje w części przesłankowej innej reguły. Reguły złożone powodują znaczący spadek szybkości wyszukiwania reguł. W procesie wnioskowania w przód, po wyszukaniu reguły następuje jej aktywacja. W klasycznych SWD wyszukana reguła musi mieć pełne pokrycie wszystkich przesłanek w zbiorze faktów. Konkluzje uaktywnionych reguł zostają dopisane do tego zbioru i dzięki temu inne reguły (których przesłanki nie znajdowały się wcześniej w zbiorze faktów) mogą zostać uaktywnione. Generowanie zbyt dużej liczby faktów powoduje lawinowy przyrost wiedzy, często trudnej do interpretacji. Przykładowo: Baza wiedzy: R1: IF (attr4=8600) AND (attr8=177) AND (attr1=152) => (class=2) R2: IF (attr4=8600) AND (attr1=151) =>(class=2) R3: IF (attr4=8600) AND (attr7=30) =>(class=2)
2 Baza faktów: (attr4=8600), (attr7=40), (attr1=152) Aby aktywować którąkolwiek regułę, wszystkie jej przesłanki muszą być spełnione [2]. W przedstawianym przypadku jednak żadna z reguł nie może zostać aktywowana. Zbiór faktów jest nie zawiera wszystkich przesłanek żadnej z reguł. W takim przypadku pojawia się impas: system nie może podjąć decyzji co do aktywacji jakiejkolwiek reguły, użytkownikowi nie zostają przedstawione żadne nowe informacje związane z wykonaniem wnioskowania. Zastosowanie algorytmów analizy skupień [3] spowoduje zgrupowanie reguł w bazie wiedzy używają wybranego kryterium podobieństwa. Dzięki temu nie tylko przyspieszone zostanie wyszukiwanie reguł, ale również możliwe będzie aktywowanie reguł, których większość przesłanek jest spełniona. Proponowany system po odnalezieniu grupy reguł najbardziej podobnych do aktualnego zbioru faktów umożliwi ich aktywowanie, nawet pomimo niespełnienia warunku o wszystkich przesłankach reguły zawartych w zbiorze faktów. Taka reguła oznaczona zostanie przez system jako niepewna, a wiedza przez nią generowana jako nie całkowicie pewna w sensie logicznym. Znaczne przyspieszenie procesu wyszukiwania jest istotne zwłaszcza w skomplikowanych i dużych bazach wiedzy ze względów praktycznych. Klasyczne algorytmy wnioskowania, zarówno wprzód (sterowane faktami) jak i wstecz (sterowane celem) stają się nieefektywne pod względem złożoności czasowej, gdy muszą przeszukać całą bazę wiedzy, reguła po regule. Proponowane podejście wykorzystujące wiedzę o reprezentantach grup reguł podobnych do siebie, znajduje w bardzo krótkim czasie grupę najbardziej podobną do szukanych informacji (podanych faktów) i tylko tę grupę analizuje w procesie wnioskowania. Zaproponowane podejście jest podobne do teorii współczynników CF [4], rozszerza ją o możliwość szybkiego wyszukania reguł oraz braku konieczności określania wartości współczynników CF dla wszystkich przesłanek. Alternatywne podejście spotkać można w systemach bazujących na zbiorach rozmytych [5] oraz przybliżonych [6]. Autor proponuje użycie pojęcia niepełności wiedzy dla reguł, których nie wszystkie przesłanki są spełnione. W proponowanym systemie takie reguły będą mogły być uaktywnione, przy czym zostanie określony stopień jej pokrycia pozwalający ocenić na ile możemy ufać danej regule. 2. Proponowane rozwiązanie Autor zakłada, że mechanizmy analizy skupień mogą zostać skutecznie zastosowane do grupowania reguł w bazie wiedzy. Podejście to wraz z wyszukiwaniem reguł metodą pnia najbardziej obiecującego [7] oraz aktywacją tych reguł, których nie wszystkie przesłanki są spełnione pozwoli na ulepszenie dotychczasowych rozwiązań z dziedziny wnioskowania w systemach z wiedzą niepełną Algorytmy grupujące reguły w bazie wiedzy Grupowanie reguł realizowane jest dzięki algorytmom hierarchicznym analizy skupień AHC oraz Agnes [3]. Szczegółowy sposób działania algorytmów prezentowany jest w poprzedniej pracy autorów [8], poniżej przedstawiony zostaje jedynie zarys i ogólne założenia. W pierwszym kroku algorytmu analizowane jest podobieństwo reguł. W tym celu generowana jest kwadratowa macierz podobieństwa. Na przecięciu i-tego wiersza oraz j-tej kolumny znajduje się wartość określająca wzajemne podobieństwo dwóch reguł mierzonych przy użyciu miar podobieństwa szczegółowo omówionych w pracy [8]. Reguły najbardziej podobne tworzą skupienie, dzięki czemu w kolejnych krokach analizowane jest podobieństwo reguł, ale i skupień reguł do innych reguł i skupień. Proces powtarzany jest do otrzymania pełnej hierarchii grup, którą można przedstawić graficznie w formie dendrogramu [9].
3 Podobieństwo łączonych grup Wyszukiwanie reguł w bazie wiedzy Wnioskowanie poprzedzone jest zawsze wyszukaniem reguły do aktywowania. We wcześniejszych pracach postawiono problem wyboru optymalnej liczby skupień. Liczba ta była wyznaczana metodą eksperymentalną. W tym opracowaniu przedstawiona zostanie próba automatycznego wyznaczania tej liczby za pomocą metod analizy skupień Wyznaczanie liczby skupień w danych Proponowanym rozwiązaniem jest obserwacja wzajemnego podobieństwa grup łączonych w konkretnym kroku grupowania. Algorytm przedstawia się następująco: 1. Ustalenie parametrów grupowania: wybór miary podobieństwa, metody łączenia skupień, liczby skupień. 2. Rozpoczęcie algorytmu grupowania. 3. Zapamiętanie maksymalnej wartości podobieństwa dwóch reguł z pierwszego kroku algorytmu grupowania (simmax). 4. Wyznaczenie wartości progowej współczynnika podobieństwa dwóch skupień będącą iloczynem simmax oraz wartości podanej przez użytkownika określającej kiedy zakończyć grupowanie. 5. Wykonywanie algorytmu grupowania dopóki łączone skupienia mają wartość podobieństwa większą od wartości progowej 1 0,8 0,6 0,4 0,2 0 Krok grupowania Wine Lymphography Spect Balance Tic-Tac-Toe Car KRvsKP Rysunek 1: Podobieństwo grup łączonych w poszczególnych krokach algorytmu grupowania. Rysunek 1 przedstawia wartość podobieństwa grupowanych reguł w kolejnych krokach grupowania. Widać wyraźnie, że w pewnym momencie jakość grupowania drastycznie spada. Autor sądzi, że jest to punkt, w którym łączone ze sobą skupienia reguł są już dość mało do siebie podobne. Jest to sygnał do zaprzestania grupowania. Eksperymenty przeprowadzono dla baz pobranych z Machine Learning Repository [10]. Autor wybrał bazy o różnym stopniu skomplikowania (różna liczba reguł, czy atrybutów opisujących reguły) aby ustalić optymalną wartość parametru współczynnika progowego. W wyniku eksperymentów, najlepsze rezultaty osiąga się w przypadku gdy współczynnik progowy ma wartość 0,85 * simmax (patrz Rysunek 1).
4 3. Wykorzystanie algorytmów AHC i mahc do generowania skupień Algorytmy AHC i mahc stanowią przykład hierarchicznych aglomeracyjnych algorytmów grupujących [11]. Największą różnicą pomiędzy nimi jest kryterium stopu. AHC kończy działanie, gdy otrzymana zostanie jedna grupa złożona ze wszystkich reguł poddawanych grupowaniu. Algorytm mahc za kryterium stopu przyjmuje pewien poziom, ustalany jako parametr. W każdym przypadku możliwym jest wykorzystanie metody ścieżki najbardziej obiecującej w celu szybkiego wyszukiwania relewantnych grup: reprezentanci lewego i prawego poddrzewa zostają porównani z aktualnym zbiorem faktów. Algorytm podąża tą ścieżką, której reprezentant ma większą wartość podobieństwa wobec aktualnego zbioru faktów. Formalnie, jeśli przez D będziemy rozumieć zbiór deskryptorów (par atrybut-wartość), f to funkcja podobieństwa, która dwóm regułom (skupieniom reguł) przyporządkowuje wartość podobieństwa, a przez węzły łączone, wtedy każda grupa w i będzie definiowana jako gdzie { } [ ] Idea działania systemu została zaczerpnięta z systemu SMART Saltona [7]. Analogicznie, wyszukiwanie reguł rozpoczyna się od korzenia drzewa. W każdym kolejnym kroku zbiór faktów porównywany jest z reprezentantami prawego i lewego poddrzewa aktualnie rozpatrywanego węzła (Rysunek 2). Dalsza analiza przeprowadzana jest dla ścieżki o większej wartości podobieństwa zbioru faktów do reprezentanta grupy reguł. Algorytm kończy się w momencie osiągnięcia poziomu liści oznaczającego konkretną regułę w bazie wiedzy. Rysunek 2: Wyszukiwanie strukturalne (z lewej) i wyszukiwanie hierarchicznej (z prawej) Metoda ścieżki najbardziej obiecującej opiera się na wyznaczaniu odległości pomiędzy dwoma skupieniami. W tym celu proponuje się trzy różne podejścia: metodę pokrycia deskryptorowego, pokrycia atrybutowego oraz podejście hybrydowe. Najbardziej intuicyjną miarą jest wyznaczenie liczby deskryptorów występujących zarówno w zbiorze faktów, jak i w poszczególnych węzłach zgodnie ze wzorem: (1) gdzie d l oraz d k to zbiory deskryptorów węzłów l i k odpowiednio. Takie podejście, nazwane metodą pokrycia deskryptorowego, faworyzuje jednak węzły zawierające dużą liczbę
5 powtarzających się, częstych deskryptorów w systemie. Niepełne bazy wiedzy mogą nie zawierać informacji o wartościach deskryptorów, stąd już informacja o wspólnych atrybutach występujących w obu grupach powinna być brana pod uwagę w wyliczaniu podobieństw. Bez szczegółowej znajomości dziedziny bazy wiedzy niemożliwym jest ustalenie relacji pomiędzy wartościami poszczególnych atrybutów. Dzięki temu niemożliwym jest wyprowadzenie uniwersalnej funkcji podobieństwa uwzględniającą dystans pomiędzy cechami jakościowymi, stąd proponuje się ogólne podejście, właściwe niezależnie od rodzaju danych. Drugim ze sposobów określania miary podobieństwa jest metoda pokrycia atrybutowego, która przy wyznaczaniu podobieństwa reguł (bądź ich skupień) bierze pod uwagę tylko informacje o wspólnych atrybutach. Przy zachowaniu konwencji oznaczeń omówionych w poprzednim rozdziale oraz gdy zbiory a k oraz a l oznaczać będą zbiory atrybutów reguł występujących w poszczególnych grupach, miara pokrycia atrybutowego będzie wyznaczana w sposób następujący: (2) Zauważono, że reguły są wzajemnie do siebie podobne, a liczność zbiorów V ai jest duża. Z tego powodu postanowiono wykorzystywać tylko informacje o wspólnych atrybutach w obliczaniu podobieństwa dwóch węzłów. Ze względu na duże podobieństwo reguł do siebie oraz stosunkowo liczne zbiory wartości poszczególnych atrybutów, autorzy postanowili wykorzystywać tylko informacje o wspólnych atrybutach w obliczaniu podobieństwa dwóch węzłów. Dzięki temu można będzie wyróżnić, być może spójne, grupy reguł. Trzecią metodą obliczania podobieństwa reguł do siebie będzie liczenie ważonej średniej z obu miar pokrycia przedstawionych wcześniej: (3) gdzie C1 oraz C2 to dodatnie czynniki stopniujące sumujące się do wartości 1. Autorzy sądzą, że podejście to wykorzysta zalety zarówno dokładności metody z pokryciem deskryptorów, jak również dodatkowych informacji rozróżniających reguły pomiędzy sobą. Współczynniki stopniujące służą zwiększaniu lub zmniejszaniu ważności części deskryptorowej i atrybutowej. W rozważaniach sprawdzono dwa przypadki, w jednym znacznie większą ważność otrzymuje część deskryptorowa, w drugim część atrybutowa. Przykładowo, dla dwóch węzłów { } oraz { } i zbioru faktów { } odpowiednie wartości podobieństw przedstawiają się następująco: dla C 1 =0,75 oraz C 2 =0,25 dla C 1 =0,25 oraz C 2 =0,75 Widać wyraźnie, że podejście hybrydowe pozwala na uwzględnienie również współwystępowania atrybutów w zbiorze faktów oraz analizowanej regule i być może przyczyni się do wyboru optymalnej ścieżki w warunkach dużego podobieństwa reprezentantów węzłów reprezentujących obie ścieżki do siebie.
6 4. Eksperymenty obliczeniowe W celu porównania przedstawionych podejść, autor zaimplementował dwa hierarchiczne algorytmy grupowania: omówiony wcześniej AHC korzystający z pełnego drzewa hierarchicznego reguł i wyszukiwania oraz mahc wykorzystujący wcześniej omówioną technikę wyznaczania optymalnej liczby skupień i wyznaczający reprezentantów każdej z grup. Wyniki przedstawia Rysunek 3. Oczywistym jest, że podejście hierarchiczne będzie znacznie szybsze i hipoteza ta znalazła swoje potwierdzenie w wynikach eksperymentalnych. Co więcej im baza reguł większa, tym widoczny większy zysk czasowy dla podejścia hierarchicznego. Rysunek 3: Jakość wyszukiwania hierarchicznego i strukturalnego Oba algorytmy grupowania testowano dla czterech wybranych baz danych z repozytorium MLR [10]. Przygotowano dla każdej bazy wiedzy osobno po 10 zestawów faktów losowo wybranych spośród przesłanek i konkluzji reguł faktycznie zapisanych w tych bazach. Obliczono wartości kompletności [rozumianej jako stosunek liczby wspólnych deskryptorów występujących zarówno w zbiorze faktów jak i w reprezentancie (mahc) lub otrzymanej grupie (AHC) do liczby wszystkich deskryptorów opisujących zbiór faktów i reprezentanta (mahc) lub grupę (AHC)]. Niestety wyszukiwanie z użyciem hierarchii daje stosunkowo gorsze rezultaty. Autor sugeruje dalsze prace nad udoskonaleniem wyszukiwania, w szczególności omówione w dalszej części artykułu. Autor przeanalizował również czas wyszukiwania reguł do uaktywnienia dla obu algorytmów. Wyniki prezentuje Rysunek 4. W celu sprawdzenia, która z przedstawionych metod da optymalne rezultaty, przeprowadzono eksperymenty obliczeniowe. Na początku, przyjmowano, że deskryptory opisujące aktualnie analizowaną regułę stanowią jednocześnie zbiór faktów. Do pełnego systemu wyznaczonego za pomocą różnej kombinacji metod ścieżki najbardziej obiecującej oraz metody łączenia skupień, zadawano ów zbiór faktów. Odpowiedź systemu traktowano jako odpowiedź wzorcową.
7 Kompletność /dokładność Rysunek 4: Czas wyszukiwania z użyciem algorytmów AHC i mahc Następnie, z bazy wiedzy usuwano tę konkretną regułę i powtarzano proces wyszukiwania reguł dla tego samego zbioru faktów. Sprawdzano następnie wartości kompletności i dokładności wyszukiwania dla takiego przypadku. Na wszystkich wykresach przyjęto następujące oznaczenia: SL Single Linkage, CL Complete Linkage, AL Average Linkage, HD metoda hybrydowa ścieżki najbardziej obiecującej ze zwiększoną wartością współczynnika dla wspólnych deskryptorów, HA - metoda hybrydowa ścieżki najbardziej obiecującej ze zwiększoną wartością współczynnika dla wspólnych atrybutów, A metoda pokrycia atrybutowego, D metoda pokrycia deskryptorowego. 1,000,950,900,850,800,750,700,650,600,550,500 Dokładność do odpowiedzi wzorcowej Kompletność do odpowiedzi wzorcowej SL_HD CL_HD AL_HD SL_A CL_A AL_A SL_D CL_D AL._D SL_HA CL_HA AL._HA Rysunek 5: Eksperymenty dla metody ścieżki najbardziej obiecującej Najlepsze rezultaty uzyskano gdy algorytm korzystał z metody CL do wiązania skupień. W przypadku oceny dokładności i kompletności w stosunku do najlepszej grupy, wyniki wszystkich zaprezentowanych podejść prezentują zbliżone rezultaty (najlepszą jest metoda hybrydowa z większą wagą dla wartości wspólnych atrybutów oraz metody pokrycia atrybutowego). Wydaje się, że podejście rozróżniające grupy daje lepsze rezultaty w stosunku do tradycyjnego podejścia pokrycia deskryptorowego.
8 Dokładność / kompletność,500,450,400,350,300,250,200,150,100,050,000 Dokładność do pierwotnego zbioru faktów Kompletność do pierwotnego zbioru faktów SL_HD CL_HD AL_HD SL_A CL_A AL_A SL_D CL_D AL._D SL_HA CL_HA AL._HA Rysunek 6: Wyniki eksperymentów obliczeniowych W drugiej części eksperymentu, obliczono kompletność i dokładność odpowiedzi dla ograniczonego systemu w stosunku do zadawanego zbioru faktów. W ten sposób autorzy pragnęli zbadać zdolność stworzonego systemu do kompensowania niepełnej wiedzy. Należy jednakże zauważyć, że wartości kompletności i dokładności bliskie maksymalnym nie mogą wystąpić, ze względu na fakt usunięcia reguły, która jest optymalną odpowiedzią na zbiór faktów z systemu (jego ograniczenie). Rysunek 6 jednoznacznie pokazuje, że autorska metoda hybrydowa ze wzmocnieniem części deskryptorowej sprawdza się lepiej, niezależnie nawet od sposobu łączenia skupień. Wartości parametrów efektywności uzyskiwane dla tej metody są blisko dwukrotnie większe od pozostałych rozwiązań. Do dalszych eksperymentów przyjęto metodę całkowitego wiązania (CL) oraz ścieżki najbardziej obiecującej ze wzmocnieniem wag dla wspólnych deskryptorów. Ustaliwszy je, autor przeprowadził testy dla większej liczby baz wiedzy. Wyniki prezentuje Rysunek 7. Bliskie maksymalnym wartości kompletności i dokładności w stosunku do grupy optymalnej potwierdzają słuszność zaproponowanego podejścia w problemie wnioskowania w systemach z wiedzą niepełną. Wine Lymphography Spect Balance Dokładność do odpowiedzi wzorcowej,933,895,874,923 Kompletność do odpowiedzi wzorcowej 1,000,750,500,250,000 Dokładność do pierwotnego zbioru faktów Kompletność do pierwotnego zbioru faktów,936,894,866,922,457,454,474,455,382,493,473,459 Rysunek 7: Wyniki eksperymentów metody hybrydowej dla wybranych baz wiedzy
9 5. Wnioski oraz kierunki dalszych badań Autor przedstawił metodę wyznaczania optymalnej liczby skupień w danych złożonych z reguł baz wiedzy. Dzięki temu udało się poprawić rezultaty osiągnięte wcześniej [8]. Metoda ta pozwoliła na wyeliminowanie wielokrotnego powtarzania eksperymentów w celu dobrania właściwej liczby skupień. Zaproponowany został również wstępny model wyszukiwania reguł możliwych do aktywowania. Z eksperymentów wynika, iż model ten sprawdza się również w warunkach wiedzy niepełnej. Autor przedstawił również klasyczny algorytm ścieżki najbardziej obiecującej służący do szybkiego wyszukiwania skupień reguł. Dokonano jego modyfikacji i ulepszenia w celu dostosowania do specyficznych danych, jakim są reguły w bazach wiedzy. Dzięki temu dokonano dalszego skrócenia czasu wyszukiwania, zwiększenia odporności na niepełność wiedzy oraz zwiększenia jakości skupień reguł zwracanych przez system na zadany zbiór faktów. Utworzone skupienia oraz szybki sposób ich wyszukiwania umożliwiają odnajdowanie reguł o minimalnej liczbie niespełnionych przesłanek w krótkim czasie. Po ich aktywacji, zwiększona zostaje liczba faktów, co spowoduje wyprowadzenie obszerniejszej wiedzy z systemu. W wyniku licznych eksperymentów sądzi się, że współczynnik progowy dla optymalnej liczby grup powinien mieć wartość około 85% wartości największego podobieństwa dwóch reguł między sobą. Powoduje to utworzenie dużej liczby małolicznych grup. Narzut obliczeniowy związany z wyznaczaniem reprezentantów oraz porównywaniem zbioru faktów z regułami lub skupieniami jest rekompensowany przez wysoką jakość odnajdowanych skupień. Zaproponowane podejście wymaga dalszego badań ze względu na tendencję do łańcuchowania grup reguł. Krótki opis każdej reguły oraz ich mała rozróżnialność względem siebie mogą przyczynić się do zaburzenia równomierności dendrogramu (zdarzało się i tak, że w jednym z poddrzew na każdym poziomie mamy jedną regułę tylko, a w drugim pozostałe). Sytuacja ta ma miejsce ze względu na małą różnorodność wartości wewnątrz macierzy podobieństwa budowanej na początku działania algorytmu. Przykładowo, baza Abalone posiada komórek w macierzy podobieństwa, a tylko 43 unikalne wartości podobieństwa. Z racji tego, kolejność tworzenia skupień determinowana jest poprzez kolejność napływu danych do bazy wiedzy. Trwają prace mające na celu wyeliminowanie tej niedogodności. Optymistyczną obserwacją jest znacząca poprawa algorytmu wyszukiwania reguł metodą ścieżki najbardziej obiecującej za pomocą autorskiej metody hybrydowej z większą wagą dla wspólnych deskryptorów. W kolejnych pracach autor zamierza wykorzystać współczynniki pewności CF w celu poprawnego zamodelowania niepewności generowanej przez wiedzę niepełną. Zaproponowane zostaną również metody służące do przeprowadzania pełnego procesu wnioskowania. System zostanie wzbogacony o moduł informowania użytkownika o możliwościach aktywowania reguł niepewnych i tym samym - wnioskowania w warunkach wiedzy niepełnej. Bibliografia [1] Nowak-Brzezińska, A., Simiński, R., Jach, T., Xięski, T.: Towards a practical approach to discover internal dependencies in rule-based knowledge bases. Rough Sets and Knowledge Technology (2011) [2] Nowak-Brzezińska, A., Wakulicz-Deja, A.: Analiza efektywności wnioskowania w złożonych bazach wiedzy. Systemy Wspomagania Decyzji (2007) [3] Jain, A., Dubes, R.: Algorithms for clustering data. Prentice Hall, New Jersey (1988) [4] Chandru, V., Hooker, J.: Optimization methods for logical inference. John Wiley & Sons, New Yotk (1999) [5] Zadeh, L., Kacprzyk, J.: Fuzzy logic for the management of uncertainty. John Wiley & Sons, New York (1992) [6] Pawlak, Z.: Rough set approach to knowledge-based decision suport. European Journal of Operational Research, (1997) [7] Salton, G.: Automatic Information Organization and Retreival. McGraw-Hill, New York, USA (1975) [8] Jach, T., Nowak-Brzezińska, A.: Wnioskowanie w systemach z wiedzą niepełną. Studia Informatica, Zeszyty naukowe Politechniki Śląskiej Vol. 32, (2011)
10 [9] Koronacki, J., Ćwik, J.: Statystyczne systemy uczące się. Exit, Warszawa (2008) [10] Frank, A., Asuncion, A.: UCI Machine Learning Repository [ Irvine, CA: University of California, School of Information and Computer Science. (2010) [11] Kaufman, L., Rousseeuw, P. J.: Finding Groups in Data: An Introduction to Cluster Analysis. Wiley, New York (1990) [12] Latkowski, R.: Wnioskowanie w oparciu o niekompletny opis obiektów (praca magisterska). Wydział Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego, Warszawa (2001) [13] Myatt, G.: Making Sense of Data A Practical Guide to Exploratory Data Analysis and Data Mining. John Wiley and Sons, Inc., New Jersey (2007) [14] Kumar, V., Tan, P., Steinbach, M.: Introduction to Data Mining. Addison-Wesley (2006) [15] Geiger, D., Heckerman, D.: Knowledge representation and inference in similarity networks and Bayesian multinets. Artificial Intelligence, (1996) [16] Towell, G., Shavlika, J.: Knowledge-based artificial neural networks. Artificial Intelligence, (1994) [17] Bazan, Jan; Nguyen, Hung Son; Nguyen, Sinh Hoa; Synak, Piotr; Wróblewski, Jakub: Rough set algorithms in classification problems. Rough Set Methods and Applications: New Developments in Knowledge Discovery in Information Systems, (2000) [18] Bazan, J., Szczuka, M., Wróblewski, J.: A new version of rough set exploration system. Third International Conference - RSCTC, (2002)
WYBRANE ASPEKTY WNIOSKOWANIA W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ
STUDIA INFORMATICA 2012 Volume 33 Number 2A (105) Agnieszka NOWAK-BRZEZIŃSKA, Tomasz JACH Uniwersytet Śląski, Instytut Informatyki WYBRANE ASPEKTY WNIOSKOWANIA W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ Streszczenie.
METODY WYZNACZANIA WSPÓŁCZYNNIKA NIEPEŁNOŚCI WIEDZY W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ
METODY WYZNACZANIA WSPÓŁCZYNNIKA NIEPEŁNOŚCI WIEDZY W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ AGNIESZKA NOWAK-BRZEZIŃSKA, TOMASZ JACH Uniwersytet Śląski, Instytut Informatyki Streszczenie W opracowaniu autorzy proponują
WNIOSKOWANIE W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ INFERENCE PROCESSES IN DECISION SUPORT SYSTEMS WITH INCOMPLETE KNOWLEDGE
STUDIA INFORMATICA 2009 Volume 30 Number 1 (82) Agnieszka NOWAK-BRZEZIŃSKA, Tomasz JACH Uniwersytet Śląski, Instytut Informatyki WNIOSKOWANIE W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ Autorzy prezentują nowe podejście
WNIOSKOWANIE W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ INFERENCE PROCESSES IN DECISION SUPORT SYSTEMS WITH INCOMPLETE KNOWLEDGE
STUDIA INFORMATICA 2011 Volume 32 Number 2A (96) Agnieszka NOWAK-BRZEZIŃSKA, Tomasz JACH Uniwersytet Śląski, Instytut Informatyki WNIOSKOWANIE W SYSTEMACH Z WIEDZĄ NIEPEŁNĄ Streszczenie. Autorzy niniejszego
Koncepcja wnioskowania w hierarchicznej bazie wiedzy
Koncepcja wnioskowania w hierarchicznej bazie wiedzy Agnieszka Nowak Alicja Wakulicz-Deja Instytut Informatyki, Uniwersytet Śląski, ul. Będzinska 39, Sosnowiec, Polska Tel (32) 2 918 381, Fax (32) 2 918
Kryteria stopu algorytmu grupowania reguł a efektywność systemu wspomagania decyzji
Kryteria stopu algorytmu grupowania reguł a efektywność systemu wspomagania decyzji Agnieszka Nowak Alicja Wakulicz-Deja Zakład Systemów Informatycznych Instytut Informatyki Uniwersytetu Śląskiego Sosnowiec,
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Metoda List Łańcuchowych
Metoda List Łańcuchowych mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Sosnowiec, 2010 Celem metody jest utrzymanie zalet MLI (dobre czasy wyszukiwania), ale wyeliminowanie jej wad (wysoka
Systemy ekspertowe. Krzysztof Patan
Systemy ekspertowe Krzysztof Patan Wprowadzenie System ekspertowy Program komputerowy, który wykonuje złożone zadania o dużych wymaganiach intelektualnych i robi to tak dobrze jak człowiek będący ekspertem
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH 1. Czym jest eksploracja danych Eksploracja danych definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych
Systemy uczące się wykład 2
Systemy uczące się wykład 2 dr Przemysław Juszczuk Katedra Inżynierii Wiedzy, Uniwersytet Ekonomiczny 19 X 2018 Podstawowe definicje Fakt; Przesłanka; Konkluzja; Reguła; Wnioskowanie. Typy wnioskowania
CLUSTERING. Metody grupowania danych
CLUSTERING Metody grupowania danych Plan wykładu Wprowadzenie Dziedziny zastosowania Co to jest problem klastrowania? Problem wyszukiwania optymalnych klastrów Metody generowania: k centroidów (k - means
Wykrywanie nietypowości w danych rzeczywistych
Wykrywanie nietypowości w danych rzeczywistych dr Agnieszka NOWAK-BRZEZIŃSKA, mgr Artur TUROS 1 Agenda 1 2 3 4 5 6 Cel badań Eksploracja odchyleń Metody wykrywania odchyleń Eksperymenty Wnioski Nowe badania
Przestrzeń algorytmów klastrowania
20 listopada 2008 Plan prezentacji 1 Podstawowe pojęcia Przykłady algorytmów klastrowania 2 Odległość algorytmów klastrowania Odległość podziałów 3 Dane wejściowe Eksperymenty Praca źródłowa Podstawowe
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska
Metody tworzenia efektywnych komitetów klasyfikatorów jednoklasowych Bartosz Krawczyk Katedra Systemów i Sieci Komputerowych Politechnika Wrocławska e-mail: bartosz.krawczyk@pwr.wroc.pl Czym jest klasyfikacja
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
6. Zagadnienie parkowania ciężarówki.
6. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Drzewa decyzyjne i lasy losowe
Drzewa decyzyjne i lasy losowe Im dalej w las tym więcej drzew! ML Gdańsk http://www.mlgdansk.pl/ Marcin Zadroga https://www.linkedin.com/in/mzadroga/ 20 Czerwca 2017 WPROWADZENIE DO MACHINE LEARNING CZYM
Algorytmy rozpoznawania obrazów. 11. Analiza skupień. dr inż. Urszula Libal. Politechnika Wrocławska
Algorytmy rozpoznawania obrazów 11. Analiza skupień dr inż. Urszula Libal Politechnika Wrocławska 2015 1 1. Analiza skupień Określenia: analiza skupień (cluster analysis), klasteryzacja (clustering), klasyfikacja
Analiza korespondencji
Analiza korespondencji Kiedy stosujemy? 2 W wielu badaniach mamy do czynienia ze zmiennymi jakościowymi (nominalne i porządkowe) typu np.: płeć, wykształcenie, status palenia. Punktem wyjścia do analizy
Systemy ekspertowe. Wnioskowanie w systemach regułowych. Część piąta. Autor Roman Simiński.
Część piąta Autor Roman Simiński Kontakt siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót treści wykładu, lektura tych materiałów nie zastąpi uważnego w nim uczestnictwa.
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner
Problem eliminacji nieprzystających elementów w zadaniu rozpoznania wzorca Marcin Luckner Wydział Matematyki i Nauk Informacyjnych Politechnika Warszawska Elementy nieprzystające Definicja odrzucania Klasyfikacja
S O M SELF-ORGANIZING MAPS. Przemysław Szczepańczyk Łukasz Myszor
S O M SELF-ORGANIZING MAPS Przemysław Szczepańczyk Łukasz Myszor Podstawy teoretyczne Map Samoorganizujących się stworzył prof. Teuvo Kohonen (1982 r.). SOM wywodzi się ze sztucznych sieci neuronowych.
Maciej Piotr Jankowski
Reduced Adder Graph Implementacja algorytmu RAG Maciej Piotr Jankowski 2005.12.22 Maciej Piotr Jankowski 1 Plan prezentacji 1. Wstęp 2. Implementacja 3. Usprawnienia optymalizacyjne 3.1. Tablica ekspansji
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych. Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS
Algorytmy klasteryzacji jako metoda dyskretyzacji w algorytmach eksploracji danych Łukasz Przybyłek, Jakub Niwa Studenckie Koło Naukowe BRAINS Dyskretyzacja - definicja Dyskretyzacja - zamiana atrybutów
ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO
Szybkobieżne Pojazdy Gąsienicowe (2) Nr 2, 24 Mirosław ADAMSKI Norbert GRZESIK ALGORYTM PROJEKTOWANIA CH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO. WSTĘP
Zastosowanie symulacji Monte Carlo do zarządzania ryzykiem przedsięwzięcia z wykorzystaniem metod sieciowych PERT i CPM
SZKOŁA GŁÓWNA HANDLOWA w Warszawie STUDIUM MAGISTERSKIE Kierunek: Metody ilościowe w ekonomii i systemy informacyjne Karol Walędzik Nr albumu: 26353 Zastosowanie symulacji Monte Carlo do zarządzania ryzykiem
Algorytmy sztucznej inteligencji
www.math.uni.lodz.pl/ radmat Przeszukiwanie z ograniczeniami Zagadnienie przeszukiwania z ograniczeniami stanowi grupę problemów przeszukiwania w przestrzeni stanów, które składa się ze: 1 skończonego
Systemy eksperowe. Agnieszka Nowak Brzezińska Wykład I
Systemy eksperowe Agnieszka Nowak Brzezińska Wykład I Zakres materiału: Metody wnioskowania w regułowych bazach wiedzy PC-Shell jako narzędzie do budowy szkieletowych systemów ekspertowych (Sprawozdanie
Optymalizacja reguł decyzyjnych względem pokrycia
Zakład Systemów Informatycznych Instytut Informatyki, Uniwersytet Śląski Chorzów, 9 grudzień 2014 Wprowadzenie Wprowadzenie problem skalowalności dla optymalizacji reguł decyzjnych na podstawie podejścia
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) Algorytmy i Struktury Danych PIŁA
OSTASZEWSKI Paweł (55566) PAWLICKI Piotr (55567) 16.01.2003 Algorytmy i Struktury Danych PIŁA ALGORYTMY ZACHŁANNE czas [ms] Porównanie Algorytmów Rozwiązyjących problem TSP 100 000 000 000,000 10 000 000
Analiza zależności liniowych
Narzędzie do ustalenia, które zmienne są ważne dla Inwestora Analiza zależności liniowych Identyfikuje siłę i kierunek powiązania pomiędzy zmiennymi Umożliwia wybór zmiennych wpływających na giełdę Ustala
Interwałowe zbiory rozmyte
Interwałowe zbiory rozmyte 1. Wprowadzenie. Od momentu przedstawienia koncepcji klasycznych zbiorów rozmytych (typu 1), były one krytykowane za postać jaką przybiera funkcja przynależności. W przypadku
Anna Osiewalska Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie
Anna Osiewalska Biblioteka Główna Uniwersytetu Ekonomicznego w Krakowie Bibliografie czasopism naukowych Biblioteki Głównej UEK jako źródło danych dla analiz bibliometrycznych Streszczenie Przedstawiono
Systemy ekspertowe. PC-Shell. Sprawozdanie z bazy wiedzy
Wydział Informatyki i Nauki o Materiałach Uniwersytet Śląski Systemy ekspertowe PC-Shell Sprawozdanie z bazy wiedzy Zbigniew Kędzior Informatyka inżynierska Studia niestacjonarne Trzeci rok Grupa A 1.
Zmienne zależne i niezależne
Analiza kanoniczna Motywacja (1) 2 Często w badaniach spotykamy problemy badawcze, w których szukamy zakresu i kierunku zależności pomiędzy zbiorami zmiennych: { X i Jak oceniać takie 1, X 2,..., X p }
7. Zagadnienie parkowania ciężarówki.
7. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Techniki grupowania danych w środowisku Matlab
Techniki grupowania danych w środowisku Matlab 1. Normalizacja danych. Jedne z metod normalizacji: = = ma ( y =, rσ ( = ( ma ( = min = (1 + e, min ( = σ wartość średnia, r współczynnik, σ odchylenie standardowe
Nowe narzędzia zarządzania jakością
Nowe narzędzia zarządzania jakością Agnieszka Michalak 106947 Piotr Michalak 106928 Filip Najdek 106946 Co to jest? Nowe narzędzia jakości - grupa siedmiu nowych narzędzi zarządzania jakością, które mają
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA
METODY CHEMOMETRYCZNE W IDENTYFIKACJI ŹRÓDEŁ POCHODZENIA AMFETAMINY Waldemar S. Krawczyk Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji, Warszawa (praca obroniona na Wydziale Chemii Uniwersytetu
Jeśli X jest przestrzenią o nieskończonej liczbie elementów:
Logika rozmyta 2 Zbiór rozmyty może być formalnie zapisany na dwa sposoby w zależności od tego z jakim typem przestrzeni elementów mamy do czynienia: Jeśli X jest przestrzenią o skończonej liczbie elementów
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Porównywanie populacji
3 Porównywanie populacji 2 Porównywanie populacji Tendencja centralna Jednostki (w grupie) według pewnej zmiennej porównuje się w ten sposób, że dokonuje się komparacji ich wartości, osiągniętych w tej
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
4.3 Grupowanie według podobieństwa
4.3 Grupowanie według podobieństwa Przykłady obiektów to coś więcej niż wektory wartości atrybutów. Reprezentują one poszczególne rasy psów. Ważnym pytaniem, jakie można sobie zadać, jest to jak dobrymi
Multiklasyfikatory z funkcją kompetencji
3 stycznia 2011 Problem klasyfikacji Polega na przewidzeniu dyskretnej klasy na podstawie cech obiektu. Obiekt jest reprezentowany przez wektor cech Zbiór etykiet jest skończony x X Ω = {ω 1, ω 2,...,
Alicja Marszałek Różne rodzaje baz danych
Alicja Marszałek Różne rodzaje baz danych Rodzaje baz danych Bazy danych można podzielić wg struktur organizacji danych, których używają. Można podzielić je na: Bazy proste Bazy złożone Bazy proste Bazy
Sposoby prezentacji problemów w statystyce
S t r o n a 1 Dr Anna Rybak Instytut Informatyki Uniwersytet w Białymstoku Sposoby prezentacji problemów w statystyce Wprowadzenie W artykule zostaną zaprezentowane podstawowe zagadnienia z zakresu statystyki
STATYSTYKA EKONOMICZNA
STATYSTYKA EKONOMICZNA Analiza statystyczna w ocenie działalności przedsiębiorstwa Opracowano na podstawie : E. Nowak, Metody statystyczne w analizie działalności przedsiębiorstwa, PWN, Warszawa 2001 Dr
Multiwyszukiwarka EBSCO Discovery Service - przewodnik
Multiwyszukiwarka EDS daje możliwość przeszukania większości baz udostępnianych przez Bibliotekę Uniwersytetu Jagiellońskiego. Odnajdziesz publikacje na potrzebny Ci temat szybko, łatwo i w jednym miejscu.
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania
Zastosowanie sztucznej inteligencji w testowaniu oprogramowania Problem NP Problem NP (niedeterministycznie wielomianowy, ang. nondeterministic polynomial) to problem decyzyjny, dla którego rozwiązanie
Metoda list prostych Wykład II. Agnieszka Nowak - Brzezińska
Metoda list prostych Wykład II Agnieszka Nowak - Brzezińska Wprowadzenie Przykładowa KW Inna wersja KW Wyszukiwanie informacji Metoda I 1. Przeglądamy kolejne opisy obiektów i wybieramy te, które zawierają
Metody indeksowania dokumentów tekstowych
Metody indeksowania dokumentów tekstowych Paweł Szołtysek 21maja2009 Metody indeksowania dokumentów tekstowych 1/ 19 Metody indeksowania dokumentów tekstowych 2/ 19 Czym jest wyszukiwanie informacji? Wyszukiwanie
Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań
Raport 1/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu - metodologia badań autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych z zastosowaniem
Analiza skupień. Analiza Skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania
Analiza skupień W sztucznej inteligencji istotną rolę ogrywają algorytmy grupowania Analiza Skupień Elementy składowe procesu grupowania obiekt Ekstrakcja cech Sprzężenie zwrotne Grupowanie klastry Reprezentacja
WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW
Uniwersytet Ekonomiczny we Wrocławiu WIELOKRYTERIALNE PORZĄDKOWANIE METODĄ PROMETHEE ODPORNE NA ZMIANY WAG KRYTERIÓW Wprowadzenie Wrażliwość wyników analizy wielokryterialnej na zmiany wag kryteriów, przy
Temat: Projektowanie sterownika rozmytego. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Projektowanie sterownika rozmytego Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie Sterowanie
Temat: Projektowanie sterownika rozmytego. Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE
Temat: Projektowanie sterownika rozmytego Instrukcja do ćwiczeń przedmiotu INŻYNIERIA WIEDZY I SYSTEMY EKSPERTOWE Dr inż. Barbara Mrzygłód KISiM, WIMiIP, AGH mrzyglod@ agh.edu.pl 1 Wprowadzenie System
Zajęcia wprowadzające W-1 termin I temat: Sposób zapisu wyników pomiarów
wielkość mierzona wartość wielkości jednostka miary pomiar wzorce miary wynik pomiaru niedokładność pomiaru Zajęcia wprowadzające W-1 termin I temat: Sposób zapisu wyników pomiarów 1. Pojęcia podstawowe
Algorytmy genetyczne
Algorytmy genetyczne Motto: Zamiast pracowicie poszukiwać najlepszego rozwiązania problemu informatycznego lepiej pozwolić, żeby komputer sam sobie to rozwiązanie wyhodował! Algorytmy genetyczne służą
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Algorytmy wyznaczania centralności w sieci Szymon Szylko
Algorytmy wyznaczania centralności w sieci Szymon Szylko Zakład systemów Informacyjnych Wrocław 10.01.2008 Agenda prezentacji Cechy sieci Algorytmy grafowe Badanie centralności Algorytmy wyznaczania centralności
KADD Minimalizacja funkcji
Minimalizacja funkcji Poszukiwanie minimum funkcji Foma kwadratowa Metody przybliżania minimum minimalizacja Minimalizacja w n wymiarach Metody poszukiwania minimum Otaczanie minimum Podział obszaru zawierającego
Inteligencja obliczeniowa
Ćwiczenie nr 3 Zbiory rozmyte logika rozmyta Sterowniki wielowejściowe i wielowyjściowe, relacje rozmyte, sposoby zapisu reguł, aproksymacja funkcji przy użyciu reguł rozmytych, charakterystyki przejściowe
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
< K (2) = ( Adams, John ), P (2) = adres bloku 2 > < K (1) = ( Aaron, Ed ), P (1) = adres bloku 1 >
Typy indeksów Indeks jest zakładany na atrybucie relacji atrybucie indeksowym (ang. indexing field). Indeks zawiera wartości atrybutu indeksowego wraz ze wskaźnikami do wszystkich bloków dyskowych zawierających
Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
mgr inż. Magdalena Deckert Poznań, r. Metody przyrostowego uczenia się ze strumieni danych.
mgr inż. Magdalena Deckert Poznań, 30.11.2010r. Metody przyrostowego uczenia się ze strumieni danych. Plan prezentacji Wstęp Concept drift i typy zmian Algorytmy przyrostowego uczenia się ze strumieni
Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change
Raport 4/2015 Optymalizacja parametrów w strategiach inwestycyjnych dla event-driven tradingu dla odczytu Australia Employment Change autor: Michał Osmoła INIME Instytut nauk informatycznych i matematycznych
Wykład z Technologii Informacyjnych. Piotr Mika
Wykład z Technologii Informacyjnych Piotr Mika Uniwersalna forma graficznego zapisu algorytmów Schemat blokowy zbiór bloków, powiązanych ze sobą liniami zorientowanymi. Jest to rodzaj grafu, którego węzły
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 9 PRZESZUKIWANIE GRAFÓW Z
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji
Konkurs z przedmiotu eksploracja i analiza danych: problem regresji i klasyfikacji Michał Witczak Data Mining 20 maja 2012 r. 1. Wstęp Dostarczone zostały nam 4 pliki, z których dwa stanowiły zbiory uczące
Algorytm. Krótka historia algorytmów
Algorytm znaczenie cybernetyczne Jest to dokładny przepis wykonania w określonym porządku skończonej liczby operacji, pozwalający na rozwiązanie zbliżonych do siebie klas problemów. znaczenie matematyczne
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"
PODSTAWY BAZ DANYCH 19. Perspektywy baz danych 1 Perspektywy baz danych Temporalna baza danych Temporalna baza danych - baza danych posiadająca informację o czasie wprowadzenia lub czasie ważności zawartych
Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych
Metody zbiorów przybliżonych w uczeniu się podobieństwa z wielowymiarowych zbiorów danych WMIM, Uniwersytet Warszawski ul. Banacha 2, 02-097 Warszawa, Polska andrzejanusz@gmail.com 13.06.2013 Dlaczego
Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl
Text mining w programie RapidMiner Michał Bereta www.michalbereta.pl 1. Wstęp Aby skorzystać z możliwości RapidMinera w zakresie analizy tekstu, należy zainstalować Text Mining Extension. Wybierz: 1 Po
Piotr Sobolewski Krzysztof Skorupski
Plan prezentacji Logika rodzaje Logika klasyczna Logika wielowartościowa Logika rozmyta Historia powstania Definicje Zbiory rozmyte Relacje rozmyte Systemy rozmyte Modele Zastosowanie w optymalizacji przykłady
Eksploracja danych. KLASYFIKACJA I REGRESJA cz. 2. Wojciech Waloszek. Teresa Zawadzka.
Eksploracja danych KLASYFIKACJA I REGRESJA cz. 2 Wojciech Waloszek wowal@eti.pg.gda.pl Teresa Zawadzka tegra@eti.pg.gda.pl Katedra Inżynierii Oprogramowania Wydział Elektroniki, Telekomunikacji i Informatyki
Analiza i wizualizacja danych Data analysis and visualization
KARTA MODUŁU / KARTA PRZEDMIOTU Załącznik nr 7 do Zarządzenia Rektora nr 10/12 z dnia 21 lutego 2012r. Kod modułu Nazwa modułu Nazwa modułu w języku angielskim Obowiązuje od roku akademickiego 2012/2013
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ. Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska
SYSTEMY UCZĄCE SIĘ WYKŁAD 4. DRZEWA REGRESYJNE, INDUKCJA REGUŁ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska DRZEWO REGRESYJNE Sposób konstrukcji i przycinania
Ewelina Dziura Krzysztof Maryański
Ewelina Dziura Krzysztof Maryański 1. Wstęp - eksploracja danych 2. Proces Eksploracji danych 3. Reguły asocjacyjne budowa, zastosowanie, pozyskiwanie 4. Algorytm Apriori i jego modyfikacje 5. Przykład
Sztuczna Inteligencja Tematy projektów Sieci Neuronowe
PB, 2009 2010 Sztuczna Inteligencja Tematy projektów Sieci Neuronowe Projekt 1 Stwórz projekt implementujący jednokierunkową sztuczną neuronową złożoną z neuronów typu sigmoidalnego z algorytmem uczenia
Ruch jednostajnie przyspieszony wyznaczenie przyspieszenia
Doświadczenie: Ruch jednostajnie przyspieszony wyznaczenie przyspieszenia Cele doświadczenia Celem doświadczenia jest zbadanie zależności drogi przebytej w ruchu przyspieszonym od czasu dla kuli bilardowej
ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH
1 ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH WFAiS UJ, Informatyka Stosowana II stopień studiów 2 Wnioskowanie statystyczne dla zmiennych numerycznych Porównywanie dwóch średnich Boot-strapping Analiza
Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.
Plan Procedura decyzyjna Reguły α i β - algorytm Plan Procedura decyzyjna Reguły α i β - algorytm Logika obliczeniowa Instytut Informatyki 1 Procedura decyzyjna Logiczna konsekwencja Teoria aksjomatyzowalna
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych
Algorytmy decyzyjne będące alternatywą dla sieci neuronowych Piotr Dalka Przykładowe algorytmy decyzyjne Sztuczne sieci neuronowe Algorytm k najbliższych sąsiadów Kaskada klasyfikatorów AdaBoost Naiwny
Co to jest grupowanie
Grupowanie danych Co to jest grupowanie 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Szukanie grup, obszarów stanowiących lokalne gromady punktów Co to jest grupowanie
Porównanie szeregów czasowych z wykorzystaniem algorytmu DTW
Zlot użytkowników R Porównanie szeregów czasowych z wykorzystaniem algorytmu DTW Paweł Teisseyre Instytut Podstaw Informatyki, Polska Akademia Nauk 21 września 2010 Miary podobieństwa między szeregami
1 Wprowadzenie do algorytmiki
Teoretyczne podstawy informatyki - ćwiczenia: Prowadzący: dr inż. Dariusz W Brzeziński 1 Wprowadzenie do algorytmiki 1.1 Algorytm 1. Skończony, uporządkowany ciąg precyzyjnie i zrozumiale opisanych czynności
Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych
inż. Marek Duczkowski Metoda określania pozycji wodnicy statków na podstawie pomiarów odległości statku od głowic laserowych słowa kluczowe: algorytm gradientowy, optymalizacja, określanie wodnicy W artykule
OPTYMALIZACJA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH WZGLĘDEM LICZBY POMYŁEK
STUDIA INFORMATICA 2016 Volume 37 Number 1 (123) Beata ZIELOSKO Uniwersytet Śląski, Instytut Informatyki Marek ROBASZKIEWICZ EL-PLUS Sp. z o.o. OPTYMALIZACJA CZĘŚCIOWYCH REGUŁ ASOCJACYJNYCH WZGLĘDEM LICZBY
Algorytmy i struktury danych
Algorytmy i struktury danych ĆWICZENIE 2 - WYBRANE ZŁOŻONE STRUKTURY DANYCH - (12.3.212) Prowadząca: dr hab. inż. Małgorzata Sterna Informatyka i3, poniedziałek godz. 11:45 Adam Matuszewski, nr 1655 Oliver
Systemy ekspertowe : program PCShell
Instytut Informatyki Uniwersytetu Śląskiego lab 1 Opis sytemu ekspertowego Metody wnioskowania System PcShell Projekt System ekspertowy - system ekspertowy to system komputerowy zawierający w sobie wyspecjalizowaną
LABORATORIUM Z FIZYKI
LABORATORIUM Z FIZYKI LABORATORIUM Z FIZYKI I PRACOWNIA FIZYCZNA C w Gliwicach Gliwice, ul. Konarskiego 22, pokoje 52-54 Regulamin pracowni i organizacja zajęć Sprawozdanie (strona tytułowa, karta pomiarowa)
PODEJMOWANIE DECYZJI W WARUNKACH NIEPEŁNEJ INFORMACJI
Wprowadzenie do badań operacyjnych z komputerem Opisy programów, ćwiczenia komputerowe i zadania. T. Trzaskalik (red.) Rozdział 5 PODEJMOWANIE DECYZJI W WARUNKACH NIEPEŁNEJ INFORMACJI 5.2. Ćwiczenia komputerowe
Program CZYTELNIK instrukcja obsługi
Witamy użytkowników programu CZYTELNIK, realizującego zadania obsługi katy czytelnika w bibliotece. Przedstawiamy główne okno programu, służące do wpisywania głównej kartoteki czytelników (WSZELKIE PREZENTOWANE