WYKORZYSTANIE DANYCH OKREŚLONYCH LINGWISTYCZNIE W SYSTEMACH POZYSKIWANIA WIEDZY.
|
|
- Magdalena Karpińska
- 9 lat temu
- Przeglądów:
Transkrypt
1 WYKORZYSTANIE DANYCH OKREŚLONYCH LINGWISTYCZNIE W SYSTEMACH POZYSKIWANIA WIEDZY. 1. Streszczenie/Abstract Dariusz Mazur Wydział organizacji i zarządzania. Politechnika Śląska w Gliwicach dmazur@polsl.gliwice.pl Artykuł poświęcono problematyce pozyskiwania wiedzy z baz danych, odnosząc się zarówno do danych w postaci numerycznej jak i postaci lingwistycznej. Przedstawiono pojęcie danych lingwistycznych i ich zastosowanie w bazach danych. Omówiono przykładowe techniki pozyskiwania wiedzy oraz przedstawiono pewne modyfikacje modeli przetwarzania danych numerycznych w celu zastosowania ich do danych w postaci lingwistycznej. Słowa kluczowe w języku referatu: Pozyskiwanie wiedzy, lingwistyka komputerowa, grupowanie. This paper is data mining.linguistic form or categorical attributes Presented examples of gathering knowledge and some of changes method computing numerical data to use in computing symbolic and linguistic data. Data mining, linguistic, computing with words, clustering. 2. Wstęp Pozyskiwanie wiedzy na podstawie danych zgromadzonych w bazach danych, powszechnie znane jako termin angielski data mining, jest stosowane w wielu zagadnieniach. Najczęstsze zastosowania systemów pozyskiwania wiedzy spotyka się w sferze biznesu, ale również innych dziedzinach np.: meteorologia, systemy przetwarzania obrazów, systemy przetwarzania dokumentów (np. bazy publikacji naukowych, wyszukiwarki internetowe). Obecna technologia informatyczna pozwala gromadzić olbrzymie zasoby danych, ale ich analiza jest bardzo wolna i kosztowna. Pozyskiwanie wiedzy stało się znaczącym obszarem badań naukowych w ostatniej dekadzie XX wieku, czego dowodem są liczne publikacje naukowe w tym zakresie. Szczególnie wiedza o klientach dla wielu organizacji biznesowych staje się krytyczna dla ich dalszego istnienia. W bazach danych gromadzi się olbrzymie ilości faktów, zdarzeń i innych informacji ale właściwa wiedza pozostaje ukryta i nie uchwycona. Z drugiej strony zaostrzająca się konkurencja wymaga, aby organizacja stale dopasowywała swoją ofertę do indywidualnych preferencji klienta. To wzmaga rozwój narzędzi pozyskiwania wiedzy, szczególnie w kontekście wspomagania podejmowania decyzji. Celem pracy jest przedstawienie zagadnienia pozyskiwania wiedzy ze szczególnym uwzględnieniem przetwarzania danych postaci lingwistycznej. Przedstawione zostaną pewne modyfikacje modeli numerycznych w celu zastosowania ich dla danych lingwistycznych. Niniejsze opracowanie składa się z 3 części. W pierwszej omówiono podstawowe metody pozyskiwania wiedzy. W drugiej przedstawiono zagadnienie reprezentacji danych w formie lingwistycznej oraz wynikające z tego aspekty związane z pozyskiwaniem wiedzy. W trzeciej przedstawiono przykładowe zagadnienia związane z przetwarzaniem danych w postaci lingwistycznej, wskazano pewne formalne reguły, które są podstawą tworzenia rozwiązań dla przetwarzania danych lingwistycznych.
2 3. Metody pozyskiwania wiedzy Wyróżnia się szereg metod stosowanych przy pozyskiwaniu wiedzy. Najbardziej powszechne opierają się na poszukiwaniu skojarzonych reguł, uogólnianiu (streszczaniu, podsumowaniu), klasyfikowaniu oraz grupowaniu. Poszczególne metody nie tworzą wykluczających się nawzajem przepisów na uzyskanie rozwiązania, jakim jest odkrycie wiedzy zgromadzonej w bazie danych. Często zdarza się jednoczesne użytkowanie poszczególnych metod, tworzone są algorytmy, w których zaimplementowane są różne idee, a wyniki uzyskane jedną metodą są przekazywane do kolejnej w celu uzyskania optymalnych rezultatów Schemat procesu pozyskiwania wiedzy Bazy, będące źródłem dla systemów pozyskiwania wiedzy, zwykle są bardzo obszerne, w zależności od źródła mogą liczyć nawet wiele milionów rekordów. Wielkość ta zależy zarówno od badanego czasookresu jak i rodzaju zastosowania. Jak wiadomo koszt obliczeń silnie zależy od wielkości tej bazy, tym nie mniej spodziewane zyski z odkrycia istniejących zależności są znacznie większe tam, gdzie skala prowadzonych działań jest większa. Proces pozyskania wiedzy z dużej bazy danych jest zadaniem wykonywanym iteracyjnie i interaktywnie. Dla lepszego zrozumienia tego procesu można podzielić go na pewne etapy. Schemat zaproponowany w [Mann97] składa się z następujących etapów: 1. Zrozumienie i przyswojenie dziedziny. 2. Przygotowanie zbioru danych. 3. Poszukiwanie szablonów, zależności i inne techniki analizy stosowane w pozyskiwaniu wiedzy. 4. Przetwarzanie uzyskanych szablonów (z pkt.3) w formę oczekiwaną przez użytkownika. 5. Zastosowanie rezultatów. Przedstawiony schemat może być zapętlony, tzn. w razie potrzeby (gdy rezultaty danego etapu na to wskazują) może nastąpić powrót do punktu powyżej i powtórzenia wykorzystując zgromadzoną wiedzę Poszukiwanie szablonów Poszukiwanie szablonów polega na odkrywaniu pewnych zależności, których występowanie ma stosunkowo wysoką częstotliwość oraz szablon taki jest prostszy niż zwyczajne wyliczenie poszczególnych przypadków ich występowania. Zagadnienie to, zaprezentowane w [AIS93], stanowi użyteczny mechanizm poszukiwania korelacji ukrytej w bazie danych. Problem poszukiwania reguł polega na poszukiwaniu zależności występujących przy określonych minimach występowania i pewności. W tym celu zostało zaproponowanych szereg algorytmów [AS94, BAG99,BMUT97]. Formalnie można to zapisać następująco: jeżeli I={i 1,...,i m } jest zbiorem m różnych elementów, D jest zbiorem transakcji, gdzie każda transakcja T jest zbiorem elementów takich że T D. Szablonem nazywamy implikację: P ( X, Y ) = { X Y X I, Y I, X Y = } Źródłowe zadanie poszukiwania szablonów może być zapisane następująco: PI(D,P)={ p P p występuje wystarczająco często w D i p jest interesujące} Uogólnianie Uogólnianie danych to pewna klasa narzędzi i metod określanych również jako metody dokonywania podsumowania, streszczenia z bazy danych. W literaturze anglojęzycznej spotyka się następujące terminy związane z tym zagadnieniem: data generalization, summarization tools, on-line analytical processing (OLAP), data abstraction, charakterization. Celem stosowania uogólniania jest prezentacja w pewien mniej szczegółowy sposób wyspecyfikowanego zbioru danych zgromadzonych w bazie danych. Może to zostać zrealizowane poprzez stosowanie różnych poziomów abstrakcji, na których dane są przetwarzane, stosowanie różnych przekrojów i kierunków analizy. Przykładowo można
3 analizować dane elementarne, powstałe podczas zapisu poszczególnych transakcji w bazie transakcyjnej albo dane zagregowane według poszczególnych atrybutów (np. data transakcji, obiekt podlegający transakcji) Taksonometria Klasyfikacja (taksonometria) opiera się o hierarchiczny model decyzyjny, dzięki któremu otrzymujemy podział danych wejściowych na poszczególnie, uprzednio zdefiniowane, klasy. Definiowanie klas można dokonać na różne sposoby. Może to wynikać z powszechnie dostępnej wiedzy na przykład: klasyfikacja na podstawie atrybutu jakim jest adres stosowane w poczcie klasycznej, przy czym adres = (kraj, miejscowość, ulica, nr budynku, nr lokalu), wiedzy, którą można pozyskać od eksperta w danej dziedzinie, klasyfikacji otrzymanej w wyniku analizy specjalnie dobranej bazy przykładowej, traktowanej jako zbiór treningowy i na tej podstawie stworzenia odpowiedniego schematu decyzyjnego klasyfikowania obiektów Grupowanie Grupowanie polega na łączeniu ze sobą poszczególnych obiektów w zbiory, w których znajdują się obiekty podobne do siebie pod pewnym określonym względem, natomiast obiekty niepodobne przydzielane są do różnych zbiorów. Do pewnego stopnia jest to technika podobna do wymienionej poprzednio, różni ją sposób pozyskiwania schematu decyzyjnego podziału (reguł podziału), który jest tworzony automatycznie w trakcie procesu grupowania. Grupowanie jest techniką osadzającą się na maksymie rzymskiej dziel i rządź, dzięki której duże zbiory danych dekomponowane są na mniejsze fragmenty, jednak bez utraty pewnych, ustalanych w procesie grupowania cech i właściwości. Mniejsze zbiory danych łatwiej poddają się analizie, koszt przetwarzania się zmniejsza. Algorytmy grupowanie, identyfikujące regiony (klastry), opierają się o funkcję odległości lub podobieństwa pomiędzy dwoma obiektami. Technika grupowania jest również stosowana jako element pozostałych metod pozyskiwania wiedzy, przykładowo w [LLL01] zaproponowano algorytm poszukiwania szablonów, w który zostało wbudowane grupowanie w celu polepszenia jego efektywności. 4. Dane określone lingwistycznie Bazy danych, mogące stać się źródłem dla systemów pozyskiwania wiedzy, mają różnoraką postać. Podstawowe rozróżnienie wynika z podziału na dane o postaci strukturalnej oraz o postaci niestrukturalnej. Dane o postaci strukturalnej obejmują dane przechowywane w ściśle określonej strukturze, charakteryzującą się sformalizowaną metodologią ich pozyskiwania i wprowadzania do bazy. Dzięki wprowadzeniu pewnych ram i ograniczeń otrzymuje się strukturę łatwiejszą do dalszego przetwarzania. Przykładem danych strukturalnych są dane zawarte w bazach transakcyjnych i operacyjnych przedsiębiorstw, szczególnie przy stosowaniu systemów relacyjnych baz danych. Natomiast dane o postaci niestrukturalnej to pozostała część danych gromadzonych w systemach komputerowych, najczęściej mają one postać tekstu zapisanego w języku naturalnym. Dane o postaci niestrukturalnej można spotkać w poczcie elektronicznej, edytorach tekstowych. Również w bazach danych strukturalnych można znaleźć elementy (np. atrybuty w postaci opisowej), które mają taką niezdefiniowaną postać. Elementy takie zwane są danymi określonymi lingwistycznie [GKCR94] oraz daneymi symbolicznymi [Gatn98]. Przetwarzanie informacji zgromadzonej w takiej postaci jest łatwe dla człowieka (forma zapisu jest bliska człowiekowi, gdyż wyrażona w jego języku naturalnym), dla komputera jest to bariera, której przekroczenie jest niesłychanie trudne i udaje się w bardzo ograniczonym zakresie.
4 4.1. Przykłady danych określonych lingwistycznie Do każdego obiektu, sytuacji, zjawiska można przypisać pewne wielkości je charakteryzujące- dane. Podstawowa klasyfikacja danych wynika z podziału na dane: jakościowe (symboliczne, opisowe), ilościowe (numeryczne). Dane ilościowe pojawiają się tam, gdzie znana jest metoda pomiaru. Dotyczy to przede wszystkim wszelkich wielkości fizycznych jak długość, waga, czas. W wyniku pomiaru otrzymujemy konkretną liczbę, która w ustalony sposób reprezentuje mierzoną wielkość. Zupełnie inne cechy wiążą dane jakościowe. Po pierwsze znacznie poszerzony zostaje zakres stosowania: dotyczy zarówno wielkości mierzalnych, czyli tych związanych z reprezentacją ilościową, jak i niemierzalnych. Dane jakościowe wynikają przede wszystkim z bezpośredniego postrzegania świata przez człowieka. Dzięki swojej percepcji człowiek zdolny jest postrzegać zarówno wielkości fizyczne, jak i duchowe. Wynika to z możliwości postrzegania odległości, wielkości, czasu, koloru, prędkości, kierunku, siły, zapachu, ilości, podobieństwa, prawdziwości, jakości. Istnieje również wiele innych pojęć, które trudno nazwać wielkościami, ale z pewnością charakteryzują obiekty z nimi związane. Wśród nich można wymienić piękno, brzydotę, przestępstwo, wiara, patriotyzm, kara. Cechą wspólną danych jakościowych jest ich reprezentacja w postaci słów analogicznie do stosowanych w języku naturalnym Przetwarzanie danych lingwistycznych Jeżeli przytoczymy definicję przetwarzania jako pewne określone manipulacje na liczbach lub symbolach to wynika, że przetwarzanie danych lingwistycznych to manipulacje na słowach w znaczeniu takim jak w języku naturalnym. Przetwarzanie słów (ang. computing with words [Zade99]) jest wzorowane na szczególnej ludzkiej zdolności rozwiązywania zadań bez jakiegokolwiek pomiaru jak również obliczeń. Zdolności te grają kluczowe role w umiejętności rozpoznawania i wnioskowania. Najbardziej znamiennym przykładem może tu być umiejętność napisania streszczenia z danego tekstu. Podstawową różnicą pomiędzy ludzką percepcją a pomiarem jest to, że pomiar ma charakter punktowy natomiast to co człowiek postrzega ma charakter rozmyty, nieprecyzyjny. Z drugiej jednak strony określenia słowne mimo swej nieprecyzyjności, w odróżnieniu od danych liczbowych, oddają istotę sprawy. Pojęcie wiek może być określone numerycznie w latach. Można stwierdzić, że ktoś ma 21 lat i będzie to fakt absolutnie prawdziwy, dla każdego i w każdej sytuacji, natomiast bez innych informacji nie można dokonać żadnego wnioskowania z tym związanego. Korzystając ze słów ktoś może powiedzieć, że dana osoba jest młoda. I tu następuje szereg niejasności, wątpliwości a nawet sprzeczności. Słowo młody można przypisać do każdej osoby będącej w określonym przedziale wiekowym. Niestety nie ma jednolitej definicji tego przedziału. Co więcej, może się zdarzyć że osoba młoda dla jednych, dla innych jest już stara. Ale jednocześnie można wysnuć następujące wnioski z określenia danej osoby jako młodej przez kogoś innego. Po pierwsze określenie młody nie odnosi się wyłącznie do bezwzględnego wieku danej osoby mierzonego jednostką czasu, może również określać doświadczenie, siły witalne, nastawienie do życia. Taka wieloznaczeniowość jest powszechna w języku naturalnym. Po drugie można wnioskować o istniejących relacjach pomiędzy osobą określającą a określaną, można również wysnuć pewne wnioski na temat osoby określającej. Po trzecie i chyba najważniejsze: określenie słowne bardzo często zawiera pewien pierwiastek oceny. Zazwyczaj opisu obiektu (sprawy, itp.) dokonuje się w celu późniejszej oceny, dokonania wnioskowania czy też podjęcia działań. W podanym przykładzie, jeżeli znany jest charakter zadania, do którego dobierane są osoby, to podanie określenia, że dany kandydat jest młody implikuje jego nadawanie się bądź nie. W świecie nauki, odwrotnie niż w życiu codziennym, najczęściej posługujemy się danymi numerycznymi. Istnieją jednak dwa podstawowe wskazania, które mogą zdecydować o użyciu przetwarzania danych lingwistycznych w miejsce numerycznych. Po pierwsze jest to konieczne tam, gdzie dostępna informacja jest zbyt nieprecyzyjna aby ją zapisać w postaci numerycznej. Po drugie tam,
5 gdzie w wyniku przetwarzania danych lingwistycznych otrzymamy bardziej optymalne rozwiązania, lepiej korespondujące z rzeczywistością, przy niższym koszcie obliczeniowym Zasady grupowania lingwistycznego Grupowanie danych określonych lingwistyczne bazuje na upodobnieniu do sposobu myślenia przez człowieka, przede wszystkim wykorzystuje informację zawartą w termach lingwistycznych. Na drodze budowy narzędzi wzorujących się na człowieku ważne jest opracowanie właściwej metody grupowania wykorzystującej granulację jako właściwość informacji zapisanej lingwistycznie. W trakcie tworzenia odpowiedniego algorytmu grupowania należy rozwiązać szereg problemów. Pierwszy wynika ze sposobu określenia brzegów przedziałów, które wyznaczają poszczególne grupy. Klasyczne teorie zbiorów oparte są o ostre krawędzie. Algorytmy na tym oparte wprowadzają znaczący błąd w przetwarzanie spowodowany zupełnie różnym traktowaniem elementów bliskich sobie lecz ułożonych po przeciwnych stronach granicy rozdzielających przedziały. Sposób ten również nie odpowiada intuicyjnemu podejściu do grupowania odpowiedniemu dla ludzkiej percepcji. Drugi problem grupowania wynika z aspektu częściowej przynależności do zbioru. Teorie klasyczne nie przewidują takiego przypadku. Element może należeć do zbioru bądź nie należeć. Świat realny wymaga jednak bardziej elastycznego podejścia. Typowe są przykłady określania wzrostu człowieka: kogoś określa się mianem trochę niski, prawie wysoki itd. Idąc dalej można oczekiwać jednoczesnego przynależenia do kilku zbiorów. W oparciu o poprzedni przykład oba cytowane określenia mogą dotyczyć tej samej osoby, a z tego wynika że przynależy ona jednocześnie do zbioru wysokich jak i do zbioru niskich. Zadanie to może być rozwiązane poprzez jawne wprowadzenie takich funkcji przez użytkownika bądź eksperta lub też poprzez zastosowanie technik grupowania dokonanej na wskazanej bazie danych. Stosowanie funkcji wprowadzanych jawnie ma pewne ograniczenia. Wynikają one z kilku czynników. Aby dobrze skonstruować funkcję przynależności należy dobrze znać charakter opisywanych obiektów. Warunek ten jest spełniony dla obiektów z bezpośredniego otoczenia człowieka, takich, które powszechnie są opisywane i grupowane. Wielkości takie jak wzrost człowieka, temperatura otoczenia przy podaniu dodatkowych parametrów (np. obszar czy środowisko) stosunkowo łatwo poddają się podziałowi na grupy określone lingwistycznie, a reguły tym rządzące są dla większości oczywiste. Analogicznie sprawa się przedstawia dla danych, których charakter znany jest grupie ekspertów. Takie środowisko dysponuje również własnymi terminami lingwistycznymi, dla których skonstruowanie funkcji przynależności jest możliwe. Natomiast w stosunku do pozostałych obiektów sprawa się komplikuje. Oczywiście możliwe jest aby użytkownik przeanalizował bazę danych, odpowiednio pogrupował obiekty i określił funkcje przynależności. Podejście to jest jednak pracochłonne. Można to próbować dokonać automatycznie, korzystając z technik grupowania. 5. Model matematyczny 5.1. Pojęcie grupowania Formalnie grupowanie można zapisać w następujący sposób: Dany jest zbiór elementów określony w wielowymiarowej przestrzeni ciągłej s xi R, i = 1,, n Problem grupowania polega na podzieleniu zbioru X na c podzbiorów, tak aby elementy w danym podzbiorze były do siebie bardziej podobne niż do elementów w innych podzbiorach. W tym celu odnajduje się wektor wzorcowy (odniesienia): v j s R, j = 1,, c n Jest to zbiór elementów możliwie najlepiej charakteryzujących członków poszczególnych grup. Formalnie zadanie grupowania można potraktować jako minimalizację błędu kwantyzacji zdefiniowanego następująco:
6 E rec c n 1 = w n k= 1 i= 1 ik x i v k 2, w gdzie. - oznacza identyfikator odległości, n - liczbę elementów podlegających grupowaniu c - liczbę grup, do których zostaną przydzielone elementy - współczynnik przynależności elementu i do wzorca k w ik ik [ 0,1 ] 5.2. Definicja grupy w grupowaniu elementów określonych atrybutami opisowymi Intuicyjnie grupa (ang.cluster) jest zbiorem numerycznych atrybutów identyfikujący skupiony region w przestrzeni atrybutów. Taki region zawiera znacząco więcej elementów określonego rodzaju niż pozostała przestrzeń. Można to przedstawić, korzystając z analogii do wielowymiarowej przestrzeni metrycznej, jako hiper-sześcian. Przykładowo w przestrzeni trójwymiarowej można zdefiniować pewien region następująco [1,2]x[2,4]x[3,5] co będzie korespondowało z obszarem o postaci sześcianu, którego brzegi określone są danymi atrybutami numerycznymi. Uogólniając, klasę hiper-sześcianów można wyrazić jako iloczyn kartezjański przedziałów określonych dla poszczególnych wymiarów. Niestety w przestrzeni atrybutów określonych opisowo nie istnieje relacja porządku, więc pojęcie przedziału nie ma sensu. Ale można zastosować bezpośrednie uogólnienie pojęcia przedziału do przestrzeni atrybutów opisowych poprzez zastosowanie zbiorów wartości tych atrybutów. Korzystając z tej analogii, można przyjąć że istnieją hiper-sześcienne regiony określone zbiorami wartości poszczególnych atrybutów. Formalny zapis jest następujący: Niech A 1,...,A s jest zbiorem atrybutów opisowych z dziedzinami odpowiednio D 1,...,D s. Niech zbiór danych jest zbiorem rekordów, gdzie każdy rekord t : t D D opisany atrybutami t = t. A, 1, t. A s D Nazywamy S=S 1 x..xs s grupą jeżeli { } i s i 1,..., s, S i D t S i 1,, s, t. A i S. Rekord t należy do grupy S : { } i 5.3. Miara odległości dla danych postaci lingwistycznej Większość algorytmów grupowania bazuje na miarze odległości. Odległością nazywamy funkcję 1 przekształcającą dwa dane obiekty w R. D : V V { r R : r 0}. Dla części danych numerycznych można stosować miary odległości w przestrzeni metrycznej, np. euklidesowa miara 2 T odległości d ( x, y) = ( x y) ( x y), x, y V. Dla danych postaci lingwistycznej formuła ta się nie sprawdza. W tym wypadku należy się odwołać do istoty informacji ukrytej w słowach (termach) lingwistycznych. Na przykład jeżeli dany obiekt zawiera adres administracyjny, to można skonstruować algorytm, korzystający z odpowiedniego słownika, który obliczy odległość geograficzną. Przykładowo dla bazy z trzema transakcjami I={i 1 = KATOWICE,i 2 = KRAKÓW,i 3 = WARSZAWA ) można przyjąć d L (i 1,i 2 )=70km, d L (i 1,i 3 )=300km (d L jako oznaczenie funkcji liczącej odległość geograficzną pomiędzy miejscowościami). Obok funkcji odległości pomiędzy obiektami do grupowania można również zastosować funkcje określające podobieństwo, które w prosty sposób można zaadaptować do algorytmów grupowania. Przykładem funkcji podobieństwa jest współczynnik Jaccarda [JD88] opierający się na następującej zależności: h J x y ( x, y) =, x, y V, x y Aby jednak właściwie obliczyć współczynnik Jaccarda należy odpowiednio przekształcić badane obiekty tak, aby móc zdefiniować funkcje sumy i iloczynu. Przykładowo podczas porównywania 1 s
7 tekstów w języku naturalnym dokonuje się przekształcenia tekstu na postać zbioru, którego elementami są poszczególne słowa. Dalsze przetwarzanie jest już trywialne, natomiast u podstawy takiego traktowania tekstu leży dogłębna analiza danych o takiej postaci. Zakłada się, że podobieństwo dwóch tekstów w języku naturalnym głównie zależy od jednoczesnego występowania pewnych słów w obu tekstach. Takie założenie dość dobrze sprawdza się w przypadku przetwarzania dokumentów typu publikacje naukowe, prasowe, katalogowanie stron internetowych. Jednak w wielu zastosowaniach stosuje się inne, bardziej zaawansowane funkcje obliczania podobieństwa uwzględniające takie czynniki jak fleksja, wieloznaczność, semantyka i syntaktyka języka. 6. Zastosowanie zbiorów rozmytych do przetwarzania danych lingwistycznych Założenia przetwarzania danych lingwistycznych są znane od dawna. Jednak przekształcenie się w rzeczywistą metodologię nastąpiło dopiero w wyniku zastosowania logiki rozmytej (fuzzy logic) [Zade77]. Kluczowe stało się zastosowanie zmiennych rozmytych do reprezentacji słów języka naturalnego. Należy sobie odpowiedzieć dlaczego teoria zbiorów rozmytych tak dobrze pasuje do przetwarzania danych lingwistycznych, czy też języka naturalnego. Aby właściwie wytłumaczyć to zagadnienie należy wyjaśnić sposób w jaki człowiek postrzega świat, swoje otoczenie i siebie. Człowiek posiada szereg zmysłów, dzięki którym otrzymuje sygnały z otoczenia, dzięki nim może postrzegać takie wielkości jak odległość, kolor, prędkość itd. Znana jest również dokładność, a właściwie niedokładność tych zmysłów, wszelkie otrzymywane wyniki są przybliżone, sygnały które są ich nośnikami są podatne na wiele zakłóceń. I właśnie na takich danych, danych rozmytych, mózg ludzki dokonuje przetwarzania. Język naturalny, którego zadaniem jest opisywanie świata, takim jak go człowiek postrzega, ma odciśnięte piętno możliwości ludzkich zmysłów. Jest tak samo niedokładny, nieprecyzyjny, poszczególne słowa posiadają wiele znaczeń jak również znaczenia poszczególnych słów pokrywają się. Podczas opisywania danego obiektu człowiek często posługuje się słowami określającymi pewne właściwości obiektu. Obiekty ze względu na daną właściwość mogą być nierozróżnialne, podobne. Różne wartości jakie przybierają dane właściwości są podstawą do grupowania obiektów. Grupy wyznaczane są poprzez wskazanie przedziałów wartości, które stanowią o przynależności do danej grupy. W zależności od przyjętej metody przedziały te mogą mieć punktowo wyznaczone granice, bądź nieostre, rozmyte, tak że przedziały nakładają się na siebie, a dany obiekt może należeć do wielu grup na raz. Zalety stosowania zbiorów rozmytych: 1. Podobieństwo logiki zbiorów rozmytych do stosowanej w języku naturalnym. 2. Możliwość przetwarzania wiedzy niepełnej, niepewnej. 3. Uniwersalne metodologia wnioskowania i przetwarzania. 7. Wnioski Obecnie dostępna technologia baz danych pozwala na gromadzenie olbrzymich ilości danych. W znacznej części są to dane w postaci lingwistycznej, gdyż używanie takiej postaci jest naturalne dla człowieka. Język naturalny, kształtowany przez tysiące lat stanowi dobre narzędzie opisu otaczającego świata i dostosowany jest do możliwości percepcji człowieka. Natomiast dla komputera stanowi barierę, której pokonanie wymaga stosowania zaawansowanych modeli przetwarzania. Podczas poszukiwania rozwiązań należy się wzorować na samym człowieku i jego umyśle oraz doszukiwać się pewnych analogii z przetwarzaniem danych numerycznych. Istotnym aspektem związanym z pozyskiwaniem wiedzy jest etap określany mianem zrozumienie i przyswojenie dziedziny która podlega analizie. Zastosowanie metod analizy danych określonych lingwistycznie jest użyteczne w eksploracji baz danych; istotnym zagadnieniem jest zastosowanie odpowiedniej metodologii przetwarzania.
8 8. Literatura [AIS93] Agrawal R., Imielinski T., Swami A.: Mining Association Rules between Sets of Items in Large Databases. Proceedings of the ACM SIGMOD,1993 [AS94] Agrawal R., Srikant R.: Fast Algorithms for Mining Association Rules in Large Databases, International Conference of Very Large Data Bases, 1994 [BAG99] Bayardo R.J., Agrawal R., Gunopulos D.: Constraint-Based Rule Mining in Large, Dense Databases, International Conference on data Enginering,1999 [BEZ81] Bezdek J.C.: Pattern Recognition with Fuzzy Objective Function Algorithms, Plenum Press NY [BMUT97] Brin S., Motwani R., Ullman J., Tsur S.: Dynamic Item set Counting and Implication Rules for Market Basket Data, ACM SIGMOD 1997 [CHY99] Chen M.-S., Han J., Yu S.P.: Data Mining: An Overview from Database Perspective, [CCZL01] Chen N., Chen A. Zhou L., Lu L.: A graph-based clustering algorithm in large transaction databases. IOS Press [Gatn98] Gatnar E.: Symboliczne metody klasyfikacji danych, PWN [GKCR94] Groenemans R., Kerre E., Cooman G., Ranst E.: The Use of Linguistic Terms in Database Models [JaDu88] Jain A.K., Dubes R.C.: Algorithms for Clustering data, Prentice Hall,1988. [Kacp01] Kacprzyk J.: Wieloetapowe sterowanie rozmyte, WNT [LLL01] Liu F., Lu Z., Lu S.: Mining association rules using clustering, IOS Press [Mann97] Mannila H.: Methods and problems in data mining. International Conference on Database Theory,1997 [SSTW01] Shaw M.J., Subramaniam C., Tan G.W., Welge M.E.: Knowledge management and data mining for marketing, Decision Support Systems, 2001 [Zade77] Zadeh, L.A.: Fuzzy sets and their applications to classification and clustering. Academic Press,1977 [Zade99] Zadeh L.A.: From Computing with Numbers to Computing with Words- From Manipulation of Measurements to Manipulations of Perception. IEEE,1999
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
Interwałowe zbiory rozmyte
Interwałowe zbiory rozmyte 1. Wprowadzenie. Od momentu przedstawienia koncepcji klasycznych zbiorów rozmytych (typu 1), były one krytykowane za postać jaką przybiera funkcja przynależności. W przypadku
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH
INDUKOWANE REGUŁY DECYZYJNE ALORYTM APRIORI JAROSŁAW FIBICH 1. Czym jest eksploracja danych Eksploracja danych definiowana jest jako zbiór technik odkrywania nietrywialnych zależności i schematów w dużych
Data Mining Wykład 9. Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster. Plan wykładu. Sformułowanie problemu
Data Mining Wykład 9 Analiza skupień (grupowanie) Grupowanie hierarchiczne O-Cluster Plan wykładu Wprowadzanie Definicja problemu Klasyfikacja metod grupowania Grupowanie hierarchiczne Sformułowanie problemu
Ewelina Dziura Krzysztof Maryański
Ewelina Dziura Krzysztof Maryański 1. Wstęp - eksploracja danych 2. Proces Eksploracji danych 3. Reguły asocjacyjne budowa, zastosowanie, pozyskiwanie 4. Algorytm Apriori i jego modyfikacje 5. Przykład
ALGORYTM PROJEKTOWANIA ROZMYTYCH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO
Szybkobieżne Pojazdy Gąsienicowe (2) Nr 2, 24 Mirosław ADAMSKI Norbert GRZESIK ALGORYTM PROJEKTOWANIA CH SYSTEMÓW EKSPERCKICH TYPU MAMDANI ZADEH OCENIAJĄCYCH EFEKTYWNOŚĆ WYKONANIA ZADANIA BOJOWEGO. WSTĘP
Technologie i systemy oparte na logice rozmytej
Zagadnienia I Technologie i systemy oparte na logice rozmytej Mają zastosowania w sytuacjach kiedy nie posiadamy wystarczającej wiedzy o modelu matematycznym rządzącym danym zjawiskiem oraz tam gdzie zbudowanie
Wykład 10 Skalowanie wielowymiarowe
Wykład 10 Skalowanie wielowymiarowe Wrocław, 30.05.2018r Skalowanie wielowymiarowe (Multidimensional Scaling (MDS)) Główne cele MDS: przedstawienie struktury badanych obiektów przez określenie treści wymiarów
PODSTAWY BAZ DANYCH. 19. Perspektywy baz danych. 2009/2010 Notatki do wykładu "Podstawy baz danych"
PODSTAWY BAZ DANYCH 19. Perspektywy baz danych 1 Perspektywy baz danych Temporalna baza danych Temporalna baza danych - baza danych posiadająca informację o czasie wprowadzenia lub czasie ważności zawartych
PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM
Mostefa Mohamed-Seghir Akademia Morska w Gdyni PROGRAMOWANIE DYNAMICZNE W ROZMYTYM OTOCZENIU DO STEROWANIA STATKIEM W artykule przedstawiono propozycję zastosowania programowania dynamicznego do rozwiązywania
Wnioskowanie rozmyte. Krzysztof Patan
Wnioskowanie rozmyte Krzysztof Patan Wprowadzenie Informacja precyzyjna jest to jedyna postać informacji akceptowanej przez konwencjonalne metody matematyczne, najczęściej dostarczana jest przez precyzyjne
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA SYSTEMY ROZMYTE Adrian Horzyk Akademia Górniczo-Hutnicza Wydział Elektrotechniki, Automatyki, Informatyki i Inżynierii Biomedycznej Katedra Automatyki i Inżynierii Biomedycznej Laboratorium
Jeśli X jest przestrzenią o nieskończonej liczbie elementów:
Logika rozmyta 2 Zbiór rozmyty może być formalnie zapisany na dwa sposoby w zależności od tego z jakim typem przestrzeni elementów mamy do czynienia: Jeśli X jest przestrzenią o skończonej liczbie elementów
Lingwistyczne podsumowania baz danych.inteligentne generowanie s
Lingwistyczne podsumowania baz danych. Inteligentne generowanie streszczeń Instytut Informatyki, Politechnika Łódzka Katowice, 29 stycznia 2010 r. Problematyka Bazy i hurtownie danych olbrzymia ilość liczb......
Język naturalny jako pomost między danymi cyfrowymi maszyny a rozumieniem człowieka
Język naturalny jako pomost między danymi cyfrowymi maszyny a rozumieniem człowieka Wstęp Współczesna rzeczywistość wymaga gromadzenia olbrzymich ilości danych. Lawinowo rosną archiwa informacji dotyczących
Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów
Eksploracja danych Piotr Lipiński Informacje ogólne Informacje i materiały dotyczące wykładu będą publikowane na stronie internetowej wykładowcy, m.in. prezentacje z wykładów UWAGA: prezentacja to nie
Analiza danych. http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU
Analiza danych Wstęp Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/ TEMATYKA PRZEDMIOTU Różne aspekty analizy danych Reprezentacja graficzna danych Metody statystyczne: estymacja parametrów
1 Wprowadzenie do algorytmiki
Teoretyczne podstawy informatyki - ćwiczenia: Prowadzący: dr inż. Dariusz W Brzeziński 1 Wprowadzenie do algorytmiki 1.1 Algorytm 1. Skończony, uporządkowany ciąg precyzyjnie i zrozumiale opisanych czynności
dr inż. Olga Siedlecka-Lamch 14 listopada 2011 roku Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Eksploracja danych
- Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 14 listopada 2011 roku 1 - - 2 3 4 5 - The purpose of computing is insight, not numbers Richard Hamming Motywacja - Mamy informację,
Inteligencja obliczeniowa
Ćwiczenie nr 1 Zbiory rozmyte logika rozmyta Tworzenie: termów zmiennej lingwistycznej o różnych kształtach, modyfikatorów, zmiennych o wielu termach; operacje przecięcia, połączenia i dopełnienia 1. Wprowadzenie
SAS wybrane elementy. DATA MINING Część III. Seweryn Kowalski 2006
SAS wybrane elementy DATA MINING Część III Seweryn Kowalski 2006 Algorytmy eksploracji danych Algorytm eksploracji danych jest dobrze zdefiniowaną procedurą, która na wejściu otrzymuje dane, a na wyjściu
SCENARIUSZ LEKCJI. TEMAT LEKCJI: Zastosowanie średnich w statystyce i matematyce. Podstawowe pojęcia statystyczne. Streszczenie.
SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH Autorzy scenariusza:
Problemy złożone trudno jest analizować precyzyjnie Wiedza eksperta w złożonych przypadkach daje się opisać tylko w sposób nieprecyzyjny, np.
ZBIORY ROZMYTE Problemy złożone trudno jest analizować precyzyjnie Wiedza eksperta w złożonyc przypadkac daje się opisać tylko w sposób nieprecyzyjny, np. W dużym mieście, powinien istnieć regionalny port
Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych. Wykład 3
Odkrywanie wiedzy z danych przy użyciu zbiorów przybliżonych Wykład 3 W internecie Teoria zbiorów przybliżonych zaproponowany w 1982 r. przez prof. Zdzisława Pawlaka formalizm matematyczny, stanowiący
Hierarchiczna analiza skupień
Hierarchiczna analiza skupień Cel analizy Analiza skupień ma na celu wykrycie w zbiorze obserwacji klastrów, czyli rozłącznych podzbiorów obserwacji, wewnątrz których obserwacje są sobie w jakimś określonym
zna metody matematyczne w zakresie niezbędnym do formalnego i ilościowego opisu, zrozumienia i modelowania problemów z różnych
Grupa efektów kierunkowych: Matematyka stosowana I stopnia - profil praktyczny (od 17 października 2014) Matematyka Stosowana I stopień spec. Matematyka nowoczesnych technologii stacjonarne 2015/2016Z
SZTUCZNA INTELIGENCJA
SZTUCZNA INTELIGENCJA WYKŁAD 10. WNIOSKOWANIE W LOGICE ROZMYTEJ Częstochowa 2014 Dr hab. inż. Grzegorz Dudek Wydział Elektryczny Politechnika Częstochowska WNIOSKOWANIE W LOGICE DWUWARTOŚCIOWEJ W logice
HURTOWNIE DANYCH I BUSINESS INTELLIGENCE
BAZY DANYCH HURTOWNIE DANYCH I BUSINESS INTELLIGENCE Akademia Górniczo-Hutnicza w Krakowie Adrian Horzyk horzyk@agh.edu.pl Google: Horzyk HURTOWNIE DANYCH Hurtownia danych (Data Warehouse) to najczęściej
Data mininig i wielowymiarowa analiza danych zgromadzonych w systemach medycznych na potrzeby badań naukowych
Temat: Data mininig i wielowymiarowa analiza danych zgromadzonych w systemach medycznych na potrzeby badań naukowych Autorzy: Tomasz Małyszko, Edyta Łukasik 1. Definicja eksploracji danych Eksploracja
LOGIKA I TEORIA ZBIORÓW
LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja
Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych. Data Mining Wykład 2
Data Mining Wykład 2 Odkrywanie asocjacji Plan wykładu Wprowadzenie Sformułowanie problemu Typy reguł asocjacyjnych Proces odkrywania reguł asocjacyjnych Geneza problemu Geneza problemu odkrywania reguł
Inżynieria Wiedzy i Systemy Ekspertowe. Niepewność wiedzy. dr inż. Michał Bereta Politechnika Krakowska
Inżynieria Wiedzy i Systemy Ekspertowe Niepewność wiedzy dr inż. Michał Bereta Politechnika Krakowska http://torus.uck.pk.edu.pl/~beretam/ beretam@torus.uck.pk.edu.pl 1 Logika Rozmyta (Fuzzy Logic) Mimo
Hurtownie danych i business intelligence. Plan na dziś : Wprowadzenie do przedmiotu
i business intelligence Paweł Skrobanek, C-3 pok. 321 pawel.skrobanek@pwr.wroc.pl Wrocław 2005-2012 Plan na dziś : 1. Wprowadzenie do przedmiotu (co będzie omawiane oraz jak będę weryfikował zdobytą wiedzę
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Hurtownie danych. Wstęp. Architektura hurtowni danych. http://zajecia.jakubw.pl/hur CO TO JEST HURTOWNIA DANYCH
Wstęp. Architektura hurtowni. Jakub Wróblewski jakubw@pjwstk.edu.pl http://zajecia.jakubw.pl/hur CO TO JEST HURTOWNIA DANYCH B. Inmon, 1996: Hurtownia to zbiór zintegrowanych, nieulotnych, ukierunkowanych
Wykład I. Wprowadzenie do baz danych
Wykład I Wprowadzenie do baz danych Trochę historii Pierwsze znane użycie terminu baza danych miało miejsce w listopadzie w 1963 roku. W latach sześcdziesątych XX wieku został opracowany przez Charles
Reprezentacja rozmyta - zastosowania logiki rozmytej
17.06.2009 Wrocław Bartosz Chabasinski 148384 Reprezentacja rozmyta - zastosowania logiki rozmytej 1. Wstęp Celem wprowadzenia pojęcia teorii zbiorów rozmytych była potrzeba matematycznego opisania tych
2
1 2 3 4 5 Dużo pisze się i słyszy o projektach wdrożeń systemów zarządzania wiedzą, które nie przyniosły oczekiwanych rezultatów, bo mało kto korzystał z tych systemów. Technologia nie jest bowiem lekarstwem
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Eksploracja danych - wykład VIII
I Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska 2 grudnia 2016 1/31 1 2 2/31 (ang. affinity analysis) polega na badaniu atrybutów lub cech, które są ze sobą powiązane. Metody
Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia
Informacja w perspektywie obliczeniowej Informacje, liczby i obliczenia Cztery punkty odniesienia (dla pojęcia informacji) ŚWIAT ontologia fizyka UMYSŁ psychologia epistemologia JĘZYK lingwistyka nauki
Opis efektów kształcenia dla programu kształcenia (kierunkowe efekty kształcenia) WIEDZA. rozumie cywilizacyjne znaczenie matematyki i jej zastosowań
TABELA ODNIESIEŃ EFEKTÓW KSZTAŁCENIA OKREŚLONYCH DLA PROGRAMU KSZTAŁCENIA DO EFEKTÓW KSZTAŁCENIA OKREŚLONYCH DLA OBSZARU KSZTAŁCENIA I PROFILU STUDIÓW PROGRAM KSZTAŁCENIA: POZIOM KSZTAŁCENIA: PROFIL KSZTAŁCENIA:
Laboratorium 5 Przybliżone metody rozwiązywania równań nieliniowych
Uniwersytet Zielonogórski Wydział Informatyki, Elektrotechniki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych Elektrotechnika niestacjonarne-zaoczne pierwszego stopnia z tyt. inżyniera
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów
LEMRG algorytm generowania pokoleń reguł decyzji dla baz danych z dużą liczbą atrybutów Łukasz Piątek, Jerzy W. Grzymała-Busse Katedra Systemów Ekspertowych i Sztucznej Inteligencji, Wydział Informatyki
Model procesu dydaktycznego
Model procesu dydaktycznego w zakresie Business Intelligence Zenon Gniazdowski 1,2), Andrzej Ptasznik 1) 1) Warszawska Wyższa Szkoła Informatyki, ul. Lewartowskiego 17, Warszawa 2) Instytut Technologii
Modelowanie jako sposób opisu rzeczywistości. Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka
Modelowanie jako sposób opisu rzeczywistości Katedra Mikroelektroniki i Technik Informatycznych Politechnika Łódzka 2015 Wprowadzenie: Modelowanie i symulacja PROBLEM: Podstawowy problem z opisem otaczającej
Klasyfikatory: k-nn oraz naiwny Bayesa. Agnieszka Nowak Brzezińska Wykład IV
Klasyfikatory: k-nn oraz naiwny Bayesa Agnieszka Nowak Brzezińska Wykład IV Naiwny klasyfikator Bayesa Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną
Ćwiczenie numer 4 JESS PRZYKŁADOWY SYSTEM EKSPERTOWY.
Ćwiczenie numer 4 JESS PRZYKŁADOWY SYSTEM EKSPERTOWY. 1. Cel ćwiczenia Celem ćwiczenia jest zapoznanie się z przykładowym systemem ekspertowym napisanym w JESS. Studenci poznają strukturę systemu ekspertowego,
Skalowanie wielowymiarowe idea
Skalowanie wielowymiarowe idea Jedną z wad metody PCA jest możliwość używania jedynie zmiennych ilościowych, kolejnym konieczność posiadania pełnych danych z doświadczenia(nie da się użyć PCA jeśli mamy
Inteligentna analiza danych
Numer indeksu 150946 Michał Moroz Imię i nazwisko Numer indeksu 150875 Grzegorz Graczyk Imię i nazwisko kierunek: Informatyka rok akademicki: 2010/2011 Inteligentna analiza danych Ćwiczenie I Wskaźniki
Agnieszka Nowak Brzezińska Wykład III
Agnieszka Nowak Brzezińska Wykład III Naiwny klasyfikator bayesowski jest prostym probabilistycznym klasyfikatorem. Zakłada się wzajemną niezależność zmiennych niezależnych (tu naiwność) Bardziej opisowe
Hurtownie danych i business intelligence. Plan na dziś : Wprowadzenie do przedmiotu
i business intelligence Paweł Skrobanek, C-3 pok. 321 pawel.skrobanek@pwr.wroc.pl Wrocław 2005-2007 Plan na dziś : 1. Wprowadzenie do przedmiotu (co będzie omawiane oraz jak będę weryfikował zdobytą wiedzę
Transformacja wiedzy w budowie i eksploatacji maszyn
Uniwersytet Technologiczno Przyrodniczy im. Jana i Jędrzeja Śniadeckich w Bydgoszczy Wydział Mechaniczny Transformacja wiedzy w budowie i eksploatacji maszyn Bogdan ŻÓŁTOWSKI W pracy przedstawiono proces
Bazy danych. Zachodniopomorski Uniwersytet Technologiczny w Szczecinie. Wykład 3: Model związków encji.
Zachodniopomorski Uniwersytet Technologiczny w Szczecinie Bazy danych Wykład 3: Model związków encji. dr inż. Magdalena Krakowiak makrakowiak@wi.zut.edu.pl Co to jest model związków encji? Model związków
Agnieszka Nowak Brzezińska
Agnieszka Nowak Brzezińska jeden z algorytmów regresji nieparametrycznej używanych w statystyce do prognozowania wartości pewnej zmiennej losowej. Może również byd używany do klasyfikacji. - Założenia
Logika funkcji. Modelowanie SI - GHJ 1
Logika funkcji precyzyjne i niedwuznaczne definiowanie szczegółów funkcji stosowana w tych przypadkach, w których funkcja jest złożona lub wymaga arbitralnego algorytmu Celem - zrozumienie przez projektanta
Relacyjny model baz danych, model związków encji, normalizacje
Relacyjny model baz danych, model związków encji, normalizacje Wyklad 3 mgr inż. Maciej Lasota mgr inż. Karol Wieczorek Politechnika Świętokrzyska Katedra Informatyki Kielce, 2009 Definicje Operacje na
SCENARIUSZ LEKCJI. Streszczenie. Czas realizacji. Podstawa programowa
Autorzy scenariusza: SCENARIUSZ LEKCJI OPRACOWANY W RAMACH PROJEKTU: INFORMATYKA MÓJ SPOSÓB NA POZNANIE I OPISANIE ŚWIATA. PROGRAM NAUCZANIA INFORMATYKI Z ELEMENTAMI PRZEDMIOTÓW MATEMATYCZNO-PRZYRODNICZYCH
Plan prezentacji 0 Wprowadzenie 0 Zastosowania 0 Przykładowe metody 0 Zagadnienia poboczne 0 Przyszłość 0 Podsumowanie 7 Jak powstaje wiedza? Dane Informacje Wiedza Zrozumienie 8 Przykład Teleskop Hubble
z dnia... 2015 r. w sprawie bazy danych obiektów topograficznych oraz mapy zasadniczej
ROZPORZĄDZENIE Projekt z dnia 18.06.15 r. MINISTRA ADMINISTRACJI I CYFRYZACJI 1) z dnia... 2015 r. w sprawie bazy danych obiektów topograficznych oraz mapy zasadniczej Na podstawie art. 19 ust. 1 pkt 7
O badaniach nad SZTUCZNĄ INTELIGENCJĄ
O badaniach nad SZTUCZNĄ INTELIGENCJĄ Wykład 7. O badaniach nad sztuczną inteligencją Co nazywamy SZTUCZNĄ INTELIGENCJĄ? szczególny rodzaj programów komputerowych, a niekiedy maszyn. SI szczególną własność
Zagadnienia (1/3) Data-flow diagramy przepływów danych ERD diagramy związków encji Diagramy obiektowe w UML (ang. Unified Modeling Language)
Zagadnienia (1/3) Rola modelu systemu w procesie analizy wymagań (inżynierii wymagań) Prezentacja różnego rodzaju informacji o systemie w zależności od rodzaju modelu. Budowanie pełnego obrazu systemu
Bazy danych. dr inż. Andrzej Macioł
Bazy danych dr inż. Andrzej Macioł http://amber.zarz.agh.edu.pl/amaciol/ Ontologia Dziedzina metafizyki, która para się badaniem i wyjaśnianiem natury jak i kluczowych właściwości oraz relacji rządzących
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe.
Lingwistyczny system definicyjny wykorzystujący korpusy tekstów oraz zasoby internetowe. Autor: Mariusz Sasko Promotor: dr Adrian Horzyk Plan prezentacji 1. Wstęp 2. Cele pracy 3. Rozwiązanie 3.1. Robot
BIBLIOTEKA PROGRAMU R - BIOPS. Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat
BIBLIOTEKA PROGRAMU R - BIOPS Narzędzia Informatyczne w Badaniach Naukowych Katarzyna Bernat Biblioteka biops zawiera funkcje do analizy i przetwarzania obrazów. Operacje geometryczne (obrót, przesunięcie,
Przedmiotowy System Oceniania z matematyki. Sporządzony przez Komisję przedmiotów matematycznych
Przedmiotowy System Oceniania z matematyki Sporządzony przez Komisję przedmiotów matematycznych Przedmiotowy System Oceniania z matematyki I. Ocenie podlegają osiągnięcia ucznia w zakresie: 1. Jego matematycznych
SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD
Dr inż. Jacek WARCHULSKI Dr inż. Marcin WARCHULSKI Mgr inż. Witold BUŻANTOWICZ Wojskowa Akademia Techniczna SPOSOBY POMIARU KĄTÓW W PROGRAMIE AutoCAD Streszczenie: W referacie przedstawiono możliwości
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych.
Informatyka Coraz częściej informatykę utoŝsamia się z pojęciem technologii informacyjnych. Za naukową podstawę informatyki uwaŝa się teorię informacji i jej związki z naukami technicznymi, np. elektroniką,
Metodologia badań psychologicznych
Metodologia badań psychologicznych Lucyna Golińska SPOŁECZNA AKADEMIA NAUK Psychologia jako nauka empiryczna Wprowadzenie pojęć Wykład 5 Cele badań naukowych 1. Opis- (funkcja deskryptywna) procedura definiowania
Eksploracja Danych. wykład 4. Sebastian Zając. 10 maja 2017 WMP.SNŚ UKSW. Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja / 18
Eksploracja Danych wykład 4 Sebastian Zając WMP.SNŚ UKSW 10 maja 2017 Sebastian Zając (WMP.SNŚ UKSW) Eksploracja Danych 10 maja 2017 1 / 18 Klasyfikacja danych Klasyfikacja Najczęściej stosowana (najstarsza)
6. Zagadnienie parkowania ciężarówki.
6. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Zalew danych skąd się biorą dane? są generowane przez banki, ubezpieczalnie, sieci handlowe, dane eksperymentalne, Web, tekst, e_handel
według przewidywań internetowego magazynu ZDNET News z 8 lutego 2001 roku eksploracja danych (ang. data mining ) będzie jednym z najbardziej rewolucyjnych osiągnięć następnej dekady. Rzeczywiście MIT Technology
Programowanie celowe #1
Programowanie celowe #1 Problem programowania celowego (PC) jest przykładem problemu programowania matematycznego nieliniowego, który można skutecznie zlinearyzować, tzn. zapisać (i rozwiązać) jako problem
Grupowanie Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633
Grupowanie Grupowanie 7 6 5 4 y 3 2 1 0-3 -2-1 0 1 2 3 4 5-1 -2-3 -4 x Witold Andrzejewski, Politechnika Poznańska, Wydział Informatyki 201/633 Wprowadzenie Celem procesu grupowania jest podział zbioru
Dopasowywanie modelu do danych
Tematyka wykładu dopasowanie modelu trendu do danych; wybrane rodzaje modeli trendu i ich właściwości; dopasowanie modeli do danych za pomocą narzędzi wykresów liniowych (wykresów rozrzutu) programu STATISTICA;
Odniesienie do efektów kształcenia dla obszaru nauk EFEKTY KSZTAŁCENIA Symbol
KIERUNKOWE EFEKTY KSZTAŁCENIA Wydział Informatyki i Zarządzania Kierunek studiów INFORMATYKA (INF) Stopień studiów - pierwszy Profil studiów - ogólnoakademicki Projekt v1.0 z 18.02.2015 Odniesienie do
Ćwiczenia nr 7. TEMATYKA: Krzywe Bézier a
TEMATYKA: Krzywe Bézier a Ćwiczenia nr 7 DEFINICJE: Interpolacja: przybliżanie funkcji za pomocą innej funkcji, zwykle wielomianu, tak aby były sobie równe w zadanych punktach. Poniżej przykład interpolacji
Jeśli przeszkoda jest blisko to przyhamuj
Rozmyte systemy regułowe Informacja, którą przetwarzają ludzie często (prawie zawsze) jest nieprecyzyjna, a mimo to potrafimy poprawnie wnioskować i podejmować decyzję, czego klasyczne komputery nie potrafią.
KARTA PRZEDMIOTU. 1. Informacje ogólne. 2. Ogólna charakterystyka przedmiotu. Metody drążenia danych D1.3
KARTA PRZEDMIOTU 1. Informacje ogólne Nazwa przedmiotu i kod (wg planu studiów): Nazwa przedmiotu (j. ang.): Kierunek studiów: Specjalność/specjalizacja: Poziom kształcenia: Profil kształcenia: Forma studiów:
Rekurencja. Rekurencja zwana także rekursją jest jedną z najważniejszych metod konstruowania rozwiązań i algorytmów.
Rekurencja Rekurencja zwana także rekursją jest jedną z najważniejszych metod konstruowania rozwiązań i algorytmów. Zgodnie ze znaczeniem informatycznym algorytm rekurencyjny to taki który korzysta z samego
O badaniach nad SZTUCZNĄ INTELIGENCJĄ
O badaniach nad SZTUCZNĄ INTELIGENCJĄ Jak określa się inteligencję naturalną? Jak określa się inteligencję naturalną? Inteligencja wg psychologów to: Przyrodzona, choć rozwijana w toku dojrzewania i uczenia
Komputerowe Systemy Przemysłowe: Modelowanie - UML. Arkadiusz Banasik arkadiusz.banasik@polsl.pl
Komputerowe Systemy Przemysłowe: Modelowanie - UML Arkadiusz Banasik arkadiusz.banasik@polsl.pl Plan prezentacji Wprowadzenie UML Diagram przypadków użycia Diagram klas Podsumowanie Wprowadzenie Języki
Baza danych. Modele danych
Rola baz danych Systemy informatyczne stosowane w obsłudze działalności gospodarczej pełnią funkcję polegającą na gromadzeniu i przetwarzaniu danych. Typowe operacje wykonywane na danych w systemach ewidencyjno-sprawozdawczych
Operacjonalizacja zmiennych
Metodologia badań naukowych - wykład 2 Operacjonalizacja zmiennych Pojęcie zmiennej Definiowanie zmiennych w planie badania Mierzenie. Skale mierzenia Pojęcie wskaźnika. Dobór wskaźnika dla zmiennej Kryteria
Pattern Classification
Pattern Classification All materials in these slides were taken from Pattern Classification (2nd ed) by R. O. Duda, P. E. Hart and D. G. Stork, John Wiley & Sons, 2000 with the permission of the authors
Analiza danych i data mining.
Analiza danych i data mining. mgr Katarzyna Racka Wykładowca WNEI PWSZ w Płocku Przedsiębiorczy student 2016 15 XI 2016 r. Cel warsztatu Przekazanie wiedzy na temat: analizy i zarządzania danymi (data
O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ
O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ Jakie obiekty matematyczne nazywa się nieobliczalnymi? Jakie obiekty matematyczne nazywa się nieobliczalnymi? Najczęściej: a) liczby b) funkcje
W narzędziu typu Excel, Calc czy Gnumeric napisz formułę logiczną która wyznaczy wartośd przynależności dla podanej temperatury do zbioru gorąco.
Zadanie 0 Wyobraźmy sobie, że chcemy oceniad czy dana temperatura świadczy o tym, że jest gorąco czy raczej zimno. A więc znając wartośd liczbową temperatury chcemy oceniad wartośd funkcji przynależności
Jacek Skorupski pok. 251 tel konsultacje: poniedziałek , sobota zjazdowa
Jacek Skorupski pok. 251 tel. 234-7339 jsk@wt.pw.edu.pl http://skorupski.waw.pl/mmt prezentacje ogłoszenia konsultacje: poniedziałek 16 15-18, sobota zjazdowa 9 40-10 25 Udział w zajęciach Kontrola wyników
O badaniach nad SZTUCZNĄ INTELIGENCJĄ
O badaniach nad SZTUCZNĄ INTELIGENCJĄ SZTUCZNA INTELIGENCJA dwa podstawowe znaczenia Co nazywamy sztuczną inteligencją? zaawansowane systemy informatyczne (np. uczące się), pewną dyscyplinę badawczą (dział
Systemy zarządzania wiedzą w strategiach firm. Prof. dr hab. Irena Hejduk Szkoła Głowna Handlowa w Warszawie
Systemy zarządzania wiedzą w strategiach firm Prof. dr hab. Irena Hejduk Szkoła Głowna Handlowa w Warszawie Wprowadzenie istota zarządzania wiedzą Wiedza i informacja, ich jakość i aktualność stają się
Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych)
Szukanie rozwiązań funkcji uwikłanych (równań nieliniowych) Funkcja uwikłana (równanie nieliniowe) jest to funkcja, która nie jest przedstawiona jawnym przepisem, wzorem wyrażającym zależność wartości
7. Zagadnienie parkowania ciężarówki.
7. Zagadnienie parkowania ciężarówki. Sterowniki rozmyte Aby móc sterować przebiegiem pewnych procesów lub też pracą urządzeń niezbędne jest stworzenie odpowiedniego modelu, na podstawie którego można
Zad. 3: Układ równań liniowych
1 Cel ćwiczenia Zad. 3: Układ równań liniowych Wykształcenie umiejętności modelowania kluczowych dla danego problemu pojęć. Definiowanie właściwego interfejsu klasy. Zwrócenie uwagi na dobór odpowiednich
PRZEDSIĘBIORSTW. Dariusz Mazur Wydział Organizacji i Zarządzania Politechnika Śl. w Gliwicach
ZASTOSOWANIE GRUPOWANIA DO EKSPLORACJI BAZ DANYCH SYSTEMÓW INFORMATYCZNYCH PRZEDSIĘBIORSTW Streszczenie Dariusz Mazur Wydział Organizacji i Zarządzania Politechnika Śl. w Gliwicach dmazur@polsl.gliwice.pl
Diagramy ERD. Model struktury danych jest najczęściej tworzony z wykorzystaniem diagramów pojęciowych (konceptualnych). Najpopularniejszym
Diagramy ERD. Model struktury danych jest najczęściej tworzony z wykorzystaniem diagramów pojęciowych (konceptualnych). Najpopularniejszym konceptualnym modelem danych jest tzw. model związków encji (ERM
Systemy ekspertowe i ich zastosowania. Katarzyna Karp Marek Grabowski
Systemy ekspertowe i ich zastosowania Katarzyna Karp Marek Grabowski Plan prezentacji Wstęp Własności systemów ekspertowych Rodzaje baz wiedzy Metody reprezentacji wiedzy Metody wnioskowania Języki do
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta
Algorytm wstecznej propagacji błędów dla sieci RBF Michał Bereta www.michalbereta.pl Sieci radialne zawsze posiadają jedną warstwę ukrytą, która składa się z neuronów radialnych. Warstwa wyjściowa składa
Z52: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania, zagadnienie brzegowe.
Z5: Algebra liniowa Zagadnienie: Zastosowania algebry liniowej Zadanie: Operatory różniczkowania zagadnienie brzegowe Dyskretne operatory różniczkowania Numeryczne obliczanie pochodnych oraz rozwiązywanie