Jacek Wolski Miara ilości informacji a jej znaczenie. Filozofia Nauki 18/3,
|
|
- Monika Piątkowska
- 7 lat temu
- Przeglądów:
Transkrypt
1 Jacek Wolski Miara ilości informacji a jej znaczenie Filozofia Nauki 18/3,
2 Filozofia Nauki Rok XVIII, 2010, Nr 3(71) Jacek Wolski Miara ilości informacji a jej znaczenie 1. WSTĘP Od pulsarów i odległych gwiazd, poprzez geny żywej istoty, do znaku drogowego i okrzyku ostrzegawczego, wszechświat jest wypełniony informacją. Informacja może wpłynąć na bieg historii lub zmienić przekonania narodów. Niektórzy sądzą, że obok materii i energii jest to trzecia forma przejawiania się bytu. Rozwój nauk informacyjnych potwierdza to przekonanie. Pojęcie informacji od kilkudziesięciu lat jest poddawane rozmaitym badaniom. Matematycy, logicy, ale także ekonomiści i inżynierowie proponują różne teorie informacji. Można wskazać kilkanaście różnych teorii informacji będących obecnie przedmiotem badań przedstawicieli filozofii lub różnych dziedzin nauki. W niniejszym artykule zostaną wspomniane następujące teorie: matematyczna teoria komunikacji jako przykład analizy informacji w kategoriach komunikacji; algorytmiczna teoria informacji opisująca złożoność informacji; teoria informacji odwołująca się do logiki indukcyjnej; teoria informacji odwołująca się do logiki epistemicznej; standardowa koncepcja informacji. Zwrócimy uwagę na dwa przeciwstawne typy opisów zjawiska informacji: szacunkowy, oparty na ilościowej ocenie, i semantyczny, opisujący znaczenie informacji.
3 106 Jacek Wolski 2. MATEMATYCZNA TEORIA KOMUNIKACJI Literatura opisująca zagadnienie informacji wskazuje na Claude a E. Shannona jako twórcę pierwszej teorii informacji. W 1948 roku opublikował on artykuł Mathematical Theory of Communication, 1 w którym przedstawił matematyczny model przesyłania informacji za pomocą środków komunikacji, takich jak telegraf czy nadajnik radiowy. Praktyczne problemy, z jakimi stykał się autor w swojej pracy inżyniera, wymusiły ograniczenie zagadnienia do ściśle opisanego modelu. Model ten jest matematyczną idealizacją komunikacji. Zamiast analizować każdy możliwy sposób komunikacji, przykładowo akty mowy, sygnalizację świetlną czy łączność telegraficzną, autor decyduje się opisać pewien idealny system komunikacji. System taki składa się z następujących elementów: źródło informacji element, który produkuje wiadomości, nadawca wiadomości, nadajnik, który przetwarza wiadomość przy pomocy pewnej funkcji kodującej na sygnał, który może być przesyłany poprzez kanał, kanał, którego zadaniem jest przenoszenie sygnału przy pomocy medium, na przykład przewody telefoniczne lub fale radiowe, odbiornik, który przetwarza sygnał na wiadomość za pomocą odwrotnej funkcji dekodującej, dokonując rekonstrukcji wiadomości, odbiorca, który odbiera wiadomość. 2 Dla potrzeb omawianej modelowej sytuacji komunikacji, Shannon zakłada, że istnieje zbiór możliwych wiadomości, spośród których wybierana jest dokładnie jedna do przesłania. Wiadomość może być dowolnym (niekoniecznie sensownym) ciągiem znaków. Znaczenie wiadomości zostaje pominięte, ponieważ dla badanego problemu przesyłania informacji jest ono nieważne. Model komunikacji rozpatrywany jest przez Shannona w dwóch wersjach. W pierwszej z nich, pominięty zostaje problem szumów (zakłóceń), które są generowane poza modelem komunikacji. Jest to sytuacja idealna, niewystępująca w rzeczywistości. W drugiej z nich, autor wprowadza pojęcie szumu i bada jego wpływ na możliwości przesyłania wiadomości, w tym na jakość wiadomości wobec poziomu szumu. Kanał komunikacji może być opisany przez pojęcie pojemności. Pojemność jest parametrem określającym maksymalną miarę szybkości nadawania sygnału przez dany kanał. Przyjmując dla każdego symbolu jego określony czas zajmowania kanału komunikacyjnego, Shannon proponuje wzór określający pojemność kanału: log 2 NT ( ) (C) C = lim, x T 1 (Shannon 1948). 2 (Shannon 1948, s. 381).
4 Miara ilości informacji a jej znaczenie 107 gdzie N(T) oznacza liczbę dozwolonych sygnałów w czasie T. 3 Jednostką pojemności jest bit na sekundę. 4 W kolejnych częściach swego artykułu Shannon odpowiada na następujące pytania: czym jest źródło informacji, jakiej jakości jest informacja produkowana przez badane źródło, jaki jest wpływ czynników zewnętrznych na przesyłane komunikaty. Ze względu na opisywane zagadnienie informacji, najbardziej interesującą częścią wspomnianej pracy jest ta, która dotyczy niepewności i entropii, gdyż związana jest bezpośrednio z opisem informacji. Shannon zadaje sobie bowiem pytanie, w jaki sposób zmierzyć niepewność jednego ze zdarzeń zawartych w zbiorze możliwych zdarzeń, gdzie dla każdego zdarzenia znane jest prawdopodobieństwo jego wystąpienia. Funkcja opisująca odpowiedź, która ma dostarczać takiej wiedzy, powinna być wedle autora ciągła i monotoniczna, jeśli wszystkie zdarzenia są tak samo możliwe. Funkcja taka powinna także spełniać warunek zależności wartości od sumy zdarzeń o ile wybór może być podzielony na dwa podobne wybory. 5 Opierając się na wcześniejszych badaniach w zakresie termodynamiki, autor proponuje do tej roli funkcję entropii H, która spełnia wymienione warunki i definiuje ją za pomocą wzoru: (H) H = K p log 2 ( p ), n i= 1 i i gdzie K jest dodatnią stałą. Jednostką tak definiowanej miary entropii jest bit na symbol. Entropia H jest proporcjonalna do ilości informacji produkowanej przez źródło. Opisuje średni poziom niesionej informacji przez ciąg symboli. Wzór (H) jest konsekwencją uogólnienia wyników analizy statystycznego prawdopodobieństwa wystąpienia symbolu. Bliższa analiza wprowadzonego pojęcia entropii wskazuje na poprawność powyższego ujęcia. Przykładowo, miara entropii jest równa zeru, o ile wszystkie zdarzenia, prócz jednego, są niemożliwe. Podobnie intuicyjnie entropia jest największa w systemach, gdzie prawdopodobieństwo wyboru jednego z symboli jest stałe i równe dla każdego z symboli. Z punktu widzenia praktycznego zastosowania matematycznej teorii komunikacji, najważniejsze są dwa twierdzenia opisujące zależność pomiędzy entropią wiadomości a pojemnością kanału. Shannon dowodzi, że dla źródła o określonej entropii H, kanale o pewnej pojemności C i zerowym poziomie szumu, wiadomość może być 3 (Shannon 1948, s. 382). 4 Jednostka miary zależy od podstawy logarytmu. Jeśli podstawa logarytmu wynosi 2, to wówczas jednostką jest bit na symbol (odpowiednio 10 dit na symbol, e nit na symbol). 8 bitów jest nazywane bajtem. Rozróżnienie jednostek obowiązuje także w dalszej części artykułu. 5 (Shannon 1948, s. 389).
5 108 Jacek Wolski przesłana przy średniej prędkości nie wyższej niż iloraz pojemności i entropii. 6 Podobne twierdzenie opisuje zależność pomiędzy pojemnością a entropią, przy założeniu danego poziomu szumu. Otóż jeśli entropia H jest niewiększa niż pojemność kanału, to istnieje system kodowania taki, że wiadomość może być transmitowana przez kanał z małą częstością błędów. W przeciwnym wypadku, jeśli entropia H jest większa niż pojemność kanału C, to jest możliwe takie kodowanie wiadomości, że ewentualne błędy będą mniejsze niż H-C+ε, gdzie ε jest pewną wielkością stałą. 7 Jako egzemplifikację matematycznej teorii komunikacji (w dalszym ciągu będę się posługiwał skrótem MTC) rozważmy skończony zbiór symboli S = {A 1, A 2, A 3, A 4 }. Jeśli dla każdego symbolu zostanie założony ten sam poziom prawdopodobieństwa w wysokości 0,25, to wówczas entropia obliczona na podstawie wzoru (H) wyniesie 2 bity na symbol. Natomiast jeśli dla każdego symbolu zostanie przyjęty inny poziom prawdopodobieństwa, przykładowo: p(a 1 ) = 0,6 p(a 2 ) = 0,1 p(a 3 ) = 0,2 p(a 4 ) = 0,1 entropia wyniesie 1,57 bita na symbol. Jeśli dla każdej jednostki czasu T równej 1 sekundzie, liczba dozwolonych sygnałów w jednostce czasu jest identyczna i wynosi 2 symbole, wówczas pojemność kanału C wynosi, zgodnie ze wzorem (C), 1 bit na sekundę. Zatem średni poziom prędkości przesłania sygnału, który jest losowo wybraną wiadomością ze zbioru symboli, wyniesie 2 symbole na sekundę. Natomiast w drugim rozpatrywanym przypadku, gdy wiadomość jest układana z symboli występujących z pewną częstością, średnia prędkość przesyłania wiadomości wyniesie 1,57 symboli na sekundę. Podsumowując, Shannon proponuje matematyczny opis komunikacji. Informację postrzega w kategoriach własności symboli użytych do przesłania wiadomości. Znaczenie informacji jest umyślnie pominięte, a ilość informacji jest odwrotnie proporcjonalna do prawdopodobieństwa wystąpienia danego symbolu, co w konsekwencji sprowadza się do tego, że im mniejsze jest prawdopodobieństwo przesyłanej wiadomości, tym większą informację niesie taka wiadomość. W omawianej koncepcji Shannona nie można stwierdzić explicite zależności pomiędzy ilością informacji a jej znaczeniem. Jeśli zostanie wykazany stosunek pomiędzy prawdopodobieństwem informacji a jej znaczeniem, wówczas pośrednio można ocenić relację ilości i znaczenia informacji. 6 (Shannon 1948, s. 395). 7 (Shannon 1948, s. 401).
6 Miara ilości informacji a jej znaczenie ALGORYTMICZNA TEORIA INFORMACJI MTC nie jest jedyną teorią, która szacuje liczbowo ilość informacji. Opierając się na wynikach osiąganych w informatyce, niektórzy zaproponowali inne podejście do problemu ilości informacji. Ich badania są podstawą algorytmicznej teorii informacji. Kluczową ideą tej koncepcji jest założenie, że teoria, która wyjaśnia zjawisko X, jest swego rodzaju programem komputerowym, który oblicza X. Zatem taki program musi być w pewnym sensie mniejszy niż samo zjawisko, które wyjaśnia. Koncepcja informacji opiera się na takim stwierdzeniu i wynikach osiągniętych przy badaniu złożoności w informatyce. Algorytmiczna teoria informacji definiuje złożoność informacji lub inaczej zawartość informacji X w kategoriach wielkości H(X), czyli najmniejszego możliwego programu komputerowego, który oblicza X. Analogicznie, H(X) może być traktowane jako złożoność najprostszej teorii wyjaśniającej X. 8 Złożoność obliczeniowa może być opisana w każdym znanym języku programowania, przykładowo C, LOGO, LISP czy PASCAL, o ile można w nim zbudować uniwersalną maszynę Turinga. Zależność ta wynika z tego, że złożoność obliczeniowa algorytmu jest zwykle opisywana formalnie za pomocą maszyny Turinga. Maszyna Turinga służy do formalnej symulacji pracy dowolnego komputera. Najprostsza definicja zawartości algorytmicznej informacji, tak zwanej złożoności Kołmogorowa, wyraża się wzorem: (O) H(s) = min(l(y) + l(s)) dla każdej funkcji opisanej jako s = p(y), gdzie p oznacza pewien program, który przetwarza dane wejściowe y na ciąg s, a następnie zatrzymuje się. Zgodnie z opisanym wzorem, złożoność obliczeniowa jest najmniejszą sumą długości programów l(s) i l(y). Najprostszy program, który może obliczyć dany ciąg s, dajmy na to s = ( ), to jedna linia kodu zapisana na przykład w języku programowania C: println( ); Taki program działa bez danych wejściowych. Wypisuje żądany ciąg s i zatrzymuje się. Złożoność takiej informacji wynosi H(s) = O(n). Zapis ten oznacza, że złożoność obliczeniowa jest proporcjonalna do długości informacji s, która jest przedmiotem obliczeń. W zależności od typu informacji można wskazać różne poziomy złożoności obliczeniowej. 9 Warto zauważyć, że dany algorytm zapisany w postaci programu w jednym języku programowania może być przeniesiony, przetłumaczony, na inny dowolny język programowania. Oznacza to, że każdy język może być wykorzystany do wyli- 8 (Chaitin 2003). 9 (Grünwald, Vitanyi 2008).
7 110 Jacek Wolski czania złożoności, ponieważ złożoność takiego przekładu jest wielomianowa, a zatem wprost proporcjonalna do długości programu. 10 Potoczne intuicje wiążą pojęcie informacji z pewnymi stanami zachodzącymi w świecie. Zwykle uznaje się, że informacja mówi o czymś czy jest na jakiś temat. Warto zauważyć, że informacja w omawianej koncepcji nie spełnia tego warunku. Zawartość informacji w tej koncepcji dotyczy tylko i wyłącznie informacji jako pewnego ciągu s, bez żadnych związków z treścią informacji. Idea tej koncepcji, by przedstawiać wartość zawartości informacji, przy pominięciu znaczenia, jako wielkość najmniejszego programu, który oblicza daną informację, ma jedną wadę. Program, który drukuje dany ciąg i zatrzymuje się, może być różnej długości, przy czym nie ma żadnego algorytmu, który mógłby określić, że dany program jest najkrótszym z możliwych. Niektórzy, na przykład Gregory Chaitin, wprowadzają dodatkową wartość elegancji programu, który określa prostotę badanego programu. W ten sposób można prowadzić badania i szukać lepszych algorytmów i ich zapisu w formie programu, zgodnie z opisanym kryterium. Badanie i porównywanie algorytmów opiera się na ocenie ich prostoty, stopnia minimalizacji wykorzystania posiadanych zasobów lub szybkości działania w zależności od ilości danych wejściowych. 11 Jako egzemplifikację złożoności informacji rozważmy zbiór symboli S = {A 1, A 2, A 3, A 4 }. Informacją w tym przypadku może być ciąg (A 4, A 1, A 2, A 3 ). Program, który oblicza taką informację, może być zapisany w co najmniej dwóch postaciach w języku zbliżonym do C, gdzie zapis S(0) oznacza wybranie pierwszego elementu z czteroelementowej tablicy S, S(1) drugiego, S(2) trzeciego, a S(3) czwartego. Zakładam, że tablica S, reprezentująca zbiór symboli, została wcześniej zdefiniowana w programie. Wersja 1 1 println(s(3),s(0),s(1),s(2)); Wersja 2 1 k=0; 2 for(i=0,3){ 3 k=(k+3)mod 4; 4 println(s(k));} W wersji 1 szukany ciąg jest wyświetlany na monitorze za pomocą funkcji println. Funkcja ta jest najprostszym sposobem na wysłanie ciągu znaków na ekran monito- 10 (Markowsky 1996, s. 254). 11 (Markowsky 1996, s. 260).
8 Miara ilości informacji a jej znaczenie 111 ra. W wersji 2 algorytm jest oparty na pętli for i obliczeniach wskazujących kolejny wyświetlany element. Linia 1 określa parametry wejściowe. Linie 2-4 dotyczą pętli for. Linia 2 wskazuje jak długo będzie działał program, tj. od 0 do 3 (pętla zostanie wykonana dokładnie 4 razy, a potem program się zatrzyma). Linia 3 oblicza wartość k, która w linii 4 jest argumentem instrukcji S(k) przywołującej wartość elementu k tablicy S. Wielkość programu w wersji pierwszej wynosi 29 znaków. Przy założeniu, że jeden znak języka programowania wysokiego poziomu, takiego jak język C, jest kompilowany do dokładnie jednego bajtu programu, wielkość programu wynosi 29 bajtów. Wielkość programu w wersji 2 jest nieco dłuższa i wynosi 43 bajtów. W rezultacie oba programy, choć wypisują taką samą informację długości 4 bajtów, mają różną wielkość. Wersja 2, choć większa w stosunku do wersji 1, w prosty sposób może być dostosowana do wyświetlania dłuższej informacji. Złożoność obliczeniowa jest nadal rzędu O(n), ponieważ wielkość programu jest zależna od wielkości n, która opisuje długość badanego ciągu s. 4. INFORMACJA W UJĘCIU CARNAPA I BAR-HILLELA W latach pięćdziesiątych R. Carnap i Y. Bar-Hillel prowadzili badania nad logiką indukcji. Indukcja, jako forma wnioskowania zawodnego, miała być sformalizowana na podobieństwo innych sposobów dowodzenia. Taki zakres badań był inicjowany rozwojem filozofii nauki. 12 Podstawą logiki indukcyjnej, zgodnie z wynikami badań Carnapa, miała być funkcja prawdopodobieństwa. W przeciwieństwie do koncepcji Shannona, który mówił o prawdopodobieństwie statystycznym, Carnap zaproponował prawdopodobieństwo polegające na stopniu potwierdzenia badanej hipotezy na podstawie posiadanych dowodów. 13 (Warto zauważyć, że Carnap w późniejszych latach zmienił swoje poglądy co do znaczenia prawdopodobieństwa). Koncepcja informacji w logice indukcyjnej oparta jest na pewnym logicznym modelu świata. Carnap proponuje metodę obliczania prawdopodobieństwa potwierdzenia (konfirmacji) w prostej przestrzeni logicznej. Ogranicza on bowiem język indukcji do klasycznych spójników, takich jak negacja czy alternatywa i ściśle określanego zbioru nazw, który jednocześnie wyznacza zbiór przedmiotów w tym uniwersum, oraz zbioru predykatów jednoargumentowych. 14 Podstawowymi elementami świata są Q-predykaty, czyli koniunkcje wszystkich jednoargumentowych predykatów, zwanych przez Carnapa prostymi. Różnią się one od siebie tylko liczbą zanegowanych predykatów. Każdy z predykatów prostych może być zdefiniowany jako alternatywa Q-predykatów. Ponieważ Q-predykaty obejmują wszystkie predykaty proste z danego zbioru, liczba wszystkich Q-predykatów wynosi: 12 (Carnap 1966, s. 248). 13 (Carnap 1963, s. 67). 14 (Mortimer 1982, s. 64).
9 112 Jacek Wolski k=2 r, gdzie r to liczba predykatów prostych. Carnap wprowadza dodatkowo dwie konstrukcje, które opierają się na wprowadzonych Q-predykatach. W języku Carnapa można mówić o opisach świata (state descriptions) i opisach statystycznych (structure descriptions). Te dodatkowe konstrukcje są ważne dla obliczenia miary i zawartości informacji (content of information). 15 Każdy opis świata jest koniunkcją n Q-predykatów, gdzie argumentem jest nazwa przedmiotu, n jest liczbą tych nazw. Przy czym należy zaznaczyć, że każdy człon koniunkcji opisuje inny przedmiot. Każdy opis charakteryzuje kompletnie świat. Zatem każde możliwe zdanie w języku J bądź jest sprzeczne z pewnym opisem świata, bądź wynika z tego opisu świata. Opis świata może być traktowany jako syntaktyczny korelat świata możliwego. Liczba opisów świata, opisanych światów możliwych, wynosi k*n, gdzie k jest liczbą Q-predykatów, a n jest liczbą nazw w badanym języku J. Opis statystyczny jest alternatywą podobnych opisów świata. Podobieństwo wynika z tego, że opisy świata mogą być pogrupowane wedle tego, jakie Q-predykaty są ujęte w danym opisie świata. Carnap nie wskazuje jednoznacznie jednego sposobu określania miary informacji. Wynika to stąd, że badacz ten najpierw określa istotne warunki, które winna spełniać miara informacji, a potem stara się je spełnić, zakładając Q-świat jako miejsce sprawdzania. Carnap uważa, że pojęcie miary informacji winno spełniać następujące warunki: a) inf(j) = 0, gdy j jest logicznie prawdziwe b) inf(j) = 1, gdy j jest logicznie fałszywe c) 0 [ inf(j) [ 1, jeśli j jest faktem d) inf(i j) [ inf(j) [ inf(i j), gdzie inf(j) oznacza miarę informacji zdania j. 16 Warunki te spełnia funkcja miary informacji inf: 1 (inf) inf( i) = log2, 1 cont( i) gdzie cont jest funkcją miary zawartości informacji. Można opisać wartość funkcji cont(i) dla prostych zdań, każdego zdania złożonego ze zdań prostych i przedstawionego w dysjunkcyjnej lub koniunkcyjnej postaci normalnej i dla każdego Q-zdania. W tym ostatnim przypadku wartość ta wynosi: (cont) 1 cont() i = 1 2, r 15 (Mortimer 1982, s. 66). 16 (Carnap, Bar-Hillel 1952, s. 11).
10 Miara ilości informacji a jej znaczenie 113 gdzie r to liczba prostych predykatów. 17 Jak można zauważyć, miara zawartości informacji cont(i) określa średnią zawartość każdego Q-zdania. W tej koncepcji język, ograniczony tylko do skończonego zbioru predykatów jednoargumentowych i skończonego zbioru nazw, powoduje, że nie można wskazać wyróżnionego zbioru zdań, które niosłyby więcej informacji. Oznacza to niezależność zawartości informacji wobec potencjalnego znaczenia informacji. Skoro inf(i) jest proporcjonalna do cont(i), to cont(i) spełnia te same warunki co inf(i). Można wskazać tutaj na pewien paradoks polegający na tym, że wartość inf(i) wynosi 1, gdy i jest logicznie fałszywe, czyli gdy jest kontrtautologią, zatem zdania fałszywe zawierają więcej informacji niż zdania prawdziwe. Jest to sprzeczne z potocznymi intuicjami, które wyróżniają zdania prawdziwe jako ważniejsze, niosące więcej informacji. Jednak Carnap nie uważa takiej sytuacji za paradoksalną. Twierdzi bowiem, że zdania fałszywe niosą zbyt dużo informacji, zbyt wiele mówią o świecie, by być prawdziwe. 18 Warto zauważyć, że prace Carnapa i Bar-Hillela obejmowały znacznie większy zakres zagadnień niż przedstawiany tutaj. Celem Carnapa była formalizacja procesu indukcji, łącznie ze wskazaniem sposobu określania prawdopodobieństwa prawdziwości hipotezy na podstawie zebranych dowodów. Jednak przyjęcie ubogiego języka ogranicza potencjalne wyniki. Niewiele teorii naukowych operuje językiem, który składa się tylko ze skończonego zbioru predykatów jednoargumentowych i skończonego zbioru nazw wyznaczającego jednocześnie zbiór wszystkich przedmiotów uniwersum. Rozważmy przykład. Niech będzie dany zbiór symboli S S = {A 1, A 2, A 3, A 4 }. Symbole te mogą oznaczać w omawianej koncepcji nazwy pewnego skończonego zbioru przedmiotów. Wówczas należy określić zbiór predykatów jednoargumentowych, który definiowałby język. Dla potrzeb przykładu przyjmijmy, że istnieje tylko jeden predykat P. Zatem język L składa się dokładnie z 4 stanów atomowych, 2 Q-predykatów i 16 stanów świata. Wartość miary zawartości informacji wynosi, zgodnie z wzorem (cont): cont(i)=0,5. Wartość miary informacji wynosi, na podstawie wzoru (inf): inf(i)=1. W tej koncepcji nie zostały określone jednostki informacji. Wykorzystanie w definicji inf miary informacji logarytmu o podstawie 2 wskazuje, że można mówić w tym wypadku o bicie jako jednostce. W omawianym przykładowym języku, miara za- 17 (Carnap, Bar-Hillel 1952, s. 17). 18 (Carnap, Bar-Hillel 1952, s. 7-9).
11 114 Jacek Wolski wartości informacji rozkłada się równomiernie według Q-predykatów. Miara informacji jest proporcjonalna do zawartości. Carnap mówi tylko o ilościowym charakterze informacji. Pomija jej znaczenie. 5. OGÓLNA DEFINICJA INFORMACJI Badania nad pojęciem informacji są prowadzone na różnych polach współczesnej logiki. Są oparte na wynikach rozwoju szczególnych gałęzi logiki, na przykład logiki sytuacyjnej. 19 Niektórzy badacze zaproponowali standardową definicję informacji (SDI Standard Definition of Information) znaną również jako ogólna definicja informacji (GDI General Definition of Information). Logika sytuacyjna winna dostarczać tej koncepcji zaplecza formalnego. 20 Definicja informacji w tej koncepcji brzmi następująco: (D) s jest informacją, wtedy i tylko wtedy gdy: s zawiera n danych; dane są dobrze uformowane; dobrze uformowane dane mają znaczenie. Dane, będące podstawą definicji (D), są prostymi elementami, częściami otaczającej podmiot rzeczywistości, które nie są jednostkowe. Dane te mogą być podstawą wrażeń zmysłowych. Mogą być także traktowane jako fenomeny świata. Ten typ danych związany jest z elementami świata, z którymi pewna osoba wchodzi w interakcje. Danymi są także różnice pomiędzy dwiema sytuacjami, które następują po sobie lub które współwystępują jednocześnie. Brak jedności, który jest jedynym warunkiem bycia daną, może pojawiać się pomiędzy dwiema literami alfabetu. Oba scharakteryzowane typy danych dotyczą interpretacji pewnych doznań podmiotu w kategoriach danych. 21 Pierwszy warunek definicji informacji (D) podkreśla tę cechę informacji, która polega na tym, że informacja bez danych nie jest informacją. Dane, o jakich mowa w definicji (D), są warunkiem wystarczającym i koniecznym informacji. Dane te mogą należeć do jednej z czterech kategorii: 1. dane pierwotne powszechnie postrzegane podstawowe dane, które mogą być zawarte w różnych bazach danych, takich jak tablice numerów czy w postaci zawartości książek w bibliotece; 2. metadane określają ważne cechy danych pierwotnych potrzebne dla różnych systemów zarządzania bazami danych; należą do nich np. miejsce przechowywania, dostęp, ograniczenia praw autorskich i inne; 3. dane operacyjne określane jako operacje całego systemu baz danych; 19 (Barwise, Perry 1983). 20 (Floridi 2005a, s. 353). 21 (Floridi 2005b).
12 Miara ilości informacji a jej znaczenie dane derywacyjne wszystkie te dane, które wynikają z powyższych trzech kategorii. 22 Drugi warunek definicji (D) dotyczy składni danych. Informacja nie jest chaotycznie uporządkowanymi danymi. Dane są ułożone zgodnie z założoną dla danego kodu czy języka składnią. Pojęcie składni nie powinno być tutaj ujmowane lingwistycznie, lecz raczej w kategoriach formy lub zasad. Natomiast spełnienie trzeciego warunku definicji (D) powoduje, że dane składające się na informację muszą posiadać znaczenie semantyczne. Warunek ten można traktować w kategoriach denotacji i konotacji. Tak opisaną definicję informacji można dodatkowo uszczegółowić, wskazując na pewne dodatkowe cechy, które wskazują na neutralność wobec niektórych aspektów rzeczywistości. Można wyróżnić następujące typy neutralności danych: wobec typów, wobec klasyfikacji, wobec ontologii, neutralność genetyczna, neutralność aletyczna. Obojętność wobec typów oznacza, że informacje mogą składać się z danych różnych typów czy rodzajów. Dane mogą być różne i różnie reprezentowane przez kod, sygnały, postrzeżenia czy związek pomiędzy nimi. Neutralność taksonomiczna stwierdza, że dane są bytami, które pozostają w relacji z innymi danymi. Dane nie występują samodzielnie, są powiązane ze sobą pewnymi związkami. Pusta strona na ekranie również jest daną, choć intuicyjnie wydaje się, że dopiero pierwszy znak, który się pojawi na skutek naciśnięcia klawisza klawiatury, niesie jakąkolwiek informację. Bycie daną jest zewnętrzną cechą, a nie istotą czegokolwiek. 23 Neutralność ontologiczna wskazuje na to, że informacja musi składać się z danych. W omawianej koncepcji odrzucona zostaje możliwość istnienia informacji bez danych. Jeśli ujmować ten warunek materialistycznie, dane reprezentują fizyczny świat. Dane mogą być każdym elementem rzeczywistości. 24 Neutralność genetyczna określa stosunek informacji wobec odbiorcy informacji. Dane niosą informacje niezależnie od istnienia odbiorcy czy nadawcy informacji. Zakodowany telegram zawiera informację, choć jest ona jeszcze niezrozumiała. Przedstawiona definicja informacji może zostać sformalizowana za pomocą narzędzi logiki sytuacyjnej. Logika sytuacyjna operuje modelem, którego częścią jest sytuacja jako pewien wydzielony fragment rzeczywistości. Logika ta jednak nie dostarcza opisu ilości informacji (Floridi 2005a, s. 354). 23 (Floridi 2005a, s. 356). 24 (Floridi 2005a, s. 357). 25 (Israel, Perry 1990).
13 116 Jacek Wolski Jako przykład standardowej definicji informacji, należy rozważyć zbiór symboli S = {A 1, A 2, A 3, A 4 }, gdzie każdy symbol oznacza pojedyncze datum, pojedynczy znak pochodzący z 4-znakowego alfabetu. Wówczas informacją można nazwać jedynie konstrukt, który składa się z co najmniej jednego symbolu, jednocześnie jest dobrze uformowany wedle określonej składni i ma znaczenie w szerokim sensie tego słowa. Aby przedstawić egzemplifikację tej koncepcji informacji, należy dysponować składnią i semantyką takiego alfabetu. Ta koncepcja koncentruje się na aspekcie znaczeniowym informacji i jej relacji ze światem. Zaproponowany model jednak nie uwzględnia ilościowego aspektu informacji. Można ewentualnie rozważać przeliczalny zbiór informacji wynikający ze zbioru danych. W koncepcji tej nie można wskazać zależności pomiędzy ilością a znaczeniem informacji. 6. INFORMACJA W TERMINACH LOGIKI EPISTEMICZNEJ Niektórzy badacze zaproponowali formalizacje modalności posiadania przekonań, klasycznie wyrażanej operatorem wie, że. Do opisu wiedzy w logice epistemicznej często korzysta się z modelu opracowanego w latach sześćdziesiątych przez Saula Kripkego. Model ten wykorzystuje pojęcie światów możliwych do rozróżniania pomiędzy różnymi stanami epistemicznymi. Stany te obrazują wiedzę podmiotu. Model Kripkego M jest strukturą {S, V, R}, gdzie: S to niepusty zbiór światów możliwych V to funkcja interpretacji, która każdej zmiennej zdaniowej przypisuje podzbiór zbioru świata możliwego, czyli zbiór tych światów możliwych, w których prawdziwe jest dane zdanie atomowe, R jest relacją dostępności (accessibility) zdefiniowaną na zbiorze S. W takiej przestrzeni zostaje zdefiniowany operator Kφ, który można wyrazić w postaci wie, że φ : M, s Ñ Kϕ t R(s, t) M, s Ñ ϕ, gdzie s, t są elementami zbioru S. Relacja R wyróżnia jeden świat możliwy, jako korelat semantyczny aktualnej wiedzy podmiotu. Wiążąca jest w badanym modelu następująca definicja przykładowego spójnika negacji: M, s Ñ ~ϕ ~(M, s Ñ ϕ). Minimalny system wiedzy K składa się ze wszystkich aksjomatów klasycznego rachunku zdań i jednego aksjomatu występującego we wszystkich tzw. systemach
14 Miara ilości informacji a jej znaczenie 117 normalnych logiki, gdzie miejsce operatora konieczności zajmuje operator wiedzy K. Aksjomat ten brzmi następująco: K(ϕ ψ) (Kϕ Kψ). Jako reguły inferencji należy przyjąć reguły systemów logiki modalnej z odpowiednią zmianą operatora konieczności na operator K. Można dowieść, że taki system K jest niesprzeczny i zupełny. Dalsze uzupełnianie aksjomatów systemu K prowadzi do powstania systemów o strukturze odpowiednio T, S4 lub S5. 26 Przedstawiony system K dotyczy tylko jednego agenta. Operator modalny K może być zdefiniowany w taki sposób, by określać stany epistemiczne dla skończonego zbioru agentów. Wówczas należy omawiany system K uzupełnić w taki sposób, by jednoznacznie rozróżnić pomiędzy światami możliwymi opisującymi wiedzę danego agenta. Wówczas operator K i x oznacza agent i wie, że x. Logika epistemiczna stanowi jednocześnie teorię informacji. Stany epistemiczne są stanami informacji, zatem w tej koncepcji wiedza i informacja są pojęciami równozakresowymi. W logice epistemicznej zostaje wprowadzone pojęcie informacji jako zasięgu, ponieważ każdy świat możliwy, opisujący wiedzę agenta, opisuje w swym zasięgu posiadane przez agenta informacje. Przekonania i informacje są wynikiem czynności, aktywności agenta. Komunikowanie się z innymi, obserwacja otaczającego świata czy rozumowania traktowane jako łączenie informacji pochodzących z wcześniej wymienionych źródeł, pozwala na zmianę stanów epistemicznych, a co za tym idzie, znanych informacji agenta. 27 Ważną cechą logiki epistemicznej jest jej rozszerzenie o elementy dynamiczne. Dynamiczna logika epistemiczna opisuje zmianę stanów epistemicznych na skutek działań innych agentów i. Zachowuje przy tym cechy formalne prezentowanej logiki typu K czy innych. Znanym i dobrze zbadanym rozszerzeniem jest PAL (Public Announcement Logic), czyli logika publicznego ogłoszenia. PAL formalizuje działanie agenta, który ogłasza wśród innych agentów pewną informację. Informacja ta zmienia stany epistemiczne, zakres wiedzy słuchaczy, może stać się bowiem częścią wiedzy wspólnej (common knowledge). 28 Rozważmy przykład zbioru symboli S: S = {A 1, A 2, A 3, A 4 }. W epistemicznej koncepcji informacji nie ma odniesienia do miary informacji. Natomiast każda informacja ma określone znaczenie, ponieważ dla każdej informacji, utożsamianej z stanem epistemicznym, istnieje dokładnie jeden świat możliwy jako korelat semantyczny. Wynika to z wprowadzonej funkcji V w modelu Kripkego. 26 (Meyer 2001). 27 (van Benthem, Martinez 2008). 28 (Baltag, Ditmarsch, Moss 2008).
15 118 Jacek Wolski Chcąc opisać zbiór S w tej teorii, należy uzupełnić posiadane informacje o podmioty, które działają w przykładowej przestrzeni. Przy założeniu, że opis dotyczy tylko jednego podmiotu, należy wskazać zbiór światów możliwych tego agenta, co będzie się wiązało ze wskazaniem wartościowań dla każdego z tych światów. Częścią jednego, lub więcej światów, będą symbole pochodzące ze zbioru S. Ostatnim krokiem, jaki należy wykonać, jest określenie relacji dostępności dla danego agenta. W ten sposób opis informacji pojedynczego agenta w logice epistemicznej pozwala na wskazanie zakresu wiedzy i dynamiczną jej zmianę. 7. ZAKOŃCZENIE Przedstawiliśmy pięć ujęć zjawiska informacji. Jak się okazuje, możemy określić dwa dominujące typy opisywania informacji: szacunkowy, opierający się na wartości liczbowej informacji, semantyczny, wynikający z analizy znaczenia informacji. Każdy z wyznaczonych typów ma swoje zalety. Informacja, dla której można określić jej wartość ilościową, może być obiektywnie porównana z innymi w danym zbiorze. Ilościowa wartość informacji może być wykorzystana do podjęcia decyzji. Opis matematyczny pociąga także inne konsekwencje, dotyczące na przykład podstaw komunikacji. Na podstawie ilościowej definicji informacji można także próbować opracować formalną teorię informacji. Natomiast informacja opisywana w kategoriach semantycznych może być wykorzystana na innych polach filozofii. Takie określenie informacji może pozwolić na formalizację w sposób doskonalszy niektórych dziedzin filozofii, przykładowo epistemologii. Naturalne wydaje się pytanie o możliwość takiej teorii informacji, która łączy zalety każdego z wymienionych typów opisu informacji. Chodziłoby o taką modelową strukturę, która opisuje zarówno ilość informacji, jak i jej znaczenie. Mogłaby być ona wykorzystana przy automatyzacji systemów decyzyjnych, w badaniach nad sztuczną inteligencją czy przy projektowaniu inteligentnych komputerów. Przy odpowiednim poziomie formalizacji, logika informacji, zarówno przy opisie szacunkowym, jak i semantycznym, mogłaby być wykorzystana w projekcie ostatecznego opisu racjonalności ludzkości. BIBLIOGRAFIA Baltag A., Ditmarsch H., Moss L. (2008), Epistemic logic and information update, [w:] Philosophy of Information, red. Adriaans P., van Benthem J., Amsterdam, Elsevier, s Barwise K., Perry J. (1983), Situation and Attitudes, Cambridge, MIT Press. van Benthem J., Martinez M. (2008), The Stories of Logic and Information, [w:] Philosophy of
16 Miara ilości informacji a jej znaczenie 119 Information, red. Adriaans P., van Benthem J., Amsterdam, Elsevier, s Carnap R., Bar-Hillel Y. (1952), An Outline of a Theory of Semantic Information, Technical Report no. 247, Research Laboratory of Electronics, Massachusetts, s Carnap R. (1963), Remarks on Probability, [w:] Philosophical Studies, 14(5), s Carnap R. (1966), Probability and Content Measure, [w:] Mind, Matter and Method, red. P.K. Feyerabend, Minneapolis, s Chaitin G. (2003), Two philosophical applications of algorithmic information theory, [w:] Proceedings DMCTS'03, red. C.S. Calude, M.J. Dinneen, V. Vajnovszki, s Floridi L. (2005a), Is Semantic Information Meaningful Data?, [w:] Philosophy and Phenomenological Research, LXX(2), s Floridi L. (2005b), Semantic Conceptions of Information Stanford Encyclopedia of Philosophy, Grünwald P., Vitanyi P. (2008), Algorythmic Complexity, [w:] Philosophy of Information, red. Adriaans P., van Benthem J., Amsterdam, Elsevier, s Israel D., Perry J. (1990), What is Information?, [w:] Information, Language and Cognition, red. Philip Hanson, Vancouver, s Markowsky G. (1996), Introduction to Algorithmic Information Theory, [w:] Journal of Universal Computer Science, vol. 2 (5), s Meyer J. (2001), Epistemic Logic, [w:] Blackwell Guide to Philosophical Logic, Massachussets, s Mortimer H. (1982), Logika indukcji. Wybrane problemy, Warszawa, 1982, PWN. Shannon C. (1948), A Mathematical Theory of Communication, The Bell System Technical Journal, 27 (6-9), s ,
Logika Stosowana. Wykład 1 - Logika zdaniowa. Marcin Szczuka. Instytut Informatyki UW. Wykład monograficzny, semestr letni 2016/2017
Logika Stosowana Wykład 1 - Logika zdaniowa Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika Stosowana 2017 1 / 30 Plan wykładu 1 Język
prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz
WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn
Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu.
Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu. 1 Logika Klasyczna obejmuje dwie teorie:
Aproksymacja funkcji a regresja symboliczna
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(x), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(x), zwaną funkcją aproksymującą
Logika Stosowana. Wykład 7 - Zbiory i logiki rozmyte Część 3 Prawdziwościowa logika rozmyta. Marcin Szczuka. Instytut Informatyki UW
Logika Stosowana Wykład 7 - Zbiory i logiki rozmyte Część 3 Prawdziwościowa logika rozmyta Marcin Szczuka Instytut Informatyki UW Wykład monograficzny, semestr letni 2016/2017 Marcin Szczuka (MIMUW) Logika
Obliczenia inspirowane Naturą
Obliczenia inspirowane Naturą Wykład 01 Modele obliczeń Jarosław Miszczak IITiS PAN Gliwice 05/10/2016 1 / 33 1 2 3 4 5 6 2 / 33 Co to znaczy obliczać? Co to znaczy obliczać? Deterministyczna maszyna Turinga
Np. Olsztyn leży nad Łyną - zdanie prawdziwe, wartość logiczna 1 4 jest większe od 5 - zdanie fałszywe, wartość logiczna 0
ĆWICZENIE 1 Klasyczny Rachunek Zdań (KRZ): zdania w sensie logicznym, wartości logiczne, spójniki logiczne, zmienne zdaniowe, tabele prawdziwościowe dla spójników logicznych, formuły, wartościowanie zbioru
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
LOGIKA I TEORIA ZBIORÓW
LOGIKA I TEORIA ZBIORÓW Logika Logika jest nauką zajmującą się zdaniami Z punktu widzenia logiki istotne jest, czy dane zdanie jest prawdziwe, czy nie Nie jest natomiast istotne o czym to zdanie mówi Definicja
Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia
Informacja w perspektywie obliczeniowej Informacje, liczby i obliczenia Cztery punkty odniesienia (dla pojęcia informacji) ŚWIAT ontologia fizyka UMYSŁ psychologia epistemologia JĘZYK lingwistyka nauki
RACHUNEK ZDAŃ 7. Dla każdej tautologii w formie implikacji, której poprzednik również jest tautologią, następnik także jest tautologią.
Semantyczne twierdzenie o podstawianiu Jeżeli dana formuła rachunku zdań jest tautologią i wszystkie wystąpienia pewnej zmiennej zdaniowej w tej tautologii zastąpimy pewną ustaloną formułą, to otrzymana
w analizie wyników badań eksperymentalnych, w problemach modelowania zjawisk fizycznych, w analizie obserwacji statystycznych.
Aproksymacja funkcji a regresja symboliczna Problem aproksymacji funkcji polega na tym, że funkcję F(), znaną lub określoną tablicą wartości, należy zastąpić inną funkcją, f(), zwaną funkcją aproksymującą
Wstęp do logiki. Semiotyka cd.
Wstęp do logiki Semiotyka cd. Semiotyka: język Ujęcia języka proponowane przez językoznawców i logików różnią się istotnie w wielu punktach. Z punktu widzenia logiki każdy język można scharakteryzować
0 + 0 = 0, = 1, = 1, = 0.
5 Kody liniowe Jak już wiemy, w celu przesłania zakodowanego tekstu dzielimy go na bloki i do każdego z bloków dodajemy tak zwane bity sprawdzające. Bity te są w ścisłej zależności z bitami informacyjnymi,
DODATEK 1: Wtedy h(α) = 1 oraz h(β) = 0. Jak pamiętamy ze szkoły, obraz sumy zbiorów jest sumą obrazów tych zbiorów. Mamy zatem:
DODATEK 1: DOWODY NIEKTÓRYCH TWIERDZEŃ DOTYCZACYCH SEMANTYKI KLASYCZNEGO RACHUNKU ZDAŃ 2.2. TWIERDZENIE O DEDUKCJI WPROST (wersja semantyczna). Dla dowolnych X F KRZ, α F KRZ, β F KRZ zachodzą następujące
Logika intuicjonistyczna
Logika intuicjonistyczna Logika klasyczna oparta jest na pojęciu wartości logicznej zdania. Poprawnie zbudowane i jednoznaczne stwierdzenie jest w tej logice klasyfikowane jako prawdziwe lub fałszywe.
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Elementy logiki. Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń
Elementy logiki Wojciech Buszkowski Wydział Matematyki i Informatyki UAM Zakład Teorii Obliczeń 1 Klasyczny Rachunek Zdań 1.1 Spójniki logiczne Zdaniem w sensie logicznym nazywamy wyrażenie, które jest
Logika Matematyczna (1)
Logika Matematyczna (1) Jerzy Pogonowski Zakład Logiki Stosowanej UAM www.logic.amu.edu.pl pogon@amu.edu.pl 4 X 2007 Jerzy Pogonowski (MEG) Logika Matematyczna (1) 4 X 2007 1 / 18 Plan konwersatorium Dzisiaj:
Metoda tabel semantycznych. Dedukcja drogi Watsonie, dedukcja... Definicja logicznej konsekwencji. Logika obliczeniowa.
Plan Procedura decyzyjna Reguły α i β - algorytm Plan Procedura decyzyjna Reguły α i β - algorytm Logika obliczeniowa Instytut Informatyki 1 Procedura decyzyjna Logiczna konsekwencja Teoria aksjomatyzowalna
Reguły gry zaliczenie przedmiotu wymaga zdania dwóch testów, z logiki (za ok. 5 tygodni) i z filozofii (w sesji); warunkiem koniecznym podejścia do
Reguły gry zaliczenie przedmiotu wymaga zdania dwóch testów, z logiki (za ok. 5 tygodni) i z filozofii (w sesji); warunkiem koniecznym podejścia do testu z filozofii jest zaliczenie testu z logiki i zaliczenie
Rachunek logiczny. 1. Język rachunku logicznego.
Rachunek logiczny. Podstawową własnością rozumowania poprawnego jest zachowanie prawdy: rozumowanie poprawne musi się kończyć prawdziwą konkluzją, o ile wszystkie przesłanki leżące u jego podstaw były
Metoda Karnaugh. B A BC A
Metoda Karnaugh. Powszechnie uważa się, iż układ o mniejszej liczbie elementów jest tańszy i bardziej niezawodny, a spośród dwóch układów o takiej samej liczbie elementów logicznych lepszy jest ten, który
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Indukcja. Materiały pomocnicze do wykładu. wykładowca: dr Magdalena Kacprzak
Indukcja Materiały pomocnicze do wykładu wykładowca: dr Magdalena Kacprzak Charakteryzacja zbioru liczb naturalnych Arytmetyka liczb naturalnych Jedną z najważniejszych teorii matematycznych jest arytmetyka
Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.
Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie
Temat: Algorytm kompresji plików metodą Huffmana
Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik
Elementy logiki i teorii mnogości
Elementy logiki i teorii mnogości Zdanie logiczne Zdanie logiczne jest to zdanie oznajmujące, któremu można przypisać określoną wartość logiczną. W logice klasycznej zdania dzielimy na: prawdziwe (przypisujemy
Paradygmaty dowodzenia
Paradygmaty dowodzenia Sprawdzenie, czy dana formuła rachunku zdań jest tautologią polega zwykle na obliczeniu jej wartości dla 2 n różnych wartościowań, gdzie n jest liczbą zmiennych zdaniowych tej formuły.
1. Synteza automatów Moore a i Mealy realizujących zadane przekształcenie 2. Transformacja automatu Moore a w automat Mealy i odwrotnie
Opracował: dr hab. inż. Jan Magott KATEDRA INFORMATYKI TECHNICZNEJ Ćwiczenia laboratoryjne z Logiki Układów Cyfrowych ćwiczenie 207 Temat: Automaty Moore'a i Mealy 1. Cel ćwiczenia Celem ćwiczenia jest
166 Wstęp do statystyki matematycznej
166 Wstęp do statystyki matematycznej Etap trzeci realizacji procesu analizy danych statystycznych w zasadzie powinien rozwiązać nasz zasadniczy problem związany z identyfikacją cechy populacji generalnej
Wstęp do Techniki Cyfrowej... Algebra Boole a
Wstęp do Techniki Cyfrowej... Algebra Boole a Po co AB? Świetne narzędzie do analitycznego opisu układów logicznych. 1854r. George Boole opisuje swój system dedukcyjny. Ukoronowanie zapoczątkowanych w
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki
Studia Podyplomowe INFORMATYKA Podstawy Informatyki Wykład I: Kodowanie liczb w systemach binarnych 1 Część 1 Dlaczego system binarny? 2 I. Dlaczego system binarny? Pojęcie bitu Bit jednostka informacji
operacje porównania, a jeśli jest to konieczne ze względu na złe uporządkowanie porównywanych liczb zmieniamy ich kolejność, czyli przestawiamy je.
Problem porządkowania zwanego również sortowaniem jest jednym z najważniejszych i najpopularniejszych zagadnień informatycznych. Dane: Liczba naturalna n i ciąg n liczb x 1, x 2,, x n. Wynik: Uporządkowanie
Klasyczny rachunek predykatów
Kultura logiczna Klasyczny rachunek predykatów Bartosz Gostkowski bgostkowski@gmail.com Alfabet klasycznego rachunku zdań reguły konsytutywne języka Alfabet klasycznego rachunku predykatów (KRP Do alfabetu
Tautologia (wyrażenie uniwersalnie prawdziwe - prawo logiczne)
Tautologia (wyrażenie uniwersalnie prawdziwe - prawo logiczne) Definicja 1: Tautologia jest to takie wyrażenie, którego wartość logiczna jest prawdą przy wszystkich możliwych wartościowaniach zmiennych
Adam Meissner.
Instytut Automatyki i Inżynierii Informatycznej Politechniki Poznańskiej Adam Meissner Adam.Meissner@put.poznan.pl http://www.man.poznan.pl/~ameis SZTUCZNA INTELIGENCJA Podstawy logiki pierwszego rzędu
0.1. Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek zdań.
Wykłady z Analizy rzeczywistej i zespolonej w Matematyce stosowanej Wykład ELEMENTY LOGIKI ALGEBRA BOOLE A Logika podstawowe pojęcia: zdania i funktory, reguły wnioskowania, zmienne zdaniowe, rachunek
MATEMATYKA DYSKRETNA, PODSTAWY LOGIKI I TEORII MNOGOŚCI
MATEMATYKA DYSKRETNA, PODSTAWY LOGIKI I TEORII MNOGOŚCI Program wykładów: dr inż. Barbara GŁUT Wstęp do logiki klasycznej: rachunek zdań, rachunek predykatów. Elementy semantyki. Podstawy teorii mnogości
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Elementy logiki matematycznej
Elementy logiki matematycznej Przedmiotem logiki matematycznej jest badanie tzw. wyrażeń logicznych oraz metod rozumowania i sposobów dowodzenia używanych w matematyce, a także w innych dziedzinach, w
12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:
PRZYPOMNIJ SOBIE! Matematyka: Dodawanie i odejmowanie "pod kreską". Elektronika: Sygnały cyfrowe. Zasadę pracy tranzystorów bipolarnych i unipolarnych. 12. Wprowadzenie 12.1. Sygnały techniki cyfrowej
Teorioinformacyjne twierdzenie Gödla,
Teorioinformacyjne twierdzenie Gödla, czyli co ma logika do statystyki? Łukasz Dębowski ldebowsk@ipipan.waw.pl Instytut Podstaw Informatyki PAN Temat referatu Twierdzenie, o którym opowiem, jest pomysłem
Definicje. Algorytm to:
Algorytmy Definicje Algorytm to: skończony ciąg operacji na obiektach, ze ściśle ustalonym porządkiem wykonania, dający możliwość realizacji zadania określonej klasy pewien ciąg czynności, który prowadzi
Dowód pierwszego twierdzenia Gödela o. Kołmogorowa
Dowód pierwszego twierdzenia Gödela o niezupełności arytmetyki oparty o złożoność Kołmogorowa Grzegorz Gutowski SMP II rok opiekun: dr inż. Jerzy Martyna II UJ 1 1 Wstęp Pierwsze twierdzenie o niezupełności
Andrzej Wiśniewski Logika II. Wykłady 10b i 11. Semantyka relacyjna dla normalnych modalnych rachunków zdań
Andrzej Wiśniewski Logika II Materiały do wykładu dla studentów kognitywistyki Wykłady 10b i 11. Semantyka relacyjna dla normalnych modalnych rachunków zdań 1 Struktury modelowe Przedstawimy teraz pewien
Internet Semantyczny i Logika II
Internet Semantyczny i Logika II Ontologie Definicja Grubera: Ontologia to formalna specyfikacja konceptualizacji pewnego obszaru wiedzy czy opisu elementów rzeczywistości. W Internecie Semantycznym językiem
Algebrę L = (L, Neg, Alt, Kon, Imp) nazywamy algebrą języka logiki zdań. Jest to algebra o typie
3. Wykłady 5 i 6: Semantyka klasycznego rachunku zdań. Dotychczas rozwinęliśmy klasyczny rachunek na gruncie czysto syntaktycznym, a więc badaliśmy metodę sprawdzania, czy dana formuła B jest dowodliwa
technologii informacyjnych kształtowanie , procesów informacyjnych kreowanie metod dostosowania odpowiednich do tego celu środków technicznych.
Informatyka Coraz częściej informatykę utoŝsamia się z pojęciem technologii informacyjnych. Za naukową podstawę informatyki uwaŝa się teorię informacji i jej związki z naukami technicznymi, np. elektroniką,
5. Rozważania o pojęciu wiedzy. Andrzej Wiśniewski Wstęp do filozofii Materiały do wykładu 2015/2016
5. Rozważania o pojęciu wiedzy Andrzej Wiśniewski Andrzej.Wisniewski@amu.edu.pl Wstęp do filozofii Materiały do wykładu 2015/2016 Wiedza przez znajomość [by acquaintance] i wiedza przez opis Na początek
Spis treści. Definicje prawdopodobieństwa. Częstościowa definicja prawdopodobieństwa. Wnioskowanie_Statystyczne_-_wykład
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Definicje prawdopodobieństwa 1.1 Częstościowa definicja prawdopodobieństwa 1.1.1 Przykład 1.1.2 Rozwiązanie: 1.1.3 Inne rozwiązanie: 1.1.4 Jeszcze inne
Predykat. Matematyka Dyskretna, Podstawy Logiki i Teorii Mnogości Barbara Głut
Predykat Weźmy pod uwagę następujące wypowiedzi: (1) Afryka jest kontynentem. (2) 7 jest liczbą naturalną. (3) Europa jest mniejsza niż Afryka. (4) 153 jest podzielne przez 3. Są to zdania jednostkowe,
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO
SCHEMAT ROZWIĄZANIA ZADANIA OPTYMALIZACJI PRZY POMOCY ALGORYTMU GENETYCZNEGO. Rzeczywistość (istniejąca lub projektowana).. Model fizyczny. 3. Model matematyczny (optymalizacyjny): a. Zmienne projektowania
Paradygmaty programowania
Paradygmaty programowania Jacek Michałowski, Piotr Latanowicz 15 kwietnia 2014 Jacek Michałowski, Piotr Latanowicz () Paradygmaty programowania 15 kwietnia 2014 1 / 12 Zadanie 1 Zadanie 1 Rachunek predykatów
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych
Uniwersytet Zielonogórski Wydział Elektrotechniki, Informatyki i Telekomunikacji Instytut Sterowania i Systemów Informatycznych ELEMENTY SZTUCZNEJ INTELIGENCJI Laboratorium nr 6 SYSTEMY ROZMYTE TYPU MAMDANIEGO
prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA kod (pojęcie interdyscyplinarne) znak wiadomość ENTROPIA forma przekaz
WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (pojęcie interdyscyplinarne) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? Czy żyjemy w erze informacji? RACZEJ TAK:
Rekurencyjna przeliczalność
Rekurencyjna przeliczalność Jerzy Pogonowski Zakład Logiki Stosowanej UAM www.logic.amu.edu.pl pogon@amu.edu.pl Funkcje rekurencyjne Jerzy Pogonowski (MEG) Rekurencyjna przeliczalność Funkcje rekurencyjne
Matematyka ETId Elementy logiki
Matematyka ETId Izolda Gorgol pokój 131A e-mail: I.Gorgol@pollub.pl tel. 081 5384 563 http://antenor.pol.lublin.pl/users/gorgol Zdania w sensie logicznym DEFINICJA Zdanie w sensie logicznym - zdanie oznajmujace,
Ewa Wędrowska Ilościowe i jakościowe koncepcje informacji. Ekonomiczne Problemy Usług nr 57, 49-56
Ilościowe i jakościowe koncepcje informacji Ekonomiczne Problemy Usług nr 57, 49-56 2010 ZESZYTY NAUKOWE UNIWERSYTETU SZCZECIŃSKIEGO NR 597 EKONOMICZNE PROBLEMY USŁUG NR 57 2010 EWA WĘDROWSKA Uniwersytet
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Języki programowania zasady ich tworzenia
Strona 1 z 18 Języki programowania zasady ich tworzenia Definicja 5 Językami formalnymi nazywamy każdy system, w którym stosując dobrze określone reguły należące do ustalonego zbioru, możemy uzyskać wszystkie
Spacery losowe generowanie realizacji procesu losowego
Spacery losowe generowanie realizacji procesu losowego Michał Krzemiński Streszczenie Omówimy metodę generowania trajektorii spacerów losowych (błądzenia losowego), tj. szczególnych procesów Markowa z
Podstawy Informatyki. Algorytmy i ich poprawność
Podstawy Informatyki Algorytmy i ich poprawność Błędy Błędy: językowe logiczne Błędy językowe Związane ze składnią języka Wykrywane automatycznie przez kompilator lub interpreter Prosty sposób usuwania
Metoda Tablic Semantycznych
Procedura Plan Reguły Algorytm Logika obliczeniowa Instytut Informatyki Plan Procedura Reguły 1 Procedura decyzyjna Logiczna równoważność formuł Logiczna konsekwencja Procedura decyzyjna 2 Reguły α, β,
Podstawowe Pojęcia. Semantyczne KRZ
Logika Matematyczna: Podstawowe Pojęcia Semantyczne KRZ I rok Językoznawstwa i Informacji Naukowej UAM 2006-2007 Jerzy Pogonowski Zakład Logiki Stosowanej UAM http://www.logic.amu.edu.pl Dodatek: ściąga
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015
Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015 1 Metody numeryczne Dział matematyki Metody rozwiązywania problemów matematycznych za pomocą operacji na liczbach. Otrzymywane
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych:
W rachunku prawdopodobieństwa wyróżniamy dwie zasadnicze grupy rozkładów zmiennych losowych: Zmienne losowe skokowe (dyskretne) przyjmujące co najwyżej przeliczalnie wiele wartości Zmienne losowe ciągłe
Algorytm. a programowanie -
Algorytm a programowanie - Program komputerowy: Program komputerowy można rozumieć jako: kod źródłowy - program komputerowy zapisany w pewnym języku programowania, zestaw poszczególnych instrukcji, plik
Projekt 4: Programowanie w logice
Języki Programowania Projekt 4: Programowanie w logice Środowisko ECL i PS e W projekcie wykorzystane będzie środowisko ECL i PS e. Dostępne jest ono pod adresem http://eclipseclp.org/. Po zainstalowaniu
Myślenie w celu zdobycia wiedzy = poznawanie. Myślenie z udziałem rozumu = myślenie racjonalne. Myślenie racjonalne logiczne statystyczne
Literatura: podstawowa: C. Radhakrishna Rao, Statystyka i prawda, 1994. G. Wieczorkowska-Wierzbińska, J. Wierzbiński, Statystyka. Od teorii do praktyki, 2013. A. Aczel, Statystyka w zarządzaniu, 2002.
Rachunek predykatów. Formuły rachunku predykatów. Plan wykładu. Relacje i predykaty - przykłady. Relacje i predykaty
Rachunek predykatów Wykład 4 Plan wykładu Relacje i predykaty Formuły rachunku predykatów Interpretacje Logiczna równoważność Metoda tabel Modele skończone i nieskończone Rozstrzygalność Relacje i predykaty
Przykłady zdań w matematyce. Jeśli a 2 + b 2 = c 2, to trójkąt o bokach długości a, b, c jest prostokątny (a, b, c oznaczają dane liczby dodatnie),
Elementy logiki 1 Przykłady zdań w matematyce Zdania prawdziwe: 1 3 + 1 6 = 1 2, 3 6, 2 Q, Jeśli x = 1, to x 2 = 1 (x oznacza daną liczbę rzeczywistą), Jeśli a 2 + b 2 = c 2, to trójkąt o bokach długości
TEORETYCZNE PODSTAWY INFORMATYKI
1 TEORETYCZNE PODSTAWY INFORMATYKI WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Wykład 14c 2 Definicje indukcyjne Twierdzenia dowodzone przez indukcje Definicje indukcyjne Definicja drzewa
1. Wstęp do logiki. Matematyka jest nauką dedukcyjną. Nowe pojęcia definiujemy za pomocą pojęć pierwotnych lub pojęć uprzednio wprowadzonych.
Elementy logiki i teorii zbiorów. 1. Wstęp do logiki. Matematyka jest nauką dedukcyjną. Nowe pojęcia definiujemy za pomocą pojęć pierwotnych lub pojęć uprzednio wprowadzonych. Pojęcia pierwotne to najprostsze
TIMKoD - Lab 1 - Przybliżenie języka naturalnego
TIMKoD - Lab 1 - Przybliżenie języka naturalnego 28 lutego 2018 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików.pdf, sformatowanych podobnie do tego dokumentu.
JAKIEGO RODZAJU NAUKĄ JEST
JAKIEGO RODZAJU NAUKĄ JEST INFORMATYKA? Computer Science czy Informatyka? Computer Science czy Informatyka? RACZEJ COMPUTER SCIENCE bo: dziedzina ta zaistniała na dobre wraz z wynalezieniem komputerów
Andrzej Wiśniewski Logika II. Materiały do wykładu dla studentów kognitywistyki
Andrzej Wiśniewski Logika II Materiały do wykładu dla studentów kognitywistyki Wykład 5. Wprowadzenie do semantyki teoriomodelowej cz.5. Wynikanie logiczne 1 Na poprzednim wykładzie udowodniliśmy m.in.:
O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ
O LICZBACH NIEOBLICZALNYCH I ICH ZWIĄZKACH Z INFORMATYKĄ Jakie obiekty matematyczne nazywa się nieobliczalnymi? Jakie obiekty matematyczne nazywa się nieobliczalnymi? Najczęściej: a) liczby b) funkcje
Semantyka rachunku predykatów
Relacje Interpretacja Wartość Spełnialność Logika obliczeniowa Instytut Informatyki Relacje Interpretacja Wartość Plan Plan Relacje O co chodzi? Znaczenie w logice Relacje 3 Interpretacja i wartościowanie
Teoria informacji i kodowania Ćwiczenia
Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom
Metody dowodzenia twierdzeń i automatyzacja rozumowań Systemy aksjomatyczne I
Metody dowodzenia twierdzeń i automatyzacja rozumowań Systemy aksjomatyczne I Mariusz Urbański Instytut Psychologii UAM Mariusz.Urbanski@.edu.pl OSTRZEŻENIE Niniejszy plik nie zawiera wykładu z Metod dowodzenia...
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Filozofia, Germanistyka, Wykład IX - Immanuel Kant
Filozofia, Germanistyka, Wykład IX - Immanuel Kant 2011-10-01 Plan wykładu 1 Immanuel Kant - uwagi biograficzne 2 3 4 5 6 7 Immanuel Kant (1724-1804) Rysunek: Immanuel Kant - niemiecki filozof, całe życie
LOGIKA Dedukcja Naturalna
LOGIKA Dedukcja Naturalna Robert Trypuz Katedra Logiki KUL 7 stycznia 2014 Robert Trypuz (Katedra Logiki) Założeniowy system klasycznego rachunku zdań 7 stycznia 2014 1 / 42 PLAN WYKŁADU 1 Przykład dowodów
Logika Matematyczna (1)
Logika Matematyczna (1) Jerzy Pogonowski Zakład Logiki Stosowanej UAM www.logic.amu.edu.pl pogon@amu.edu.pl Wprowadzenie Jerzy Pogonowski (MEG) Logika Matematyczna (1) Wprowadzenie 1 / 20 Plan konwersatorium
Monoidy wolne. alfabetem. słowem długością słowa monoidem wolnym z alfabetem Twierdzenie 1.
3. Wykłady 3 i 4: Języki i systemy dedukcyjne. Klasyczny rachunek zdań. 3.1. Monoidy wolne. Niech X będzie zbiorem niepustym. Zbiór ten będziemy nazywać alfabetem. Skończony ciąg elementów alfabetu X będziemy
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest
Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)
Jest to zasadniczo powtórka ze szkoły średniej, być może z niektórymi rzeczami nowymi.
Logika Jest to zasadniczo powtórka ze szkoły średniej, być może z niektórymi rzeczami nowymi. Często słowu "logika" nadaje się szersze znaczenie niż temu o czym będzie poniżej: np. mówi się "logiczne myślenie"
VI WYKŁAD STATYSTYKA. 9/04/2014 B8 sala 0.10B Godz. 15:15
VI WYKŁAD STATYSTYKA 9/04/2014 B8 sala 0.10B Godz. 15:15 WYKŁAD 6 WERYFIKACJA HIPOTEZ STATYSTYCZNYCH PARAMETRYCZNE TESTY ISTOTNOŚCI Weryfikacja hipotez ( błędy I i II rodzaju, poziom istotności, zasady
Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz
Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem
Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki. Wykład 9. Koniunkcyjne postacie normalne i rezolucja w KRZ
Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki Wykład 9. Koniunkcyjne postacie normalne i rezolucja w KRZ 1 Inferencyjna równoważność formuł Definicja 9.1. Formuła A jest
1 Podstawy c++ w pigułce.
1 Podstawy c++ w pigułce. 1.1 Struktura dokumentu. Kod programu c++ jest zwykłym tekstem napisanym w dowolnym edytorze. Plikowi takiemu nadaje się zwykle rozszerzenie.cpp i kompiluje za pomocą kompilatora,
Paradoks wszechwiedzy logicznej (logical omniscience paradox) i wybrane metody jego unikania
Logika w zastosowaniach kognitywistycznych Paradoks wszechwiedzy logicznej (logical omniscience paradox) i wybrane metody jego unikania (notatki do wykładów) Andrzej Wiśniewski Andrzej.Wisniewski@amu.edu.pl
Ontologie, czyli o inteligentnych danych
1 Ontologie, czyli o inteligentnych danych Bożena Deka Andrzej Tolarczyk PLAN 2 1. Korzenie filozoficzne 2. Ontologia w informatyce Ontologie a bazy danych Sieć Semantyczna Inteligentne dane 3. Zastosowania
Zdarzenia losowe i prawdopodobieństwo
Rozdział 1 Zdarzenia losowe i prawdopodobieństwo 1.1 Klasyfikacja zdarzeń Zdarzenie elementarne pojęcie aprioryczne, które nie może być zdefiniowane. Odpowiednik pojęcia punkt w geometrii. Zdarzenie elementarne
Internet Semantyczny. Logika opisowa
Internet Semantyczny Logika opisowa Ontologie Definicja Grubera: Ontologia to formalna specyfikacja konceptualizacji pewnego obszaru wiedzy czy opisu elementów rzeczywistości. W Internecie Semantycznym
WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU
Zał. nr do ZW WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim PODSTAWY TEORII INFORMACJI Nazwa w języku angielskim Introduction to Information Theory Kierunek studiów (jeśli dotyczy): Matematyka
Wykład z równań różnicowych
Wykład z równań różnicowych 1 Wiadomości wstępne Umówmy się, że na czas tego wykładu zrezygnujemy z oznaczania n-tego wyrazu ciągu symbolem typu x n, y n itp. Zamiast tego pisać będziemy x (n), y (n) itp.
Topologia zbioru Cantora a obwody logiczne
Adam Radziwończyk-Syta Michał Skrzypczak Uniwersytet Warszawski 1 lipca 2009 http://students.mimuw.edu.pl/~mskrzypczak/dokumenty/ obwody.pdf Zbiór Cantora Topologia Definicja Przez zbiór Cantora K oznaczamy