Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona.

Wielkość: px
Rozpocząć pokaz od strony:

Download "Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona."

Transkrypt

1 Filozofia Informacji, Wykład II - Teoria informacji C. E. Shannona. 13 marca 2012

2 Plan wykładu 1 Uwagi historyczne o teorii informacji Shannona Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley 2 3 Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona 4

3 Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Najogólniejsza charakterystyka interesującego nas problemu: podać kryterium oceny różnych systemów komunikacyjnych pod względem ich zdolności do przesyłania informacji. Uwaga: nie będzie nas dziś interesowała treść komunikatu. Informacja będzie traktowana jak własność fizyczna. Claude E. Shannon - którego teorią zajmować się będziemy na wykładzie - w pracy A Mathematical Theory of Communication (w: The Bell System Technical Journal, Vol. 27, pp , , July, October, 1948.) powołuje się na dokonania Nyquista i Hartleya, jako podstawowe dla jego teorii.

4 Harry Nyquist - Idealny przekaźnik Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Nyquist uważa, że dwa czynniki mają podstawowe znaczenie dla efektywnej transmisji sygnału w fizycznie idealnym przekaźniku (tzn. takim, który nie zawiera żadnych fizycznych ograniczeń prędkości): kształt sygnału oraz reprezentujący przekazywaną wiadomość kod (kod idealny to będzie taki, który przy optymalnym kształcie sygnału i braku fizycznych ograniczeń przekaźnika określa prędkość transmisji).

5 Prędkość transmisji Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Według Nyquista prędkość transmisji przy idealnym kodzie i optymalnym kształcie sygnału jest proporcjonalna do logarytmu ilości znaków, które mogą być użyte do zakodowania wiadomości. Nyquist wprowadza do teorii informacji funkcję logarytmiczną.

6 Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Ralph Hartley - Model przekazu informacji System komunikacyjny składa się z trzech elementów: Zbioru fizycznych symboli, Nadawcy wybierającego jeden z elementów tego zbioru, Odbiorcy, który identyfikuje symbol i kieruje swoją uwagę na intencję nadawcy. Efektywność systemu polega na tym, że odbiorca ma szansę na odkrycie, jakiego wyboru dokonał nadawca (a jednocześnie, jakie elementy wyeliminował).

7 Informacja a różnica Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley I zasada: dwa identyczne fizyczne ciągi symboli nie dają żadnych podstaw do zróżnicowania znaczenia. Ciąg symboli A jest identyczny z ciągiem symboli B: a zatem A i B pełniące tą samą funkcję nie mogą efektywnie służyć wskazaniu dwóch różnych rzeczy (nie mogą być nośnikami informacji o dwóch różnych rzeczach).

8 Informacja a różnica - przykład Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Jeśli w katalogu bibliotecznym mielibyśmy do czynienia z kilkoma pozycjami książkowymi oznaczonymi tą samą sygnaturą, to wskazanie wyłacznie sygnatury nie wskazywałoby jednoznacznie pozycji książki.

9 Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - kolejny przykład Osoba A w odpowiedzi na pytanie Q odpowiada zawsze: już niedługo. Pewnego dnia odpowiada: jutro.

10 Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Informacja a różnica - kolejny przykład Osoba A w odpowiedzi na pytanie Q odpowiada zawsze: już niedługo. Pewnego dnia odpowiada: jutro. W obu przypadkach mamy naturalnie do czynienia z zamkniętą ilością możliwych ciągów symboli do wyboru.

11 Informacja a różnica - wnioski Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Wnioski Ralpha Hartleya (1928): różnice między fizycznymi ciągami symboli są podstawowym czynnikiem wpływającym na wartość informacyjną ciągu, bierzemy zatem zbiór ciągów symboli a nie pojedyncze symbole, żeby ustalić wartość informacyjną symbolu oraz traktujemy informację jako wskazanie przez fizyczny ciąg symboli na coś innego niż on sam.

12 Informacja a różnica - wnioski Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Wnioski Ralpha Hartleya (1928): w pracach Hartleya pojawia się zatem idea powiązania wartości informacyjnej ze stopniem prawdopodobieństwa wystąpienia jakiegoś stanu rzeczy (fizycznego ciągu symboli)

13 Informacja a różnica - wnioski Ogólna charakterystyka problemu Harry Nyquist Ralph Hartley Wnioski Ralpha Hartleya (1928): w pracach Hartleya pojawia się zatem idea powiązania wartości informacyjnej ze stopniem prawdopodobieństwa wystąpienia jakiegoś stanu rzeczy (fizycznego ciągu symboli) oraz - co równie ważne - wartość informacyjna jest w jego teorii odwrotnie proporcjonalna do stopnia prawdopodobieństwa.

14 Charakterystyka teorii Shannona Rysunek: Claude E. Shannon - twórca podstaw współczesnej teorii komunikacji i informacji; wprowadził do nauki pojęcie informacji; jego najważniejsza praca ( A Mathematical Theory of Communication. ) powstała w czasie pracy w Bell Laboratories, gdzie zapoznał się z pracami Nyquista i Hartleya. Artykuł ten został wydany w 1948 roku. Shannon jest również znany jako wynalazca, jest m.in. twórcą The Ultimate Machine : Filmowy krótki przegląd innych dokonań Shannona:

15 Charakterystyka teorii Shannona Deklarowanym celem Shannona było: (...) rozważyć pewne ogólne problemy związane z systemami komunikacyjnymi. Fundamentalnym problemem komunikacji jest problem reprodukcji w jednym miejscu albo dokładnie albo przynajmniej w zbliżony sposób wiadomości wybranej w innym miejscu. (...) Istotnym aspektem jest to, że pewna wiadomość jest jedną wybraną ze zbioru możliwych wiadomości. System musi być zaprojektowany tak, żeby działać dla każdego możliwego wyboru, nie tylko dla tego, który faktycznie został dokonany, choćby dlatego, że ten wybór nie jest znany w momencie projektowania systemu.

16 Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści - znaczenia komunikatu - jest jednak irrelewantny. Dlaczego?

17 Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści - znaczenia komunikatu - jest jednak irrelewantny. Dlaczego? wg Shannona dla inżynieryjnych problemów związanych z projektowaniem efektywnych systemów transmisji informacji ten problem wydaje się nieistotny;

18 Semantyka? Komunikat ma zawsze pewną treść - dla Shannona problem treści - znaczenia komunikatu - jest jednak irrelewantny. Dlaczego? wg Shannona dla inżynieryjnych problemów związanych z projektowaniem efektywnych systemów transmisji informacji ten problem wydaje się nieistotny; w czasach Shannona badania semantyczne uznawane były za nienaukowe również przez całą rzeszę amerykańskich lingwistów (np. Bloomfelda i dystrybucjonistów amerykańskich).

19 Model Shannona Rysunek: Model Shannona

20 Model Shannona W Modelu Shannona mamy następujące elementy: nadawca/źródło informacji, przekaźnik, sygnał nadany, kanał transmisji (tutaj może wystąpić szum), sygnał odebrany, odbiornik, odbiorca.

21 Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy wiedzę aprioryczną - znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli);

22 Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy wiedzę aprioryczną - znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli); informowany i informujący znają rozkład prawdopodobieństwa w tym zbiorze;

23 Model Shannona W modelu Shannona przyjmujemy następujące założenia: w źródle informacji i u odbiorcy przyjmujemy wiedzę aprioryczną - znajomość zbioru zdarzeń, z których mogą być wybrane konkretne wydarzenia (np. ciągi symboli); informowany i informujący znają rozkład prawdopodobieństwa w tym zbiorze; informowany nie wie przed otrzymaniem sygnału, jaki element zbiory został/zostanie wybrany przez źródło informacji. Otrzymany sygnał redukuje zatem jego niepewność odnośnie tego, jaki element zbioru będzie wybrany.

24 Realizacja modelu - przykład 1 Osoba A mówi do osoby B: zrób coś z tym koszmarnym hałasem.

25 Realizacja modelu - przykład 1 Osoba A mówi do osoby B: zrób coś z tym koszmarnym hałasem. Interpretacja w modelu: osoba A (a raczej jej umysł, kora mózgowa itp.) - źródło informacji organy mowy A wytwarzają falę dźwiękową - przekaźnik fala dźwiękowa - sygnał powietrze - kanał transmisji (niestety hałas, o którego likwidację prosi A, zniekształca w tym miejscu sygnał - pojawia się szum) organy słuchu B - odbiornik osoba B (umysł, kora mózgowa itp.) - odbiorca informacji. Dokładna treść informacji w tym modelu jest nieistotna. Treść komunikatu i reakcja B nie ma znaczenia. Znaczenie ma to, czy szumy zniekształciły sygnał w sposób uniemożliwiający poprawnie zdekodowanie wiadomości, czy też nie.

26 Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona:

27 Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona: Proszę podać interpretację w modelu Shannona; proszę znaleźć inny przykład, który da się zinterpretować w tym modelu.

28 Realizacja modelu - przykład 2 Lampka nad wejściem do gabinetu jest włączona: Proszę podać interpretację w modelu Shannona; proszę znaleźć inny przykład, który da się zinterpretować w tym modelu. Teoria Shannona jest b. abstrakcyjna i ogólna. Obejmuje zarówno alfabet, zbiory biblioteczne, kule w jakiejś puli itp.

29 Szum Uwagi historyczne o teorii informacji Shannona Uwaga: proszę nie mylić szumu w teorii Shannona z niejasnym pojęciem szumu informacyjnego. Szum jest zawsze zjawiskiem niepożądanym. Oznacza zakłócenia w transmisji sygnału pochodzące ze źródeł zewnętrznych. Szum powoduje np. zakłócenia polegające na zagłuszeniu części sygnału. 1 Przykład szumu: muzyka zakłócająca komunikat ustny.

30 Redundancja (Ekwiwokacja) Redundancja jest nadmiarem informacji względem pożądanej ilości (np. do przesłania komunikatu potrzebnych jest n-ilość bitów, natomiast wysyłany sygnał zawiera n+5-ilość). Ten nadmiar może być zarówno pożądany jak i niepożądany. Przykłady: 1 Redundancja pożądana: suma kontrolna md5sum w plikach (pozwala skontrolować poprawność np. pobranego obrazu.iso w dużym rozmiarze); metainformacje w dokumentach elektronicznych itp.

31 Redundancja (Ekwiwokacja) Redundancja jest nadmiarem informacji względem pożądanej ilości (np. do przesłania komunikatu potrzebnych jest n-ilość bitów, natomiast wysyłany sygnał zawiera n+5-ilość). Ten nadmiar może być zarówno pożądany jak i niepożądany. Przykłady: 1 Redundancja pożądana: suma kontrolna md5sum w plikach (pozwala skontrolować poprawność np. pobranego obrazu.iso w dużym rozmiarze); metainformacje w dokumentach elektronicznych itp. 2 Redundancja niepożądana: zbędne elementy w kodzie strony internetowej wynikające np. z użycia aplikacji typu WYSIWYG (brak widocznego efektu, poza spowolnieniem działania przeglądarki) itp.

32 Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? prawdopodobieństwo: P (X) - prawdopodobieństwo zdarzenia X. Jest określone w stosunku do całego zbioru możliwości. Jeśli zbiór A jest 2-elementowy, to - przy równym rozkładzie prawdopodobieństwa - x, y, należące do A, mają prawdopodobieństwo równe 1 2. P(X Y ) - prawdopodobieństwo warunkowe zdarzenia X ze względu na Y (prawdopodobieństwo, że wystąpi zjawisko X pod warunkiem wystąpienia Y). Y ogranicza zbiór możliwości: P(X Y ) = P(X Y ) P(Y )

33 Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? logarytm: log n - funkcja oznaczająca potęgę, do której trzeba podnieść liczbę n, żeby otrzymać określony wynik (np. log n 8 = 3, ponieważ 2 podniesione do trzeciej potęgi daje 8.)

34 Przydatne pojęcia matematyczne Jakie pojęcia matematyczne będą nam potrzebne? sumowanie: - operacja uogólnionego dodawania składników pewnego szeregu. Jeśli nad tym symbolem pojawia się określona wartość n, oznacza ona, że sumujemy elementy skończonego szeregu. Indeks dolny, oznacza pierwszy element szeregu ( n ). i=1

35 Ogólne wyrażenie entropii - miara informacji Entropia: H = n i=1 ( ) 1 p i log 2 p i Objaśnienie symboli: H - ilość informacji mierzona w bitach, n - operacja sumowania n-elementów skończonego zbioru i=1 n-elementowego. p i - prawdopodobieństwo i-elementu.

36 Ogólne wyrażenie entropii - przykład Weźmy zbiór 4-elementowy. Rozkład prawdopodobieństw wygląda tak: A = (A 1 = 1 2, A 2 = 1 4, A 3 = 1 8, A 4 = 1 8 )

37 Ogólne wyrażenie entropii - przykład Weźmy zbiór 4-elementowy. Rozkład prawdopodobieństw wygląda tak: A = (A 1 = 1 2, A 2 = 1 4, A 3 = 1 8, A 4 = 1 8 ) Wartość entropii: H = 4 ( ) ( ) ( ) ( 1 1 p i log 2 p i = p A 1log 2 p A = 1 2 log log 2 i=1 2 ( ) ( ) 1 8 log log = 1 2 log log log log 28 = = = 1, ) +

38 Ogólne wyrażenie entropii - komentarz Komentarz: Entropia nie jest wyrazem zawartości informacyjnej pojedynczego elementu zbioru ani całości zbioru. Entropia wyraża przeciętną informatywność elementów zbioru określoną a priori przez rozkład prawdopodobieństwa w zbiorze możliwości. Entropia może być zinterpretowana jako wartość określająca przeciętną niepewność w danym zbiorze możliwych sygnałów (aczkolwiek bez skojarzeń psychologicznych). W definicji entropii pojawia się funkcja logarytmiczna o podstawie 2, ze względu na warunki techniczne: interesuje nas kod binarny.

39 Entropia dla zbioru zdarzeń odmiennie prawdopodobnych Pytanie kontrolne - oblicz wartość entropii dla: A = (A 1 = 1 16, A 2 = 3 4, A 3 = 1 8, A 4 = 3 16 )

40 Entropia dla zbioru zdarzeń odmiennie prawdopodobnych Pytanie kontrolne - oblicz wartość entropii dla: A = (A 1 = 1 16, A 2 = 3 4, A 3 = 1 8, A 4 = 3 16 ) Dla osób, które nie zapamiętały wzoru: H = n i=1 ( ) 1 p i log 2 p i

41 Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla:

42 Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla: A = (A 1 = 1 4, A 2 = 1 4, A 3 = 1 4, A 4 = 1 4 )

43 Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne: oblicz wartość entropii dla: A = (A 1 = 1 4, A 2 = 1 4, A 3 = 1 4, A 4 = 1 4 ) Dla osób, które nie zapamiętały wzoru: H = n i=1 ( ) 1 p i log 2 p i

44 Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne - wynik: 2.

45 Entropia dla zbioru zdarzeń równoprawdopodobnych Pytanie kontrolne - wynik: 2. WNIOSEK: entropia będzie osiągała wartość maksymalną dla zbioru zdarzeń równoprawdopodobnych. Jest to własność bardzo intuicyjna: równy rozkład prawdopodobieństw wiąże się z najwyższym stopniem niepewności odnośnie tego, jaki element zbioru zostanie wybrany.

46 Entropia dla zbioru zdarzeń równoprawdopodobnych Obliczenie wartości entropii dla takiego zbioru może być oparte na (bardzo) uproszczonej formule: ilość informacji dla każdego symbolu będzie równa log 2 (N), gdzie N = ilość symboli w zbiorze. Dla 4 równowartościowych symboli: log 2 (4) = 2 H = 4 ( ) ( 1 p i log 2 p i = p A 1log 2 i=1 ( ) ( ) ( log log 2 4 log p A ) +... = ) ( log ) = 1 4 log log log log 24 = = = 2

47 Pozostałe własności entropii Własności entropii: maksymalną wartość uzyskuje dla zbioru wydarzeń równoprawdopodobnych; minimalną wartość uzyskuje dla zbioru, w którym jeden element ma prawdopodobieństwo równe 1 (system nie jest obarczony wtedy żadną niepewnością, a otrzymana wiadomość nie jest dla informowanego żadnym zaskoczeniem - nie niesie niczego nowego...).

48 Sens pojęcia entropii Znany wzór na entropię jest wyrazem średniej informatywności dowolnego symbolu ze skończonego zbioru oraz przeciętnej ilości deficytu danych, które informowany posiada przed otrzymaniem komunikatu. Informowany przed otrzymaniem komunikatu nie wie, jaki symbol otrzyma (jeśli wie, to H = 0). Ma pewne oczekiwania, ponieważ wie, z jakiego zbioru będzie dokonywany wybór i zna rozkład prawdopodobieństw w tym zbiorze.

49 teorii informacji Shannona Teoria informacji Shannona - podsumowanie: Podstawowe pojęcia - elementy modelu, entropia, szum i redundancja. Informacja jest traktowana jako własność fizyczna. Abstrahujemy od wszelkiego rodzaju aspektów psychologicznych i semantycznych. Ograniczamy się jedynie do zbiorów skończonych (tzn. takich, którego elementy możemy policzyć - takie zbiory nazywa się zbiorami dyskretnymi).

50 Sens pojęcia entropii w fizyce Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Przejście od układu uporządkowanego do nieuporządkowanego jest procesem nieodwracalnym. Rośnie ilość nieuporządkowanych ruchów molekuł a wraz z tym wzrostem spada ilość energii.

51 Drugie prawo termodynamiki Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Zgodnie z drugim prawem termodynamiki wzrost entropii (czyli od porządku do nieuporządkowania) całego uniwersum jest równoznaczny ze spadkiem dostępnej energii. Nie jest zaś możliwa zamiana wzrostu entropii na energię. Zgodnie z tym prawem także, jeśli mamy dwa ciała, które nie dopuszczają wymiany ciepła, to nie jest możliwe, żeby - jeśli te ciała mają tą samą temperaturę - powstawały różnice w temperaturze między nimi.

52 Demon Maxwella Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Eksperyment myślowy: Co mówi nam ten eksperyment? - że wbrew II zasadzie termodynamiki spadek entropii jest możliwy, więc zasada ta ma co najwyżej charakter statystyczny.

53 Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Demon Maxwella - możliwe rozwiązanie Leo Szilard (rozwiązanie z odniesieniem do fizycznej teorii informacji): demon musi posiadać informację o położeniu i prędkości molekuł. Fizyczna realizacja przetwarzania informacji przez demona przeważałaby nad spadkiem entropii. Negentropia jest zatem nadal niemożliwa.

54 Entropia w fizyce a entropia Shannona Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Pewne własności (matematyczne) są takie same: np. wysoki poziom entropii oznacza niższy poziom energii. W teorii Shannona - wysoka wartość entropii oznacza wyższą aprioryczną wartość niepewności u odbiorcy komunikatu. W obu przypadkach maksymalna wartość entropii oznacza równy rozkład wartości w zbiorze (ciepła lub prawdopodobieństwa).

55 Entropia w fizyce a entropia Shannona Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Pewne własności (matematyczne) są takie same: np. wysoki poziom entropii oznacza niższy poziom energii. W teorii Shannona - wysoka wartość entropii oznacza wyższą aprioryczną wartość niepewności u odbiorcy komunikatu. W obu przypadkach maksymalna wartość entropii oznacza równy rozkład wartości w zbiorze (ciepła lub prawdopodobieństwa).

56 Entropia w fizyce a entropia Shannona Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Dlaczego właściwie Shannon użył pojęcia entropii, zamiast informacji, niepewności itp.? Moje najgłębsze zatroskanie budziła nazwa. Myślałem o nazwie informacja, ale to słowo jest nadużywane, więc zdecydowałem się na nazwę niepewność. Gdy omawiałem tą sprawę z Johnem von Neumannem, wpadł on na lepszy pomysł. Von Neumann powiedział mi: powinieneś to nazwać entropią z dwóch powodów. Po pierwsze, twoja funkcja niepewności jest używana w statystycznej mechanice pod tą nazwą, więc ona ma już nazwę. Po drugie zaś, co zresztą jest ważniejsze, nikt właściwie nie wie, czym tak naprawdę jest entropia, więc zawsze będziesz miał przewagę w dyskusji. (wypowiedź Shannona, cyt. za Francois Bavaud, Information Theory, Relative Entropy and Statistics, w: Formal Theories of Information Giovanni Sommaruga (Editor), s. 54.)

57 Drugie prawo termodynamiki i demon Maxwella Entropia w fizyce a entropia Shannona Entropia w fizyce a entropia Shannona - Carnap i Bar-Hillel Wg von Neumanna podobieństwo tych pojęć sprawia, że teoria informacji może być wręcz postrzegana jako podstawa termodynamiki. Bar-Hillel zwraca uwagę na fakt, że to podobieństwo jest jedynie formalne - entropia w termodynamice ma charakter empiryczny, natomiast w teorii informacji (semantycznej) jest pojęciem logicznym. Bar-Hillel zwraca też uwagę na fakt, że w termodynamice wartość entropii nie jest wyznaczona w tak precyzyjny sposób jak w teorii informacji.

58 Idee Shannona, które są istotne dla całej przyszłej filozofii informacji: probabilistyczne ujęcie - a priori określona wartość p dla każdego elementu zbioru, znajomość zbioru zdarzeń i rozkładu prawdopodobieństw przez odbiorcę; wartość informacyjna jest odwrotnie proporcjonalna do prawdopodobieństwa sygnału (intuicja, że im bardziej prawdopodobne zdarzenie, tym mniejszą wartość dla informowanego ma sygnał informujący o tym zdarzeniu); całościowe ujęcie całego zbioru symboli; abstrahowanie od semantyki - problem do rozwiązania.

59 Literatura Duża część tego wykładu oparta jest na: Manuel Bremer, Daniel Cohnitz, Information and Information Flow. An Introduction., Frankfurt 2004, ss

60 Dziękuję za uwagę i zapraszam do stawiania pytań! artur.machlarz@uni.opole.pl www: machlarz

Technologie cyfrowe semestr letni 2018/2019

Technologie cyfrowe semestr letni 2018/2019 Technologie cyfrowe semestr letni 2018/2019 Tomasz Kazimierczuk Organizacja zajęć Wykład 2h/tydzień Ćwiczenia 3h/tydzień Obecność obowiązkowa 2 sprawdziany praktyczne (kolokwia) w trakcie zajęć Ocena:

Bardziej szczegółowo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.

Bardziej szczegółowo

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.

Bardziej szczegółowo

TIMKoD - Lab 1 - Przybliżenie języka naturalnego

TIMKoD - Lab 1 - Przybliżenie języka naturalnego TIMKoD - Lab 1 - Przybliżenie języka naturalnego 28 lutego 2018 Opis pliku z zadaniami Wszystkie zadania na zajęciach będą przekazywane w postaci plików.pdf, sformatowanych podobnie do tego dokumentu.

Bardziej szczegółowo

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn

Bardziej szczegółowo

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35

Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35 Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }

Bardziej szczegółowo

Temat: Algorytm kompresji plików metodą Huffmana

Temat: Algorytm kompresji plików metodą Huffmana Temat: Algorytm kompresji plików metodą Huffmana. Wymagania dotyczące kompresji danych Przez M oznaczmy zbiór wszystkich możliwych symboli występujących w pliku (alfabet pliku). Przykład M = 2, gdy plik

Bardziej szczegółowo

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki Studia Podyplomowe INFORMATYKA Podstawy Informatyki Wykład I: Kodowanie liczb w systemach binarnych 1 Część 1 Dlaczego system binarny? 2 I. Dlaczego system binarny? Pojęcie bitu Bit jednostka informacji

Bardziej szczegółowo

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje

Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue

Bardziej szczegółowo

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU

WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Zał. nr do ZW WYDZIAŁ MATEMATYKI KARTA PRZEDMIOTU Nazwa w języku polskim PODSTAWY TEORII INFORMACJI Nazwa w języku angielskim Introduction to Information Theory Kierunek studiów (jeśli dotyczy): Matematyka

Bardziej szczegółowo

Teoria Informacji - wykład. Kodowanie wiadomości

Teoria Informacji - wykład. Kodowanie wiadomości Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Materiały wykładowe (fragmenty) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL kontakt osobisty

Bardziej szczegółowo

Teoria informacji i kodowania Ćwiczenia

Teoria informacji i kodowania Ćwiczenia Teoria informacji i kodowania Ćwiczenia Piotr Chołda, Andrzej Kamisiński Katedra Telekomunikacji Akademii Górniczo-Hutniczej Kod źródłowy Kodem źródłowym nazywamy funkcję różnowartościową, która elementom

Bardziej szczegółowo

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest

Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest Entropia to wielkość określająca liczbę bitów informacji zawartej w danej wiadomości lub źródle. Spełnia ona trzy naturalne warunki: I(s) jest malejącą funkcją prawdopodobieństwa zajścia zdarzenia s. I(s)

Bardziej szczegółowo

Podstawowe pojęcia. Teoria informacji

Podstawowe pojęcia. Teoria informacji Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,

Bardziej szczegółowo

Komunikowanie jest procesem porozumiewania się jednostek, grup lub instytucji. Jego celem jest wymiana myśli, dzielenie się wiedzą, informacjami i

Komunikowanie jest procesem porozumiewania się jednostek, grup lub instytucji. Jego celem jest wymiana myśli, dzielenie się wiedzą, informacjami i Wykład nr 1 Komunikowanie jest procesem porozumiewania się jednostek, grup lub instytucji. Jego celem jest wymiana myśli, dzielenie się wiedzą, informacjami i ideami. Proces ten odbywa się na różnych poziomach,

Bardziej szczegółowo

Filozofia przyrody, Wykład V - Filozofia Arystotelesa

Filozofia przyrody, Wykład V - Filozofia Arystotelesa Filozofia przyrody, Wykład V - Filozofia Arystotelesa 2011-10-01 Tematyka wykładu 1 Arystoteles - filozof systematyczny 2 3 4 Różnice w metodzie uprawiania nauki Krytyka platońskiej teorii idei Podział

Bardziej szczegółowo

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita Wojna Bambadocji przeciwko Alandii i Cezji Alandia:

Bardziej szczegółowo

Języki programowania zasady ich tworzenia

Języki programowania zasady ich tworzenia Strona 1 z 18 Języki programowania zasady ich tworzenia Definicja 5 Językami formalnymi nazywamy każdy system, w którym stosując dobrze określone reguły należące do ustalonego zbioru, możemy uzyskać wszystkie

Bardziej szczegółowo

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału. Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału Wiktor Miszuris 2 czerwca 2004 Przepustowość kanału Zacznijmy od wprowadzenia równości IA, B HB HB A HA HA B Można ją intuicyjnie

Bardziej szczegółowo

Prawdopodobieństwo i statystyka

Prawdopodobieństwo i statystyka Wykład I: Formalizm teorii prawdopodonieństwa 6 października 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Dostępność treści wykładów 1 Zaliczenie ćwiczeń rachunkowych. 2 Egzamin dwuczęściowy:

Bardziej szczegółowo

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA

RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Wydział: WiLiŚ, Transport, sem.2 dr Jolanta Dymkowska RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Przestrzeń probabilistyczna Modelem matematycznym (tj. teoretycznym, wyidealizowanym,

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład I: Formalizm statystyki matematycznej 17 lutego 2014 Forma zaliczenia przedmiotu Forma zaliczenia Literatura Zagadnienia omawiane na wykładach Forma zaliczenia przedmiotu Forma zaliczenia Literatura

Bardziej szczegółowo

Podręcznik. Wzór Shannona

Podręcznik. Wzór Shannona MODELOWANIE RZECZYWISTOŚCI Daniel Wójcik Instytut Biologii Doświadczalnej PAN d.wojcik@nencki.gov.pl tel. 5892 424 http://www.neuroinf.pl/members/danek/swps/ Iwo Białynicki-Birula Iwona Białynicka-Birula

Bardziej szczegółowo

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 1 Kody Tunstalla Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9, 14.04.2005 Inne podejście: słowa kodowe mają ustaloną długość, lecz mogą kodować ciągi liter z alfabetu wejściowego o różnej

Bardziej szczegółowo

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz Algorytmy kompresji danych 2007 02 27 Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie Plan wykładu 1 Modelowanie i kodowanie 2 Modelowanie i kodowanie definicja stowarzyszona ze zbiorem

Bardziej szczegółowo

Kodowanie i entropia

Kodowanie i entropia Kodowanie i entropia Marek Śmieja Teoria informacji 1 / 34 Kod S - alfabet źródłowy mocy m (np. litery, cyfry, znaki interpunkcyjne), A = {a 1,..., a n } - alfabet kodowy (symbole), Chcemy przesłać tekst

Bardziej szczegółowo

Filozofia umysłu. Eliminatywizm. Wykład VIII: w filozofii umysłu

Filozofia umysłu. Eliminatywizm. Wykład VIII: w filozofii umysłu Filozofia umysłu Wykład VIII: Eliminatywizm w filozofii umysłu Materializm Funkcjonalizm daje się uzgodnić z materializmem, nie implikuje go jednak Eliminatywizm to stanowisko konsekwentnie materialistyczne:

Bardziej szczegółowo

Filozofia, Germanistyka, Wykład IX - Immanuel Kant

Filozofia, Germanistyka, Wykład IX - Immanuel Kant Filozofia, Germanistyka, Wykład IX - Immanuel Kant 2011-10-01 Plan wykładu 1 Immanuel Kant - uwagi biograficzne 2 3 4 5 6 7 Immanuel Kant (1724-1804) Rysunek: Immanuel Kant - niemiecki filozof, całe życie

Bardziej szczegółowo

Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII

Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII Przemysłowe Sieci Informatyczne (PSI) Wykład #3 kodowanie i wstęp do teorii informacji WYDZIAŁ ELEKTROTECHNIKI I AUTOMATYKI KATEDRA INŻYNIERII SYSTEMÓW STEROWANIA Jarosław Tarnawski, dr inż. Gdańsk, marzec

Bardziej szczegółowo

Teoria Informacji i Metody Kompresji Danych

Teoria Informacji i Metody Kompresji Danych Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL

Bardziej szczegółowo

urządzenia: awaria układów ochronnych, spowodowanie awarii oprogramowania

urządzenia: awaria układów ochronnych, spowodowanie awarii oprogramowania Bezpieczeństwo systemów komputerowych urządzenia: awaria układów ochronnych, spowodowanie awarii oprogramowania Słabe punkty sieci komputerowych zbiory: kradzież, kopiowanie, nieupoważniony dostęp emisja

Bardziej szczegółowo

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii

Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Maksymalne powtórzenia w tekstach i zerowa intensywność entropii Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Warszawa 1 Wprowadzenie 2 Ograniczenia górne i dolne 3 Przykłady

Bardziej szczegółowo

Co ma piekarz do matematyki?

Co ma piekarz do matematyki? Instytut Matematyki i Informatyki Politechnika Wrocławska Dolnośląski Festiwal Nauki Wrzesień 2009 x x (x 1, x 2 ) x (x 1, x 2 ) (x 1, x 2, x 3 ) x (x 1, x 2 ) (x 1, x 2, x 3 ) (x 1, x 2, x 3, x 4 ). x

Bardziej szczegółowo

Krótka wycieczka do wnętrza komputera

Krótka wycieczka do wnętrza komputera Krótka wycieczka do wnętrza komputera Podstawy Technik Informatycznych Roman Simiński roman.siminski@us.edu.pl www.siminskionline.pl Kraina do której trafiła Alicja była zupełnie inna...... a co by zobaczyła

Bardziej szczegółowo

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A

mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. GOLOMBA I RICE'A mgr inż. Grzegorz Kraszewski SYSTEMY MULTIMEDIALNE wykład 4, strona 1. KOMPRESJA ALGORYTMEM ARYTMETYCZNYM, GOLOMBA I RICE'A Idea algorytmu arytmetycznego Przykład kodowania arytmetycznego Renormalizacja

Bardziej szczegółowo

Przesyłania danych przez protokół TCP/IP

Przesyłania danych przez protokół TCP/IP Przesyłania danych przez protokół TCP/IP PAKIETY Protokół TCP/IP transmituje dane przez sieć, dzieląc je na mniejsze porcje, zwane pakietami. Pakiety są często określane różnymi terminami, w zależności

Bardziej szczegółowo

Jak zadać dobre pytanie, czyli czym jest informacja i jak ja

Jak zadać dobre pytanie, czyli czym jest informacja i jak ja Jak zadać dobre pytanie, czyli czym jest informacja i jak ja zmierzyć Adam Doliwa doliwa@matman.uwm.edu.pl WYKŁAD Z CYKLU NIEZWYKŁA MATEMATYKA WYDZIAŁ MATEMATYKI I INFORMATYKI UWM Olsztyn, 28 września

Bardziej szczegółowo

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład 13 1 Kody liniowe - kodowanie w oparciu o macierz parzystości Przykład Różne macierze parzystości dla kodu powtórzeniowego. Co wiemy z algebry

Bardziej szczegółowo

dr hab. Maciej Witek, prof. US TEORIE KOMPETENCJI KOMUNIKACYJNEJ rok akademicki 2016/2017, semestr letni

dr hab. Maciej Witek, prof. US  TEORIE KOMPETENCJI KOMUNIKACYJNEJ rok akademicki 2016/2017, semestr letni dr hab. Maciej Witek, prof. US http://kognitywistyka.usz.edu.pl/mwitek TEORIE KOMPETENCJI KOMUNIKACYJNEJ rok akademicki 2016/2017, semestr letni Temat 1: Wprowadzenie. Pojęcie kompetencji; model kodowy

Bardziej szczegółowo

VIII. TELEPORTACJA KWANTOWA Janusz Adamowski

VIII. TELEPORTACJA KWANTOWA Janusz Adamowski VIII. TELEPORTACJA KWANTOWA Janusz Adamowski 1 1 Wprowadzenie Teleportacja kwantowa polega na przesyłaniu stanów cząstek kwantowych na odległość od nadawcy do odbiorcy. Przesyłane stany nie są znane nadawcy

Bardziej szczegółowo

Entropia, demon Maxwella i maszyna Turinga

Entropia, demon Maxwella i maszyna Turinga Entropia, demon Maxwella i maszyna Turinga P. F. Góra http://th-www.if.uj.edu.pl/zfs/gora/ 14 lutego 2013 Pojęcia z dwu różnych dyscyplin Fizyka Informatyka Demon Maxwella Maszyna Turinga podstawy termodynamiki

Bardziej szczegółowo

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski

Kodowanie Huffmana. Platforma programistyczna.net; materiały do laboratorium 2014/15 Marcin Wilczewski Kodowanie Huffmana Platforma programistyczna.net; materiały do laboratorium 24/5 Marcin Wilczewski Algorytm Huffmana (David Huffman, 952) Algorytm Huffmana jest popularnym algorytmem generującym optymalny

Bardziej szczegółowo

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott

Struktury danych i złożoność obliczeniowa Wykład 5. Prof. dr hab. inż. Jan Magott Struktury danych i złożoność obliczeniowa Wykład 5 Prof. dr hab. inż. Jan Magott DMT rozwiązuje problem decyzyjny π przy kodowaniu e w co najwyżej wielomianowym czasie, jeśli dla wszystkich łańcuchów wejściowych

Bardziej szczegółowo

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH

REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH REPREZENTACJA LICZBY, BŁĘDY, ALGORYTMY W OBLICZENIACH Transport, studia I stopnia rok akademicki 2012/2013 Instytut L-5, Wydział Inżynierii Lądowej, Politechnika Krakowska Adam Wosatko Ewa Pabisek Pojęcie

Bardziej szczegółowo

Algorytmy i struktury danych. Wykład 4 Tablice nieporządkowane i uporządkowane

Algorytmy i struktury danych. Wykład 4 Tablice nieporządkowane i uporządkowane Algorytmy i struktury danych Wykład 4 Tablice nieporządkowane i uporządkowane Tablice uporządkowane Szukanie binarne Szukanie interpolacyjne Tablice uporządkowane Szukanie binarne O(log N) Szukanie interpolacyjne

Bardziej szczegółowo

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy

Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Kwantowanie sygnałów analogowych na przykładzie sygnału mowy Treść wykładu: Sygnał mowy i jego właściwości Kwantowanie skalarne: kwantyzator równomierny, nierównomierny, adaptacyjny Zastosowanie w koderze

Bardziej szczegółowo

Prof. dr hab. Bogdan Stefanowicz Wyższa Szkoła Informatyki Stosowanej i Zarządzania. Informacja tajemniczy składnik rzeczywistości

Prof. dr hab. Bogdan Stefanowicz Wyższa Szkoła Informatyki Stosowanej i Zarządzania. Informacja tajemniczy składnik rzeczywistości Prof. dr hab. Bogdan Stefanowicz Wyższa Szkoła Informatyki Stosowanej i Zarządzania Informacja tajemniczy składnik rzeczywistości Informacja plan Wstęp Co to jest informacja? Wnioski Informacja - wstęp

Bardziej szczegółowo

Platforma e-learningowa UO strefa studenta

Platforma e-learningowa UO strefa studenta Platforma e-learningowa UO strefa studenta Ten artykuł zawiera opis podstawowej funkcjonalności platformy e-learnigowej z punktu widzenia studenta uczestnika kursu learningowego. Opis uwzględnia wszystkie

Bardziej szczegółowo

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej

Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Dyskretne procesy stacjonarne o nieskończonej entropii nadwyżkowej Łukasz Dębowski ldebowsk@ipipan.waw.pl i Instytut Podstaw Informatyki PAN Co to jest entropia nadwyżkowa? Niech (X i ) i Z będzie procesem

Bardziej szczegółowo

Wstęp do logiki. Semiotyka

Wstęp do logiki. Semiotyka Wstęp do logiki Semiotyka DEF. 1. Językiem nazywamy system umownych znaków słownych. Komentarz. Skoro każdy język jest systemem, to jest w nim ustalony jakiś porządek, czy ogólniej hierarchia. Co to jest

Bardziej szczegółowo

Metody probabilistyczne

Metody probabilistyczne Metody probabilistyczne 13. Elementy statystki matematycznej I Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 17.01.2019 1 / 30 Zagadnienia statystki Przeprowadzamy

Bardziej szczegółowo

Teoria Gier - wojna, rybołówstwo i sprawiedliwość w polityce.

Teoria Gier - wojna, rybołówstwo i sprawiedliwość w polityce. Liceum Ogólnokształcące nr XIV we Wrocławiu 5 maja 2009 1 2 Podobieństwa i różnice do gier o sumie zerowej Równowaga Nasha I co teraz zrobimy? 3 Idee 1 Grać będą dwie osoby. U nas nazywają się: pan Wiersz

Bardziej szczegółowo

Kontekstowe wskaźniki efektywności nauczania - warsztaty

Kontekstowe wskaźniki efektywności nauczania - warsztaty Kontekstowe wskaźniki efektywności nauczania - warsztaty Przygotowała: Aleksandra Jasińska (a.jasinska@ibe.edu.pl) wykorzystując materiały Zespołu EWD Czy dobrze uczymy? Metody oceny efektywności nauczania

Bardziej szczegółowo

Procesy informacyjne zarządzania

Procesy informacyjne zarządzania Procesy informacyjne zarządzania Interpretacja i wykorzystanie informacji w procesie informacyjnym dr inż. Janusz Górczyński 1 Interpretacja informacji (1) Interpretacja informacji polega na przypisaniu

Bardziej szczegółowo

Dlaczego należy uwzględniać zarówno wynik maturalny jak i wskaźnik EWD?

Dlaczego należy uwzględniać zarówno wynik maturalny jak i wskaźnik EWD? EWD co to jest? Metoda EWD to zestaw technik statystycznych pozwalających oszacować wkład szkoły w końcowe wyniki egzaminacyjne. Wkład ten nazywamy właśnie edukacyjną wartością dodaną. EWD jest egzaminacyjnym

Bardziej szczegółowo

Filozofia, Historia, Wykład V - Filozofia Arystotelesa

Filozofia, Historia, Wykład V - Filozofia Arystotelesa Filozofia, Historia, Wykład V - Filozofia Arystotelesa 2010-10-01 Tematyka wykładu 1 Arystoteles - filozof systematyczny 2 3 4 Podział nauk Arystoteles podzielił wszystkie dyscypliny wiedzy na trzy grupy:

Bardziej szczegółowo

Filozofia, ISE, Wykład V - Filozofia Eleatów.

Filozofia, ISE, Wykład V - Filozofia Eleatów. 2011-10-01 Plan wykładu 1 Filozofia Parmenidesa z Elei Ontologia Parmenidesa Epistemologiczny aspekt Parmenidejskiej filozofii 2 3 Ontologia Parmenidesa Epistemologiczny aspekt Parmenidejskiej filozofii

Bardziej szczegółowo

WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI KARTA PRZEDMIOTU

WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI KARTA PRZEDMIOTU Zał. nr do ZW WYDZIAŁ PODSTAWOWYCH PROBLEMÓW TECHNIKI KARTA PRZEDMIOTU Nazwa w języku polskim Analiza sygnałów Nazwa w języku angielskim Signal analysis Kierunek studiów (jeśli dotyczy): Matematyka stosowana

Bardziej szczegółowo

W okresie pierwszych dwóch i pół roku istnienia funduszu ponad 50% podmiotów było lepszych od średniej.

W okresie pierwszych dwóch i pół roku istnienia funduszu ponad 50% podmiotów było lepszych od średniej. W okresie pierwszych dwóch i pół roku istnienia funduszu ponad 50% podmiotów było lepszych od średniej. Istnieje teoria, że fundusze inwestycyjne o stosunkowo krótkiej historii notowań mają tendencję do

Bardziej szczegółowo

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej

Rozdział 1. Zmienne losowe, ich rozkłady i charakterystyki. 1.1 Definicja zmiennej losowej Rozdział 1 Zmienne losowe, ich rozkłady i charakterystyki 1.1 Definicja zmiennej losowej Zbiór możliwych wyników eksperymentu będziemy nazywać przestrzenią zdarzeń elementarnych i oznaczać Ω, natomiast

Bardziej szczegółowo

Logika dla socjologów Część 2: Przedmiot logiki

Logika dla socjologów Część 2: Przedmiot logiki Logika dla socjologów Część 2: Przedmiot logiki Rafał Gruszczyński Katedra Logiki Uniwersytet Mikołaja Kopernika 2011/2012 Spis treści 1 Działy logiki 2 Własności semantyczne i syntaktyczne 3 Błędy logiczne

Bardziej szczegółowo

Jaka powinna być informacja w kontekście analizy danych. Prowadzenie: Piotr Rybicki, NadzórKorporacyjny.pl

Jaka powinna być informacja w kontekście analizy danych. Prowadzenie: Piotr Rybicki, NadzórKorporacyjny.pl Jaka powinna być informacja w kontekście analizy danych Prowadzenie: Piotr Rybicki, NadzórKorporacyjny.pl Motto na dziś: Informacja prawdziwa jest to informacja, która wyraża, że tak się rzeczy mają, i

Bardziej szczegółowo

Za pierwszy niebanalny algorytm uważa się algorytm Euklidesa wyszukiwanie NWD dwóch liczb (400 a 300 rok przed narodzeniem Chrystusa).

Za pierwszy niebanalny algorytm uważa się algorytm Euklidesa wyszukiwanie NWD dwóch liczb (400 a 300 rok przed narodzeniem Chrystusa). Algorytmy definicja, cechy, złożoność. Algorytmy napotykamy wszędzie, gdziekolwiek się zwrócimy. Rządzą one wieloma codziennymi czynnościami, jak np. wymiana przedziurawionej dętki, montowanie szafy z

Bardziej szczegółowo

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Analiza efektywności przetwarzania współbieżnego Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Źródła kosztów przetwarzania współbieżnego interakcje między procesami

Bardziej szczegółowo

WYRAŻENIA ALGEBRAICZNE

WYRAŻENIA ALGEBRAICZNE WYRAŻENIA ALGEBRAICZNE Wyrażeniem algebraicznym nazywamy wyrażenie zbudowane z liczb, liter, nawiasów oraz znaków działań, na przykład: Symbole literowe występujące w wyrażeniu algebraicznym nazywamy zmiennymi.

Bardziej szczegółowo

Uproszczony opis obsługi ruchu w węźle IP. Trasa routingu. Warunek:

Uproszczony opis obsługi ruchu w węźle IP. Trasa routingu. Warunek: Uproszczony opis obsługi ruchu w węźle IP Poniższa procedura jest dokonywana dla każdego pakietu IP pojawiającego się w węźle z osobna. W routingu IP nie wyróżniamy połączeń. Te pojawiają się warstwę wyżej

Bardziej szczegółowo

3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S FAX SYSTEM

3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S FAX SYSTEM \ 3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S FAX SYSTEM SPIS TREŚCI 1. LOGOWANIE DO APLIKACJI... 3 2. WYGLĄD OKNA... 4 3. SKRZYNKA ODBIORCZA... 5 3.1. SKRZYNKA ODBIORCZA - Objaśnienie kolumn:...

Bardziej szczegółowo

WIEDZA. Ma podstawową wiedzę niezbędną do rozumienia ekonomicznych i innych pozatechnicznych uwarunkowań działalności inżynierskiej.

WIEDZA. Ma podstawową wiedzę niezbędną do rozumienia ekonomicznych i innych pozatechnicznych uwarunkowań działalności inżynierskiej. Efekty kształcenia dla kierunku: LOGISTYKA Wydział: ORGANIZACJI I ZARZĄDZANIA nazwa kierunku studiów: Logistyka poziom kształcenia: studia I stopnia profil kształcenia: ogólnoakademicki symbol K1A_W01

Bardziej szczegółowo

Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron

Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron Zagadka na początek wykładu Diagram fazowy wody w powiększeniu, problem metastabilności aktualny (Nature, 2011) Niższa temperatura topnienia

Bardziej szczegółowo

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne

Def. Kod jednoznacznie definiowalny Def. Kod przedrostkowy Def. Kod optymalny. Przykłady kodów. Kody optymalne Załóżmy, że mamy źródło S, które generuje symbole ze zbioru S={x, x 2,..., x N } z prawdopodobieństwem P={p, p 2,..., p N }, symbolom tym odpowiadają kody P={c, c 2,..., c N }. fektywność danego sposobu

Bardziej szczegółowo

Wynalazczość w uczelni technicznej pułapki i zagrożenia

Wynalazczość w uczelni technicznej pułapki i zagrożenia VIII Spotkanie Zawodowe 2013-06-06 WEiTI PW R.ZAŁ. 1951 Wynalazczość w uczelni technicznej pułapki i zagrożenia dr inż. Ireneusz Słomka UPRP Wszelkie prawa zastrzeżone 1 1.Co jest, a co nie jest wynalazkiem

Bardziej szczegółowo

Rachunek prawdopodobieństwa- wykład 2

Rachunek prawdopodobieństwa- wykład 2 Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet

Bardziej szczegółowo

Definicje. Algorytm to:

Definicje. Algorytm to: Algorytmy Definicje Algorytm to: skończony ciąg operacji na obiektach, ze ściśle ustalonym porządkiem wykonania, dający możliwość realizacji zadania określonej klasy pewien ciąg czynności, który prowadzi

Bardziej szczegółowo

Elementy rachunku różniczkowego i całkowego

Elementy rachunku różniczkowego i całkowego Elementy rachunku różniczkowego i całkowego W paragrafie tym podane zostaną elementarne wiadomości na temat rachunku różniczkowego i całkowego oraz przykłady jego zastosowania w fizyce. Małymi literami

Bardziej szczegółowo

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 1

Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 1 Rachunek prawdopodobieństwa (Elektronika, studia niestacjonarne) Wykład 1 Przygotowując wykład korzystam głównie z książki Jakubowski, Sztencel Wstęp do teorii prawdopodobieństwa. Jakubowski, Sztencel:

Bardziej szczegółowo

Programowanie komputerów

Programowanie komputerów Programowanie komputerów Wykład 1-2. Podstawowe pojęcia Plan wykładu Omówienie programu wykładów, laboratoriów oraz egzaminu Etapy rozwiązywania problemów dr Helena Dudycz Katedra Technologii Informacyjnych

Bardziej szczegółowo

Podstawy metod probabilistycznych. dr Adam Kiersztyn

Podstawy metod probabilistycznych. dr Adam Kiersztyn Podstawy metod probabilistycznych dr Adam Kiersztyn Przestrzeń zdarzeń elementarnych i zdarzenia losowe. Zjawiskiem lub doświadczeniem losowym nazywamy taki proces, którego przebiegu i ostatecznego wyniku

Bardziej szczegółowo

Kody blokowe Wykład 2, 10 III 2011

Kody blokowe Wykład 2, 10 III 2011 Kody blokowe Wykład 2, 10 III 2011 Literatura 1. R.M. Roth, Introduction to Coding Theory, 2006 2. W.C. Huffman, V. Pless, Fundamentals of Error-Correcting Codes, 2003 3. D.R. Hankerson et al., Coding

Bardziej szczegółowo

Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu.

Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu. Andrzej Wiśniewski Logika I Materiały do wykładu dla studentów kognitywistyki Wykład 11a. Składnia języka Klasycznego Rachunku Predykatów. Języki pierwszego rzędu. 1 Logika Klasyczna obejmuje dwie teorie:

Bardziej szczegółowo

Temat 5. 20 pytań Teoria informacji

Temat 5. 20 pytań Teoria informacji Temat 5 20 pytań Teoria informacji Streszczenie Ile informacji znajduje się w tysiącstronicowej książce? Czy więcej informacji znajduje się w książce telefonicznej, na 1000 stron tradycyjnych wydruków

Bardziej szczegółowo

MIARY NIERÓWNOŚCI. 6. Miary oparte na kwantylach rozkładu dochodu

MIARY NIERÓWNOŚCI. 6. Miary oparte na kwantylach rozkładu dochodu MIARY NIERÓWNOŚCI Charakterystyka miar nierówności 2 Własności miar nierówności 3 Miary nierówności oparte o funkcję Lorenza 3 Współczynnik Giniego 32 Współczynnik Schutza 4 Miary nierówności wykorzystujące

Bardziej szczegółowo

Elementy teorii informacji i kodowania

Elementy teorii informacji i kodowania i kodowania Entropia, nierówność Krafta, kodowanie optymalne Marcin Jenczmyk m.jenczmyk@knm.katowice.pl 17 kwietnia 2015 M. Jenczmyk Spotkanie KNM i kodowania 1 / 20 Niech S = {x 1,..., x q } oznacza alfabet,

Bardziej szczegółowo

Indukcja matematyczna

Indukcja matematyczna Indukcja matematyczna 1 Zasada indukcji Rozpatrzmy najpierw następujący przykład. Przykład 1 Oblicz sumę 1 + + 5 +... + (n 1). Dyskusja. Widzimy że dla n = 1 ostatnim składnikiem powyższej sumy jest n

Bardziej szczegółowo

Statystyka i eksploracja danych

Statystyka i eksploracja danych Wykład II: i charakterystyki ich rozkładów 24 lutego 2014 Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa, cz. II Wartość oczekiwana Dystrybuanty Słowniczek teorii prawdopodobieństwa,

Bardziej szczegółowo

Wykład 5: Statystyki opisowe (część 2)

Wykład 5: Statystyki opisowe (część 2) Wykład 5: Statystyki opisowe (część 2) Wprowadzenie Na poprzednim wykładzie wprowadzone zostały statystyki opisowe nazywane miarami położenia (średnia, mediana, kwartyle, minimum i maksimum, modalna oraz

Bardziej szczegółowo

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ TECHNICZNY EFEKTY KSZTAŁCENIA. Kierunek studiów INŻYNIERIA ŚRODOWISKA

PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ TECHNICZNY EFEKTY KSZTAŁCENIA. Kierunek studiów INŻYNIERIA ŚRODOWISKA Zał. nr 2 do uchwały nr 321/V/V/2015Senatu PWSZ w Koninie z dnia 19 maja w sprawie efektów kształcenia dla kierunków studiów w PWSZ w Koninie PAŃSTWOWA WYŻSZA SZKOŁA ZAWODOWA W KONINIE WYDZIAŁ TECHNICZNY

Bardziej szczegółowo

Wszystko na temat wzoru dokumentu elektronicznego

Wszystko na temat wzoru dokumentu elektronicznego Stowarzyszenie PEMI Wszystko na temat wzoru dokumentu elektronicznego Czym jest, kto go tworzy, kto publikuje, kto może z niego skorzystać? Mirosław Januszewski, Tomasz Rakoczy, Andrzej Matejko 2007-07-25

Bardziej szczegółowo

Termodynamika systemów otwartych - informacja (2)

Termodynamika systemów otwartych - informacja (2) Wykład 2 Termodynamika systemów otwartych - informacja (2) Bogdan Walkowiak Zakład Biofizyki Instytut Inżynierii Materiałowej Politechnika Łódzka 1 Potencjały i bodźce termodynamiczne Potencjał termodynamiczny

Bardziej szczegółowo

Informacja. Informacja. Informacja. Informacja/wiadomość. Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji).

Informacja. Informacja. Informacja. Informacja/wiadomość. Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji). Informacja Informacja Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów. Wszystko to, co może być zużytkowane do bardziej sprawnego wyboru działań

Bardziej szczegółowo

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2

STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon η eta Θ θ theta

Bardziej szczegółowo

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1

Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1 Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie

Bardziej szczegółowo

2. Wymagania wstępne w zakresie wiedzy, umiejętności oraz kompetencji społecznych (jeśli obowiązują):

2. Wymagania wstępne w zakresie wiedzy, umiejętności oraz kompetencji społecznych (jeśli obowiązują): OPISU MODUŁU KSZTAŁCENIA (SYLABUS) I. Informacje ogólne 1) Nazwa modułu : MATEMATYCZNE PODSTAWY KOGNITYWISTYKI 2) Kod modułu : 08-KODL-MPK 3) Rodzaj modułu : OBOWIĄZKOWY 4) Kierunek studiów: KOGNITYWISTYKA

Bardziej szczegółowo

TEORETYCZNE PODSTAWY INFORMATYKI

TEORETYCZNE PODSTAWY INFORMATYKI 1 TEORETYCZNE PODSTAWY INFORMATYKI 16/01/2017 WFAiS UJ, Informatyka Stosowana I rok studiów, I stopień Repetytorium złożoność obliczeniowa 2 Złożoność obliczeniowa Notacja wielkie 0 Notacja Ω i Θ Rozwiązywanie

Bardziej szczegółowo

Kompresja bezstratna. Entropia. Kod Huffmana

Kompresja bezstratna. Entropia. Kod Huffmana Kompresja bezstratna. Entropia. Kod Huffmana Kodowanie i bezpieczeństwo informacji - Wykład 10 29 kwietnia 2013 Teoria informacji Jeśli P(A) jest prawdopodobieństwem wystapienia informacji A to niech i(a)

Bardziej szczegółowo

Magistrale na schematach

Magistrale na schematach Magistrale na schematach Jeśli w projektowanym układzie występują sygnały składające się z kilku powiązanych ze sobą logicznie linii (na przykład liczby wielobitowe) wskazane jest używanie magistrali (Bus).

Bardziej szczegółowo

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt

STATYSTYKA wykład 1. Wanda Olech. Katedra Genetyki i Ogólnej Hodowli Zwierząt STTYSTYK wykład 1 Wanda Olech Katedra Genetyki i Ogólnej Hodowli Zwierząt Statystyka Pierwotnie oznaczała stan rzeczy (od status) i do XVIII wieku używana dla określenia zbioru wiadomości o państwie Statystyka

Bardziej szczegółowo

Teoria kinetyczno cząsteczkowa

Teoria kinetyczno cząsteczkowa Teoria kinetyczno cząsteczkowa Założenie Gaz składa się z wielkiej liczby cząstek znajdujących się w ciągłym, chaotycznym ruchu i doznających zderzeń (dwucząstkowych) Cel: Wyprowadzić obserwowane (makroskopowe)

Bardziej szczegółowo

3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S SMS SYSTEM

3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S SMS SYSTEM 3S TeleCloud - Aplikacje Instrukcja użytkowania usługi 3S SMS SYSTEM SPIS TREŚCI 1. LOGOWANIE DO APLIKACJI... 3 2. WYGLĄD OKNA... 4 3. SKRZYNKA NADAWCZA... 5 3.1. SKRZYNKA NADAWCZA - Przyciski filtrowania...

Bardziej szczegółowo

TERMODYNAMIKA I FIZYKA STATYSTYCZNA

TERMODYNAMIKA I FIZYKA STATYSTYCZNA TERMODYNAMIKA I FIZYKA STATYSTYCZNA Lech Longa pok. D.2.49, II piętro, sektor D Zakład Fizyki Statystycznej e-mail: lech.longa@uj.edu.pl Dyżury: poniedziałki 13-14 można się umówić wysyłając e-maila 1

Bardziej szczegółowo