Sposoby pomiaru ilości i wartości informacji
|
|
- Karolina Pawlik
- 8 lat temu
- Przeglądów:
Transkrypt
1 453 Zeszyty Naukowe Wyższej Szkoły Bankowej we Wrocławiu Nr 20/2011 Wyższa Szkoła Bankowa we Wrocławiu Sposoby pomiaru ilości i wartości informacji Streszczenie. Artykuł podejmuje tematykę pomiaru informacji. W pracy przedstawiono pojęcie informacji i omówiono sposoby pomiaru zarówno ilości, jak i wartości informacji. Słowa kluczowe: informacja, ilość informacji, wartość informacji, miary wartości informacji, miary ilości informacji Wstęp Z pojęciem informacji można spotkać się na każdym kroku życia codziennego, informacja bowiem ma w dzisiejszym świecie niezwykłe znaczenie zarówno w życiu gospodarczym, społecznym, politycznym, jak i naukowym. Ludzie dążą do zdobywania jak najświeższych, najbardziej aktualnych, adekwatnych i dokładnych informacji. Gotowi są w tym celu na wiele poświęceń, często z narażeniem zdrowia czy życia włącznie. Jak zatem ocenić zdobytą informację? Jej ilość i wartość. Kiedy informacja A jest lepsza od informacji B? Celem tego artykułu jest przedstawienie koncepcji próbujących odpowiedzieć na te pytania.
2 454 Na wstępie jednak należy podkreślić, że pojęcie informacji nie zostało jednoznacznie zdefiniowane. Jest to termin interdyscyplinarny, stąd wiele definicji powstałych na użytek rożnych dziedzin nauki. Według Nowej encyklopedii PWN informacja to w języku potocznym konstatacja stanu rzeczy, wiadomość; w dyscyplinach naukowych miara niepewności zajścia pewnego zdarzenia (otrzymania określonego wyniku pomiaru, wyemitowania określonej wiadomości przez źródło) spośród skończonego zbioru zdarzeń możliwych, ale także obiekt abstrakcyjny, który w postaci zakodowanej (dane) może być przechowywany na nośniku danych, przesyłany (np. głosem, falą elektromagnetyczną, prądem elektrycznym), przetwarzany (w trakcie wykonywania algorytmu) i użyty do sterowania (np. komputerem steruje program będący zakodowaną informacją) 1. Według Głuszkowa informacja są to wszelkie wiadomości o procesach i stanach dowolnej natury, które mogą być odbierane przez organy zmysłowe człowieka lub przez przyrodę 2. Niektórzy badacze, jak na przykład Wiener, definiowali informację poprzez negację, czyli stwierdzenie, czym informacja nie jest. Oto cytat: Mechaniczny mózg nie wydziela myśli, jak wątroba wydziela żółć, zdaniem dawniejszych materialistów, ani też nie wydaje jej w postaci energii, jak robi to mięsień w swoim działaniu. Informacja jest informacją, a nie materią czy energią 3. Już powyższe przykłady pokazują, jak wiele trudności wynika z próby zdefiniowania informacji. Równie dużo problemów sprawia pomiar jej ilości czy też wartości. 1. Ilość informacji Ilościowa teoria informacji, której początki sięgają pierwszej połowy XX w. podjęła próbę pomiaru ilości informacji. Prekursorzy tej teorii unikali jednak definiowania pojęcia informacji, poprzestając tylko na jej ilości. Pierwsza miara ilości informacji zaproponowana została przez R.V.L. Hartleya w 1928 r. Według tej koncepcji ilość informacji zawartej w zdarzeniu polegającym na rozpatrywaniu jednego z n obiektów należących do n-elementowego zbioru to: gdzie I ilość informacji. I = log n, (1) 1 Nowa encyklopedia PWN, t.3, Wydawnictwo Naukowe PWN, Warszawa 1995, s A. Baborski, M. Duda, S. Forlicz, Elementy cybernetyki ekonomicznej, PWE, Warszawa 1977, s N. Wiener, Cybernetics or Control and Communication in the Animal and the Machine, New York, Wiley 1948, za: M. Mazur, Jakościowa teoria informacji, Wydawnictwa Naukowo- -Techniczne, Warszawa, s. 19.
3 Sposoby pomiaru ilości i wartości informacji 455 Zgodnie ze stwierdzeniem, że w pojęciu informacji istotne jest nie samo zaistniałe zjawisko, lecz jego stosunek do zbioru zdarzeń, które mogły były zaistnieć 4, koncepcja Hartleya została dopracowana i rozwinięta przez C.E. Shannona w 1948 r. Według niego, mierząc ilość informacji otrzymanej przy zajściu zdarzenia x i niezbędne jest uwzględnienie także prawdopodobieństwa p i zajścia tegoż zdarzenia, co przedstawić można za pomocą wzoru: I(x i ) = log m p i, (2) I(x i ) ilość informacji otrzymanej przy zajściu zdarzenia x i, p i prawdopodobieństwo zajścia zdarzenia x i, m podstawa logarytmu. W zależności od przyjętej podstawy logarytmu we wzorze (2) miarą ilości informacji może być: nit lub nat (natural units), dla m = e, dit lub hartley (decimal digits), dla m = 10, bit (binary digits), dla m = 2, inna jednostka powstała na skutek przyjęcia jeszcze innej podstawy logarytmu. Pomimo tej różnorodności najczęściej spotykaną jednostką miary ilości informacji jest bit. Komunikat dostarcza 1 bitu informacji wówczas, gdy nastąpiło jedno z dwóch, tak samo prawdopodobnych zdarzeń. A oto kilka przykładów: Rzucamy sześcienną kostką do gry. Niech zdarzenie A oznacza wypadnięcie parzystej liczby oczek, zdarzenie B wypadnięcie nieparzystej liczby oczek, zdarzenie C wypadnięcie liczby oczek podzielnej przez 3, a zdarzenie D liczby oczek równej 1, 2, 3, 4, 5 lub 6. Jakich ilości informacji dostarcza komunikat o zajściu każdego ze zdarzeń? Losujemy jedną kartę spośród talii 52 kart do gry. Niech zdarzenie A oznacza wylosowanie karty koloru czarnego, zdarzenie B wylosowanie karty koloru trefl, a zdarzenie C wylosowanie asa. Jakich ilości informacji dostarcza komunikat o zajściu każdego ze zdarzeń? 4 W.M. Głuszkow za: J.L. Kulikowski, Informacja i świat, w którym żyjemy, Wiedza Powszechna, Warszawa 1978, s. 43.
4 456 Powyższe przykłady pokazują, że jeśli p A < p B, to I(A) > I(B). Oznacza to, że im mniejsze jest prawdopodobieństwo zajścia zdarzenia x i, tym większa jest ilość informacji, którą niesie komunikat o zajściu tegoż zdarzenia. W skrajnej sytuacji gdy prawdopodobieństwo zajścia zdarzenia x i jest równe 1 ilość informacji wynosi 0 (rys. 1). Fakt ten jest zgodny nie tylko ze wzorem (2), ale także z intuicją każdego człowieka. Im bardziej prawdopodobne jest zajście danego zdarzenia, tym mniejszą ilość informacji niesie. Dodatkowo komunikat, który dostarcza wiadomość znaną już wcześniej (prawdopodobieństwo równe 1), nie dostarcza żadnej informacji. Rys. 1. Zależność ilości informacji otrzymanej przy zajściu zdarzenia x i od prawdopodobieństwa zajścia zdarzenia x i Ź r ó d ł o: opracowanie własne. Jak już wspomniano powyżej, w zależności od przyjętej podstawy logarytmu we wzorze (2) miary ilości informacji mogą być różne. Należy jednak pamiętać, że wykorzystując własność logarytmów: (3)
5 Sposoby pomiaru ilości i wartości informacji 457 można dokonywać zamiany jednostek miar ilości informacji. Korzystając z (3) otrzymano: Zatem: 1 dit = 0,301 bita, a 1 nit = 0,693 bita. W tym miejscu pojawia się zatem pytanie: dlaczego najpopularniejszą miarą ilości informacji jest bit? Dlaczego najczęściej stosowany jest system binarny? W odpowiedzi przytoczony zostanie krótki przykład obrazujący, że system binarny jest najbardziej efektywnym systemem służącym do pomiaru informacji. Założono, że marynarz ma za zadanie zasygnalizować liczby od 0 do 127, wykorzystując w tym celu flagi. Na początku decyduje, że każda liczba reprezentowana będzie za pomocą jednej flagi. Aby wykonać zadanie, potrzebuje zatem 128 flag. Rezygnuje z pomysłu i wybiera system dziesiętny. Wówczas niezbędnych jest 21 flag 10 dla jednostek, 10 dla dziesiątek i 1 dla setki. Na koniec decyduje posłużyć się systemem binarnym. W tym przypadku potrzebuje tylko 14 flag. Siedem z nich to 0, a drugie 7 to flag zamiast pierwotnych 128 czysta oszczędność 5. Należy pamiętać, że na podstawie wzorów (1) i (2) określić można ilość informacji zawartą w komunikacie dotyczącym zdarzenia tylko dla zmiennych losowych o rozkładzie dyskretnym. W celu pomiaru ilości informacji wykorzystać można entropię. Entropia informacyjna jest miarą nieokreśloności zdarzeń przy określonym stanie niewiedzy o nich 6. Ilość informacji obliczona za pomocą entropii, jako miary niepewności, to różnica pomiędzy entropią przed i po otrzymaniu informacji. Jeśli możliwe jest tylko jedno zdarzenie z prawdopodobieństwem 1, to wówczas entropia H = 0. Dla zmiennej losowej o rozkładzie dyskretnym określona jest wzorem: p i prawdopodobieństwo zajścia zdarzenia x i, (4) 5 H.Ch. von Baeyer, Information. The new language of science, Harvard University Press, Cambridge, Massachusetts 2004, s S. Forlicz, Informacja w biznesie, PWE, Warszawa 2008, s. 22.
6 458 x i i-te zdarzenie traktowane jako i-ta realizacja zmiennej losowej X, n liczba możliwych stanów zmiennej losowej X. W przypadku zmiennej losowej ciągłej określona jest za pomocą następującego wzoru: gdzie f(x) funkcja gęstości zmiennej losowej X. Kolejną koncepcją wartą przedstawienia jest miara ilości informacji zaproponowana przez A. Kołmogorowa 7 w 1969 r. opisana wzorem: I(a) ilość informacji, a (5) I(a) = min d(a), (6) algorytm należący do pewnej rodziny algorytmów A rozwiązujących dany rodzaj zadań, d(a) miara długości algorytmu a (liczba poleceń, rozkazów, instrukcji w algorytmie), która w najprostszym przypadku równa będzie liczbie operacji wchodzących w skład algorytmu a. Miara zaproponowana przez Kołmogorowa, w przeciwieństwie do omawianych wyżej, nie uwzględnia prawdopodobieństwa wystąpienia danego zdarzenia. Niestety nie uwzględnia także wewnętrznej struktury algorytmów. Wszystkie operacje będące częścią algorytmów uznaje za równe, bez względu na stopień ich złożoności. Inną, niezwiązaną z prawdopodobieństwem zajścia zdarzeń, koncepcję pomiaru ilości informacji zaproponował w 1984 r. J. Hintikka. Przyjął, że: I = L(i), (7) I ilość informacji L(i) ilość pracy wykonanej przez system na podstawie otrzymanej informacji. Za podstawową jednostkę ilości informacji uznał taką ilość informacji, która potrzebna jest do wykonania jednego dżula pracy. Jest to sposób na zmierzenie na przykład ilości informacji, która zawarta jest w zadaniu przekazanym robotnikowi, polegającym na przeniesieniu określonego przedmiotu w określone miejsce 8. 7 B. Stefanowicz, Informacja, Wydawnictwo SGH, Warszawa 2004, s Tamże, s. 86.
7 Sposoby pomiaru ilości i wartości informacji 459 Sposobem pomiaru ilości informacji, która łączy w sobie koncepcje zarówno Hartleya, Shannona, jak i Kołmogorowa jest miara ilości informacji zaproponowana przez B. Stefanowicza 9, opisana wzorem: µ(k) = [µ(o) 2 + µ(a) 2 + µ(a) 2 ] 1/2, (8) µ(k) ilość informacji dostarczonej przez komunikat K, µ(o) ilość informacji, jaka wynika z uwzględnienia w komunikacie K pewnego konkretnego obiektu O; może być liczona za pomocą miary Hartleya, gdzie n będzie równe liczbie obiektów należących do zbioru, z którego pochodzi O, µ(a) ilość informacji, która wynika z uwzględnienia w komunikacie K atrybutu A; może być mierzona za pomocą miary Hartleya, gdzie n to liczba wszystkich atrybutów należących do zbioru zawierającego atrybut A, µ(a) ilość informacji zależna od wartości przyjmowanej przez atrybut A; w zależności od jej rodzaju, wyliczenia miary µ(a) można dokonać na różne sposoby: jeśli atrybut A jest opisem stanu obiektu O, a pojawienie się wartości a w komunikacie K wiąże się z odpowiednim prawdopodobieństwem, to ilość µ(a) wyliczyć można za pomocą miary Shannona (2), jeśli atrybut A oznacza strukturę obiektu O, a zaś jest opisem konkretnej struktury, to µ(a) wyliczyć można za pomocą miary Hartleya (1), jeśli A oznacza procedurę, a zaś jest pewną konkretną procedurą, to ilość µ(a) wyliczyć można za pomocą miary Kołmogorowa (6). Uwaga: Aby zapewnić wewnętrzną spójność ilości informacji, podstawy logarytmów przy obliczaniu miar µ(0), µ(a) i µ(a) powinny być takie same. Pozwoli to na obliczenie wartości z uwzględnieniem odpowiedniej miary: bitu, nitu, ditu lub innej. 2. Wartość informacji Jak już pokazano, wiele trudności sprawia znalezienie jednego uniwersalnego sposobu pomiaru ilości informacji. Niestety na podobne problemy napotkać można przy pomiarze wartości informacji. Wynika to z faktu, że wartość informacji rozumiana jest często w różny, zupełnie odmienny sposób. 9 Tamże, s
8 460 Mierząc wartość informacji ex ante istnieje konieczność oszacowania wartości oczekiwanej korzyści, powstałych na skutek zdobycia danej informacji (co jest na ogół bardzo trudne). W przypadku pomiaru wartości informacji ex post sposobów pomiaru może być kilka, w zależności od potrzeb czy też subiektywnych preferencji. Poniżej zostanie przedstawionych kilka z nich. Miary ilości informacji. Z uwagi na fakt, że wartość informacji może być utożsamiania z ilością informacji, miary ilości informacji mogą być jednocześnie miarami jej wartości. Oznaczałoby to, że im więcej informacji w ujęciu ilościowym, tym bardziej jest ona wartościowa. Nie zawsze jednak jest to zgodne z prawdą. Załóżmy, że Pani Basia brała udział w loterii, w której prawdopodobieństwo wygrania 100 zł wynosi 0,25. Pan Janusz wybrał natomiast loterię, gdzie szanse na wygranie 100 zł są jak 1:100. W ujęciu ilościowym: wiadomość o wygranej pani Basi to 2 bity, a o wygranej pana Janusza 6,64 bitów. W ujęciu wartościowym: wiadomość o wygranej pani Basi ma dla niej dużo większą wartość niż komunikat o wygranej pana Janusza, którego nawet nie zna. Pieniądz. Pieniądze, szczególnie w przedsiębiorstwach, są częstym miernikiem wartości informacji. Informacja będzie tym bardziej wartościowa, im wyższą kwotę zarobiono lub też zaoszczędzono na skutek jej pozyskania. Czas. Podobnie jak w przypadku miary, jaką są pieniądze, informacja jest tym bardziej wartościowa, im więcej czasu zaoszczędzono (np. poprzez rezygnację z projektu, użycie nowszych technologii) na skutek jej uzyskania. Uczestnicy rynku zainteresowani informacją. W tym przypadku im większa liczba uczestników rynku zabiegających o informację, tym bardziej jest ona wartościowa. Decyzje. O wartości informacji może także świadczyć poprawa skuteczności i trafności podejmowanych decyzji, która nastąpiła na skutek pozyskania informacji. Zatem im większa skuteczność i trafność decyzji, tym bardziej wartościowa jest informacja. Prawdopodobieństwo osiągnięcia celu. Porównując prawdopodobieństwa osiągnięcia celu po otrzymaniu informacji i przed jej posiadaniem, wskazać można kolejną miarę wartości informacji. Im większa jest bowiem różnica pomiędzy prawdopodobieństwem osiągnięcia celu po otrzymaniu informacji i przed jej odebraniem, tym bardziej informacja ta jest wartościowa (jest to miara powiązana z poprzednią dotyczącą skuteczności i trafności podejmowania decyzji). Zbliżanie się do celu. Podobnie jak w przypadku prawdopodobieństwa osiągnięcia celu, miarą wartości informacji może być różnica pomiędzy stopniem zbliżenia się do celu po i przed otrzymaniem informacji. Im większa jest ta różnica, tym wyższa jest wartość informacji.
9 Sposoby pomiaru ilości i wartości informacji 461 Użyteczność. Dokonując pomiaru i porównania subiektywnej użyteczności rezultatów działań, które zostały podjęte po uzyskaniu informacji i przed jej pozyskaniem, można wskazać kolejną miarę wartości informacji. Informacja jest tym bardziej wartościowa, im większa jest różnica pomiędzy użytecznością rezultatów działań po i przed uzyskaniem informacji 10. Krotność użycia. Mówiąc o wartości informacji należy pamiętać, że ta sama informacja może być wykorzystywana więcej niż raz. Zatem wartość informacji może być obliczona jako średnia wartość wszystkich możliwych wartości, które wynikają z potencjalnie możliwych sposobów wykorzystania informacji, ważonej przez prawdopodobieństwa zaistnienia każdego takiego faktu. Podsumowanie Omówione w pracy sposoby i koncepcje pomiaru ilości i wartości informacji nie wyczerpują tematu. Sygnalizują jedynie problemy związane z tą tematyką i pokazują, jak wiele jeszcze jest do zbadania w teorii informacji. Literatura Baborski A., Duda M., Forlicz S., Elementy cybernetyki ekonomicznej, PWE, Warszawa Baeyer H.Ch. von, Information. The new language of science, Harvard University Press, Cambridge, Massachusetts Forlicz S., Informacja w biznesie, PWE, Warszawa Forlicz S., Mikroekonomiczne aspekty przepływu informacji między podmiotami rynkowymi, Wydawnictwo Wyższej Szkoły Bankowej w Poznaniu, Poznań Forlicz S., Niedoskonała wiedza podmiotów rynkowych, Wydawnictwo Naukowe PWN, Warszawa Kulikowski J.L., Informacja i świat w którym żyjemy, Wiedza Powszechna, Warszawa Kuśmierczyk P., Czy poprawa informacji zawsze prowadzi do poprawy decyzji? Analiza kilku przypadków, w: Wpływ niedoskonałej wiedzy podmiotów i ich działalności informacyjnej na funkcjonowanie rynków i gospodarki, red. S. Forlicz, Prace Naukowe Akademii Ekonomicznej we Wrocławiu nr 1049, Wrocław Mazur M., Jakościowa teoria informacji, Wydawnictwa Naukowo-Techniczne, Warszawa Nowa encyklopedia PWN, Wydawnictwo Naukowe PWN, Warszawa Stefanowicz B., Informacja, Wydawnictwo Szkoły Głównej Handlowej, Warszawa To samo można powiedzieć o obiektywnych korzyściach.
Zmienne losowe i ich rozkłady
Zmienne losowe i ich rozkłady 29 kwietnia 2019 Definicja: Zmienną losową nazywamy mierzalną funkcję X : (Ω, F, P) (R n, B(R n )). Definicja: Niech A będzie zbiorem borelowskim. Rozkładem zmiennej losowej
prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz
WIEDZA prawda komunikat symbol DANE fałsz kod INFORMACJA (nie tyko w informatyce) liczba znak forma ENTROPIA przekaz wiadomość Czy żyjemy w erze informacji? TAK Bo używamy nowego rodzaju maszyn maszyn
Podstawy Informatyki dla Nauczyciela
Podstawy Informatyki dla Nauczyciela Bożena Woźna-Szcześniak bwozna@gmail.com Jan Długosz University, Poland Wykład 2 Bożena Woźna-Szcześniak (AJD) Podstawy Informatyki dla Nauczyciela Wykład 2 1 / 1 Informacja
KURS PRAWDOPODOBIEŃSTWO
KURS PRAWDOPODOBIEŃSTWO Lekcja 3 Definicja prawdopodobieństwa Kołmogorowa. Prawdopodobieństwa warunkowe i niezależne. ZADANIE DOMOWE www.etrapez.pl Strona 1 Część 1: TEST Zaznacz poprawną odpowiedź (tylko
Moneta 1 Moneta 2 Kostka O, R O,R 1,2,3,4,5, Moneta 1 Moneta 2 Kostka O O ( )
Nowa matura kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Doświadczenie losowe polega na rzucie dwiema symetrycznymi monetami i sześcienną kostką do gry. Prawdopodobieństwo
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory
Statystyka i opracowanie danych Podstawy wnioskowania statystycznego. Prawo wielkich liczb. Centralne twierdzenie graniczne. Estymacja i estymatory Dr Anna ADRIAN Paw B5, pok 407 adrian@tempus.metal.agh.edu.pl
Rachunek prawdopodobieństwa- wykład 2
Rachunek prawdopodobieństwa- wykład 2 Pojęcie dyskretnej przestrzeni probabilistycznej i określenie prawdopodobieństwa w tej przestrzeni dr Marcin Ziółkowski Instytut Matematyki i Informatyki Uniwersytet
Elementy statystyki opisowej, teoria prawdopodobieństwa i kombinatoryka
Wymagania egzaminacyjne: a) oblicza średnią arytmetyczną, średnią ważoną, medianę i odchylenie standardowe danych; interpretuje te parametry dla danych empirycznych, b) zlicza obiekty w prostych sytuacjach
Podstawy nauk przyrodniczych Matematyka
Podstawy nauk przyrodniczych Matematyka Elementy rachunku prawdopodobieństwa dr inż. Małgorzata Szeląg Zakład Genetyki Molekularnej Człowieka tel. 61 829 59 04 malgorzata.szelag@amu.edu.pl Pokój 1.118
Teoria Informacji - wykład. Kodowanie wiadomości
Teoria Informacji - wykład Kodowanie wiadomości Definicja kodu Niech S={s 1, s 2,..., s q } oznacza dany zbiór elementów. Kodem nazywamy wówczas odwzorowanie zbioru wszystkich możliwych ciągów utworzonych
Statystyka matematyczna
Statystyka matematyczna Wykład 1 Magdalena Alama-Bućko 20 lutego 2017 Magdalena Alama-Bućko Statystyka matematyczna 20 lutego 2017 1 / 21 Wykład : 10h (przez 10 tygodni po 45 minut) Ćwiczenia : 15h (45
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015
teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015 1 zakres materiału zakres materiału 1. Czym jest teoria informacji? 2. Wprowadzenie matematyczne. 3. Entropia i informacja.
Statystyka matematyczna
Statystyka matematyczna Wykład 1 Magdalena Alama-Bućko 26 lutego 2018 Magdalena Alama-Bućko Statystyka matematyczna 26 lutego 2018 1 / 16 Wykład : 10h (przez 10 tygodni po 45 minut) zaliczenie wykładu
Statystyka matematyczna
Statystyka matematyczna Wykład 2 Magdalena Alama-Bućko 5 marca 2018 Magdalena Alama-Bućko Statystyka matematyczna 5 marca 2018 1 / 14 Prawdopodobieństwo klasyczne Ω - zbiór wszystkich zdarzeń elementarnych
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średn
Wykład 10 Estymacja przedziałowa - przedziały ufności dla średniej Wrocław, 21 grudnia 2016r Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja 10.1 Przedziałem
Materiały dla finalistów
Materiały dla finalistów Malachoviacus Informaticus 2016 11 kwietnia 2016 Wprowadzenie Poniższy dokument zawiera opisy zagadnień, które będą niezbędne do rozwiązania zadań w drugim etapie konkursu. Polecamy
KOMBINATORYKA I P-WO CZ.1 PODSTAWA
KOMBINATORYKA I P-WO CZ.1 PODSTAWA ZADANIE 1 (1 PKT) Pan Jakub ma marynarki, 7 par różnych spodni i 10 różnych koszul. Na ile różnych sposobów może się ubrać, jeśli zawsze zakłada marynarkę, spodnie i
Granica kompresji Kodowanie Shannona Kodowanie Huffmana Kodowanie ciągów Kodowanie arytmetyczne. Kody. Marek Śmieja. Teoria informacji 1 / 35
Kody Marek Śmieja Teoria informacji 1 / 35 Entropia Entropia określa minimalną statystyczną długość kodowania (przyjmijmy dla prostoty że alfabet kodowy A = {0, 1}). Definicja Niech X = {x 1,..., x n }
Postawy wobec ryzyka
Postawy wobec ryzyka Wskaźnik Sharpe a przykład zintegrowanej miary rentowności i ryzyka Konstrukcja wskaźnika odwołuje się do klasycznej teorii portfelowej Markowitza, której elementem jest mapa ryzyko
Zadania ze statystyki, cz.6
Zadania ze statystyki, cz.6 Zad.1 Proszę wskazać, jaką część pola pod krzywą normalną wyznaczają wartości Z rozkładu dystrybuanty rozkładu normalnego: - Z > 1,25 - Z > 2,23 - Z < -1,23 - Z > -1,16 - Z
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015
teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015 1 wczoraj Wprowadzenie matematyczne. Entropia i informacja. Kodowanie. Kod ASCII. Stopa kodu. Kody bezprefiksowe.
Estymacja przedziałowa - przedziały ufności dla średnich. Wrocław, 5 grudnia 2014
Estymacja przedziałowa - przedziały ufności dla średnich Wrocław, 5 grudnia 2014 Przedział ufności Niech będzie dana próba X 1, X 2,..., X n z rozkładu P θ, θ Θ. Definicja Przedziałem ufności dla paramertu
M. Dąbrowska. K. Grabowska. Wroclaw University of Economics
M. Dąbrowska K. Grabowska Wroclaw University of Economics Zarządzanie wartością przedsiębiorstwa na przykładzie przedsiębiorstw z branży produkującej napoje JEL Classification: A 10 Słowa kluczowe: Zarządzanie
2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,
2 Arytmetyka Niech b = d r d r 1 d 1 d 0 będzie zapisem liczby w systemie dwójkowym Zamiana zapisu liczby b na system dziesiętny odbywa się poprzez wykonanie dodawania d r 2 r + d r 1 2 r 1 d 1 2 1 + d
c. dokładnie 10 razy została wylosowana kula antracytowa, ale nie za pierwszym ani drugim razem;
05DRAP - Niezależność zdarzeń, schemat Bernoulliego A Zadania na ćwiczenia Zadanie A.. Niech Ω = {ω, ω 2, ω, ω, ω 5 } i P({ω }) = 8, P({ω 2}) = P({ω }) = P({ω }) = 6 oraz P({ω 5}) = 5 6. Niech A = {ω,
Statystyka Astronomiczna
Statystyka Astronomiczna czyli zastosowania statystyki w astronomii historycznie astronomowie mieli wkład w rozwój dyscypliny Rachunek prawdopodobieństwa - gałąź matematyki Statystyka - metoda oceny właściwości
{( ) ( ) ( ) ( )( ) ( )( ) ( RRR)
.. KLASYCZNA DEFINICJA PRAWDOPODOBIEŃSTWA Klasyczna definicja prawdopodobieństwa JeŜeli jest skończonym zbiorem zdarzeń elementarnych jednakowo prawdopodobnych i A, to liczbę A nazywamy prawdopodobieństwem
WYKŁAD 3. Witold Bednorz, Paweł Wolff. Rachunek Prawdopodobieństwa, WNE, Uniwersytet Warszawski. 1 Instytut Matematyki
WYKŁAD 3 Witold Bednorz, Paweł Wolff 1 Instytut Matematyki Uniwersytet Warszawski Rachunek Prawdopodobieństwa, WNE, 2010-2011 Schemmat Bernouliego Rzucamy 10 razy moneta, próba Bernouliego jest pojedynczy
Matematyka podstawowa X. Rachunek prawdopodobieństwa
Matematyka podstawowa X Rachunek prawdopodobieństwa Zadania wprowadzające: 1. Rzucasz trzy razy monetą a) Napisz zbiór wszystkich wyników tego doświadczenia losowego. Ile ich jest? Wyrzuciłeś większą liczbę
Weryfikacja hipotez statystycznych. KG (CC) Statystyka 26 V / 1
Weryfikacja hipotez statystycznych KG (CC) Statystyka 26 V 2009 1 / 1 Sformułowanie problemu Weryfikacja hipotez statystycznych jest drugą (po estymacji) metodą uogólniania wyników uzyskanych w próbie
= 10 9 = Ile jest wszystkich dwucyfrowych liczb naturalnych podzielnych przez 3? A. 12 B. 24 C. 29 D. 30. Sposób I = 30.
Kombinatoryka i rachunek prawdopodobieństwa Zadania zamknięte (0 1 pkt) 1. Flagę, taką jak pokazano na rysunku, należy zszyć z trzech jednakowej szerokości pasów kolorowej tkaniny. Oba pasy zewnętrzne
R_PRACA KLASOWA 1 Statystyka i prawdopodobieństwo.
R_PRACA KLASOWA 1 Statystyka i prawdopodobieństwo. Zadanie 1. Wyznacz średnią arytmetyczną, dominantę i medianę zestawu danych: 1, 5, 3, 2, 2, 4, 4, 6, 7, 1, 1, 4, 5, 5, 3. Zadanie 2. W zestawie danych
12DRAP - parametry rozkładów wielowymiarowych
DRAP - parametry rozkładów wielowymiarowych Definicja.. Jeśli h : R R, a X, Y ) jest wektorem losowym o gęstości fx, y) to EhX, Y ) = hx, y)fx, y)dxdy. Jeśli natomiast X, Y ) ma rozkład dyskretny skupiony
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt.
P r a w d o p o d o b i eństwo Lekcja 1 Temat: Lekcja organizacyjna. Program. Kontrakt. Lekcja 2 Temat: Podstawowe pojęcia związane z prawdopodobieństwem. Str. 10-21 1. Doświadczenie losowe jest to doświadczenie,
Spis treści. Definicje prawdopodobieństwa. Częstościowa definicja prawdopodobieństwa. Wnioskowanie_Statystyczne_-_wykład
Wnioskowanie_Statystyczne_-_wykład Spis treści 1 Definicje prawdopodobieństwa 1.1 Częstościowa definicja prawdopodobieństwa 1.1.1 Przykład 1.1.2 Rozwiązanie: 1.1.3 Inne rozwiązanie: 1.1.4 Jeszcze inne
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa Sebastian Rymarczyk srymarczyk@afm.edu.pl Tematyka zajęć 1. Elementy kombinatoryki. 2. Definicje prawdopodobieństwa. 3. Własności prawdopodobieństwa. 4. Zmienne losowe, parametry
PRAWDOPODOBIEŃSTWO CZAS PRACY: 180 MIN. ZADANIE 1 (5 PKT) NAJWIEKSZY INTERNETOWY ZBIÓR ZADAŃ Z MATEMATYKI
IMIE I NAZWISKO PRAWDOPODOBIEŃSTWO PRAWDOPODOBIEŃSTWO CZAS PRACY: 180 MIN. SUMA PUNKTÓW: 100 ZADANIE 1 (5 PKT) Rzucono dwiema sześciennymi kostkami do gry i określono zdarzenia A na każdej kostce wypadła
p k (1 p) n k. k c. dokładnie 10 razy została wylosowana kula amarantowa, ale nie za pierwszym ani drugim razem;
05DRAP - Niezależność zdarzeń, schemat Bernoulliego Definicja.. Zdarzenia A i B nazywamy niezależnymi, jeżeli zachodzi równość P(A B) = P(A) P(B). Definicja. 2. Zdarzenia A,..., A n nazywamy niezależnymi
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji
Weryfikacja hipotez statystycznych, parametryczne testy istotności w populacji Dr Joanna Banaś Zakład Badań Systemowych Instytut Sztucznej Inteligencji i Metod Matematycznych Wydział Informatyki Politechniki
Podstawowe pojęcia. Teoria informacji
Kodowanie i kompresja informacji - Wykład 1 22 luty 2010 Literatura K. Sayood, Kompresja danych - wprowadzenie, READ ME 2002 (ISBN 83-7243-094-2) Literatura K. Sayood, Kompresja danych - wprowadzenie,
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń.
Rachunek prawdopodobieństwa Rozdział 3. Prawdopodobieństwo warunkowe i niezależność zdarzeń. 3.2. Niezależność zdarzeń Katarzyna Rybarczyk-Krzywdzińska Niezależność dwóch zdarzeń Intuicja Zdarzenia losowe
Kurs ZDAJ MATURĘ Z MATEMATYKI MODUŁ 14 Zadania statystyka, prawdopodobieństwo i kombinatoryka
1 TEST WSTĘPNY 1. (1p) Zestaw danych 3, 5, x, 7, 10, 12 jest uporządkowany niemalejąco. Mediana tego zestawu jest równa 6, więc liczba x jest równa A. 7 B. 6 C. 5 D. 4 2. (2p) Średnia arytmetyczna liczb:
Prawdopodobieństwo
Prawdopodobieństwo http://www.matemaks.pl/ Wstęp do rachunku prawdopodobieństwa http://www.matemaks.pl/wstep-do-rachunku-prawdopodobienstwa.html Rachunek prawdopodobieństwa pomaga obliczyć szansę zaistnienia
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje
Wygra Polska czy Brazylia, czyli o tym jak zwięźle zapisywać informacje Witold Tomaszewski Instytut Matematyki Politechniki Śląskiej e-mail: Witold.Tomaszewski@polsl.pl Je n ai fait celle-ci plus longue
Statystyka matematyczna
Statystyka matematyczna Wykład 1 Magdalena Alama-Bućko 25 lutego 2019 Magdalena Alama-Bućko Statystyka matematyczna 25 lutego 2019 1 / 18 Wykład : 10h (przez 10 tygodni po 45 minut) Ćwiczenia : 15h (45
Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym
Edward Stachowski Prawdopodobieństwo warunkowe Twierdzenie o prawdopodobieństwie całkowitym W podstawie programowej obowiązującej na egzaminie maturalnym od 05r pojawiły się nowe treści programowe Wśród
Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018
Katedra Matematyki i Ekonomii Matematycznej SGH 16 października 2018 Definicja σ-algebry Definicja Niech Ω oznacza zbiór niepusty. Rodzinę M podzbiorów zbioru Ω nazywamy σ-algebrą (lub σ-ciałem) wtedy
Ryzyko. Ekonomika i organizacja produkcji. Materiały do zajęć z EiOP - L. Wicki Niebezpieczeństwo. Hazard. Zarządzanie ryzykiem
Szkoła Główna Gospodarstwa Wiejskiego Katedra Ekonomiki i Organizacji Przedsiębiorstw Ekonomika i organizacja produkcji Ryzyko Zarządzanie ryzykiem Dr inż. Ludwik Wicki Pojęcia występujące w ubezpieczeniowej
Statystyka z elementami rachunku prawdopodobieństwa
Statystyka z elementami rachunku prawdopodobieństwa dr hab. Tomasz Górecki tomasz.gorecki@amu.edu.pl Zakład Rachunku Prawdopodobieństwa i Statystyki Matematycznej Wydział Matematyki i Informatyki Uniwersytet
Liczby rzeczywiste, wyrażenia algebraiczne, równania i nierówności, statystyka, prawdopodobieństwo.
Liczby rzeczywiste, wyrażenia algebraiczne, równania i nierówności, statystyka, prawdopodobieństwo. Zagadnienia szczegółowe: obliczanie wartości wyrażeń arytmetycznych; działania na pierwiastkach i potęgach;
Metody teorii gier. ALP520 - Wykład z Algorytmów Probabilistycznych p.2
Metody teorii gier ALP520 - Wykład z Algorytmów Probabilistycznych p.2 Metody teorii gier Cel: Wyprowadzenie oszacowania dolnego na oczekiwany czas działania dowolnego algorytmu losowego dla danego problemu.
Algorytmy ewolucyjne NAZEWNICTWO
Algorytmy ewolucyjne http://zajecia.jakubw.pl/nai NAZEWNICTWO Algorytmy ewolucyjne nazwa ogólna, obejmująca metody szczegółowe, jak np.: algorytmy genetyczne programowanie genetyczne strategie ewolucyjne
Metody probabilistyczne
Metody probabilistyczne 1. Prawdopodobieństwo klasyczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 03.10.2017 1 / 19 Rys historyczny Francja, XVII w.: gry hazardowe
Akademia Młodego Ekonomisty
Akademia Młodego Ekonomisty Ryzyko w procesie zarządzania dr Mirosław Wójciak Uniwersytet Ekonomiczny w Katowicach 27 lutego 2012 1 Gdzie spotykamy się z ryzykiem? Praktycznie w każdej dziedzinie życia.
Temat: Statystyka i prawdopodobieństwo w naszym życiu.
Dla nauczyciela Spotkanie 9 Temat: Statystyka i prawdopodobieństwo w naszym życiu. Na zajęcia potrzebne będą pomoce tzn. kostki do gry, talia kart, monety lub inne. Przy omawianiu doświadczeń losowych
c) Zaszły oba zdarzenia A i B; d) Zaszło zdarzenie A i nie zaszło zdarzenie B;
Rachunek prawdopodobieństwa rozwiązywanie zadań 1. Rzucamy dwa razy symetryczną sześcienną kostką do gry. Zapisujemy liczbę oczek, jakie wypadły w obu rzutach. Wypisz zdarzenia elementarne tego doświadczenia.
Algorytmy i struktury danych. Wykład 4
Wykład 4 Różne algorytmy - obliczenia 1. Obliczanie wartości wielomianu 2. Szybkie potęgowanie 3. Algorytm Euklidesa, liczby pierwsze, faktoryzacja liczby naturalnej 2017-11-24 Algorytmy i struktury danych
02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w
02DRAP - Aksjomatyczna definicja prawdopodobieństwa, zasada w-w A Zadania na ćwiczenia Zadanie A.1. Niech Ω = R oraz F będzie σ-ciałem generowanym przez rodzinę wszystkich przedziałów otwartych typu (,
P (A B) = P (A), P (B) = P (A), skąd P (A B) = P (A) P (B). P (A)
Wykład 3 Niezależność zdarzeń, schemat Bernoulliego Kiedy dwa zdarzenia są niezależne? Gdy wiedza o tym, czy B zaszło, czy nie, NIE MA WPŁYWU na oszacowanie prawdopodobieństwa zdarzenia A: P (A B) = P
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji
Identyfikacja istotnych atrybutów za pomocą Baysowskich miar konfirmacji Jacek Szcześniak Jerzy Błaszczyński Roman Słowiński Poznań, 5.XI.2013r. Konspekt Wstęp Wprowadzenie Metody typu wrapper Nowe metody
Doświadczenie i zdarzenie losowe
Doświadczenie i zdarzenie losowe Doświadczenie losowe jest to takie doświadczenie, które jest powtarzalne w takich samych warunkach lub zbliżonych, a którego wyniku nie można przewidzieć jednoznacznie.
NAJWIEKSZY INTERNETOWY ZBIÓR ZADAŃ Z MATEMATYKI ZADANIE 1 oczka. ZADANIE 2 iloczynu oczek równego 12.
IMIE I NAZWISKO ZADANIE 1 Rzucamy sześcienna kostka do gry. Jakie jest prawdopodobieństwo, że wypadna co najmniej dwa oczka. ZADANIE 2 Rzucamy trzy razy symetryczna sześcienna kostka do gry. Oblicz prawdopodobieństwo
Metody Rozmyte i Algorytmy Ewolucyjne
mgr inż. Wydział Matematyczno-Przyrodniczy Szkoła Nauk Ścisłych Uniwersytet Kardynała Stefana Wyszyńskiego Podstawowe operatory genetyczne Plan wykładu Przypomnienie 1 Przypomnienie Metody generacji liczb
RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA
Wydział: WiLiŚ, Transport, sem.2 dr Jolanta Dymkowska RACHUNEK PRAWDOPODOBIEŃSTWA - POJĘCIA WSTĘPNE MATERIAŁY POMOCNICZE - TEORIA Przestrzeń probabilistyczna Modelem matematycznym (tj. teoretycznym, wyidealizowanym,
c) ( 13 (1) (2) Zadanie 2. Losując bez zwracania kolejne litery ze zbioru AAAEKMMTTY, jakie jest prawdopodobieństwo Odp.
Zadania na kolokwium nr Zadanie. Spośród kart w tali wylosowano. Jakie jest prawdopodobieństwo: pików, kierów, trefli i karo otrzymania wszystkich kolorów otrzymania dokładnie pików a ( b ( ( c ( ( ( (
Skrypt 30. Prawdopodobieństwo
Projekt Innowacyjny program nauczania matematyki dla liceów ogólnokształcących współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego Skrypt 30 Prawdopodobieństwo 5.
Wersja testu A 18 czerwca 2012 r. x 2 +x dx
1. Funkcja f : R R jest różniczkowalna na całej prostej, a ponadto dla każdej liczby rzeczywistej x zachodzi nierówność f x
Definicja testu psychologicznego
Definicja testu psychologicznego Badanie testowe to taka sytuacja, w której osoba badana uczestniczy dobrowolnie, świadoma celu jakim jest jej ocena. Jest to sytuacja tworzona specjalnie dla celów diagnostycznych,
Rozkład Gaussa i test χ2
Rozkład Gaussa jest scharakteryzowany dwoma parametramiwartością oczekiwaną rozkładu μ oraz dyspersją σ: METODA 2 (dokładna) polega na zmianie zmiennych i na obliczeniu pk jako różnicy całek ze standaryzowanego
Rozkład zajęć, statystyka matematyczna, Rok akademicki 2015/16, semestr letni, Grupy dla powtarzających (C15; C16)
Rozkład zajęć, statystyka matematyczna, Rok akademicki 05/6, semestr letni, Grupy powtarzających (C5; C6) Lp Grupa C5 Grupa C6 Liczba godzin 0046 w godz 600-000 C03 0046 w godz 600-000 B05 4 6046 w godz
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013
Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013 Tomasz Downarowicz Instytut Matematyki i Informatyki Politechniki
6.4 Podstawowe metody statystyczne
156 Wstęp do statystyki matematycznej 6.4 Podstawowe metody statystyczne Spóbujemy teraz w dopuszczalnym uproszczeniu przedstawić istotę analizy statystycznej. W szczególności udzielimy odpowiedzi na postawione
STATYSTYKA. Rafał Kucharski. Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2
STATYSTYKA Rafał Kucharski Uniwersytet Ekonomiczny w Katowicach 2015/16 ROND, Finanse i Rachunkowość, rok 2 Wybrane litery alfabetu greckiego α alfa β beta Γ γ gamma δ delta ɛ, ε epsilon η eta Θ θ theta
Rozkłady zmiennych losowych
Rozkłady zmiennych losowych Wprowadzenie Badamy pewną zbiorowość czyli populację pod względem występowania jakiejś cechy. Pobieramy próbę i na podstawie tej próby wyznaczamy pewne charakterystyki. Jeśli
Prawdopodobieństwo geometryczne
Prawdopodobieństwo geometryczne Krzysztof Jasiński Wydział Matematyki i Informatyki UMK, Toruń V Lieceum Ogólnokształące im. Jana Pawała II w Toruniu 13.03.2014 Krzysztof Jasiński (WMiI UMK) Prawdopodobieństwo
Rozdział 1. Wektory losowe. 1.1 Wektor losowy i jego rozkład
Rozdział 1 Wektory losowe 1.1 Wektor losowy i jego rozkład Definicja 1 Wektor X = (X 1,..., X n ), którego każda współrzędna jest zmienną losową, nazywamy n-wymiarowym wektorem losowym (krótko wektorem
ZAGADNIENIA NA EGZAMIN POPRAWKOWY Z MATEMATYKI W KLASIE III TECHNIKUM.
ZAGADNIENIA NA EGZAMIN POPRAWKOWY Z MATEMATYKI W KLASIE III TECHNIKUM. I GEOMETRIA ANALITYCZNA 1. Równanie prostej w postaci ogólnej i kierunkowej powtórzenie 2. Wzajemne położenie dwóch prostych powtórzenie
4,5. Dyskretne zmienne losowe (17.03; 31.03)
4,5. Dyskretne zmienne losowe (17.03; 31.03) Definicja 1 Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która przyjmuje wszystkie
Zarządzanie ryzykiem 3. Dorota Kuchta
Zarządzanie ryzykiem 3 Dorota Kuchta Pojęcie użyteczności paradoks petersburski Bernoulli paradoks petersburski: Rzucamy kostką aż do momentu, kiedy po raz pierwszy wypadnie orzeł W tym momencie gracz
Metody probabilistyczne
Metody probabilistyczne. Twierdzenia graniczne Wojciech Kotłowski Instytut Informatyki PP http://www.cs.put.poznan.pl/wkotlowski/ 20.2.208 / 26 Motywacja Rzucamy wielokrotnie uczciwą monetą i zliczamy
Porównywanie populacji
3 Porównywanie populacji 2 Porównywanie populacji Tendencja centralna Jednostki (w grupie) według pewnej zmiennej porównuje się w ten sposób, że dokonuje się komparacji ich wartości, osiągniętych w tej
Dyskretne zmienne losowe
Dyskretne zmienne losowe dr Mariusz Grządziel 16 marca 2009 Definicja 1. Zmienna losowa nazywamy dyskretna (skokowa), jeśli zbiór jej wartości x 1, x 2,..., można ustawić w ciag. Zmienna losowa X, która
INSTRUKCJA DO ĆWICZENIA NR 1
L01 ---2014/10/17 ---10:52---page1---#1 KATEDRA MECHANIKI STOSOWANEJ Wydział Mechaniczny POLITECHNIKA LUBELSKA INSTRUKCJA DO ĆWICZENIA NR 1 PRZEDMIOT TEMAT Wybrane zagadnienia z optymalizacji elementów
RODZAJE I TYPY INŻYNIERII SYSTEMÓW
techniczne RODZAJE I TYPY INŻYNIERII SYSTEMÓW Rodzaje systemów: polityczne, społeczne, ekonomiczne, ekologiczne, przyrodnicze, techniczne, Typy systemów: projektowania, produkcji, eksploatacji, diagnostyki,
Złożoność informacyjna Kołmogorowa. Paweł Parys
Złożoność informacyjna Kołmogorowa Paweł Parys Serock 2012 niektóre liczby łatwiej zapamiętać niż inne... (to zależy nie tylko od wielkości liczby) 100...0 100 100... 100 100 100 25839496603316858921 31415926535897932384
Algorytmy zachłanne. dr inż. Urszula Gałązka
Algorytmy zachłanne dr inż. Urszula Gałązka Algorytm zachłanny O Dokonuje wyboru, który w danej chwili wydaje się najkorzystniejszy. O Mówimy, że jest to wybór lokalnie optymalny O W rzeczywistości nie
Ćwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ
Ćwiczenia 3 ROZKŁAD ZMIENNEJ LOSOWEJ JEDNOWYMIAROWEJ Zadanie 1. Zmienna losowa przyjmuje wartości -1, 0, 1 z prawdopodobieństwami równymi odpowiednio: ¼, ½, ¼. Należy: a. Wyznaczyć rozkład prawdopodobieństwa
L.Kowalski zadania z rachunku prawdopodobieństwa-zestaw 2 ZADANIA - ZESTAW 2
ZADANIA - ZESTAW 2 Zadanie 2.1 Zmienna losowa X ma rozkład określony funkcją prawdopodobieństwa: x k 1 0 2 p k 1/ 1/6 1/2 a) wyznaczyć dystrybuantę tej zmiennej losowej i naszkicować jej wykres, b) obliczyć
Zestaw 2: Zmienne losowe. 0, x < 1, 2, 2 x, 1 1 x, 1 x, F 9 (x) =
Zestaw : Zmienne losowe. Które z poniższych funkcji są dystrybuantami? Odpowiedź uzasadnij. Wskazówka: naszkicuj wykres. 0, x 0,, x 0, F (x) = x, F (x) = x, 0 x
Granice ciągów liczbowych
Granice ciągów liczbowych Obliczyć z definicji granicę ciągu o wyrazie, gdzie jest pewną stałą liczbą. Definicja: granicą ciągu jest liczba, jeśli Sprawdzamy, czy i kiedy granica rozpatrywanego ciągu wynosi
Recenzja rozprawy doktorskiej mgr Bartosza Rymkiewicza pt. Społeczna odpowiedzialność biznesu a dokonania przedsiębiorstwa
Prof. dr hab. Edward Nowak Uniwersytet Ekonomiczny we Wrocławiu Katedra Rachunku Kosztów, Rachunkowości Zarządczej i Controllingu Recenzja rozprawy doktorskiej mgr Bartosza Rymkiewicza pt. Społeczna odpowiedzialność
(C. Gauss, P. Laplace, Bernoulli, R. Fisher, J. Spława-Neyman) Wikipedia 2008
STATYSTYKA MATEMATYCZNA - dział matematyki stosowanej oparty na rachunku prawdopodobieństwa; zajmuje się badaniem zbiorów na podstawie analizy ich części. Nauka, której przedmiotem zainteresowania są metody
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład 1
Pojęcie szeregu nieskończonego:zastosowania do rachunku prawdopodobieństwa wykład dr Mariusz Grządziel 5 lutego 04 Paradoks Zenona z Elei wersja uwspółcześniona Zenek goni Andrzeja; prędkość Andrzeja:
LABORATORIUM Z FIZYKI
LABORATORIUM Z FIZYKI LABORATORIUM Z FIZYKI I PRACOWNIA FIZYCZNA C w Gliwicach Gliwice, ul. Konarskiego 22, pokoje 52-54 Regulamin pracowni i organizacja zajęć Sprawozdanie (strona tytułowa, karta pomiarowa)
zdarzenie losowe - zdarzenie którego przebiegu czy wyniku nie da się przewidzieć na pewno.
Rachunek prawdopodobieństwa Podstawowym celem rachunku prawdopodobieństwa jest określanie szans zajścia pewnych zdarzeń. Pojęcie podstawowe rachunku prawdopodobieństwa to: zdarzenie losowe - zdarzenie
Teoria Informacji i Metody Kompresji Danych
Teoria Informacji i Metody Kompresji Danych 1 Przykładowe zadania (dodatkowe materiały wykładowe) 2 Robert Susmaga Instytut Informatyki ul. Piotrowo 2 Poznań kontakt mail owy Robert.Susmaga@CS.PUT.Poznan.PL
Zadania do wykonania. Rozwiązując poniższe zadania użyj pętlę for.
Zadania do wykonania Rozwiązując poniższe zadania użyj pętlę for. 1. apisz program, który przesuwa w prawo o dwie pozycje zawartość tablicy 10-cio elementowej liczb całkowitych tzn. element t[i] dla i=2,..,9
RACHUNEK PRAWDOPODOBIEŃSTWA ZADANIA Z ROZWIĄZANIAMI. Uwaga! Dla określenia liczebności zbioru (mocy zbioru) użyto zamiennie symboli: Ω lub
RACHUNEK PRAWDOPODOBIEŃSTWA ZADANIA Z ROZWIĄZANIAMI Uwaga! Dla określenia liczebności zbioru (mocy zbioru) użyto zamiennie symboli: Ω lub 1. W grupie jest 15 kobiet i 18 mężczyzn. Losujemy jedną osobę
RACHUNEK PRAWDOPODOBIEŃSTWA
RACHUNEK PRAWDOPODOBIEŃSTWA Zadanie 1. W urnie jest 1000 kartoników będących losami loterii pieniężnej. Cztery z kartoników wygrywają po 100 zł i szesnaście po 10 zł. Reszta kartoników to losy puste. Pierwszy
Materiał dydaktyczny dla nauczycieli przedmiotów ekonomicznych MENEDŻER. Wprowadzenie do problematyki decyzji menedżerskich. Mgr Piotr Urbaniak
Materiał dydaktyczny dla nauczycieli przedmiotów ekonomicznych MENEDŻER Wprowadzenie do problematyki decyzji menedżerskich Mgr Piotr Urbaniak Wprowadzenie 1 2 3 4 Czym jest ekonomia menedżerska? Etapy