Termodynamika informacji

Podobne dokumenty
Czy informacja jest fizyczna? Demonologia, zasada Landauera i obliczenia odwracalne

Entropia, demon Maxwella i maszyna Turinga

dr inż. Andrzej Skorupski Wydział Elektroniki i Technik Informacyjnych Politechnika Warszawska

Arytmetyka liczb binarnych

Wykład 8 i 9. Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna

Maszyna Turinga języki

Podstawowe operacje arytmetyczne i logiczne dla liczb binarnych

Termodynamika. Część 4. Procesy izoparametryczne Entropia Druga zasada termodynamiki. Janusz Brzychczyk, Instytut Fizyki UJ

Technika cyfrowa Inżynieria dyskretna cz. 2

Wykład FIZYKA I. 14. Termodynamika fenomenologiczna cz.ii. Dr hab. inż. Władysław Artur Woźniak

Matematyczne Podstawy Informatyki

MODELOWANIE RZECZYWISTOŚCI

Zmienne losowe i ich rozkłady

= = Budowa materii. Stany skupienia materii. Ilość materii (substancji) n - ilość moli, N liczba molekuł (atomów, cząstek), N A

Architektura komputerów Wykład 2

Temat: Algorytm kompresji plików metodą Huffmana

Języki formalne i automaty Ćwiczenia 9

Zadanie 1. Oblicz prawdopodobieństwo, że rzucając dwiema kostkami do gry otrzymamy:

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Przepustowość kanału, odczytywanie wiadomości z kanału, poprawa wydajności kanału.

FIZYKA STATYSTYCZNA. d dp. jest sumaryczną zmianą pędu cząsteczek zachodzącą na powierzchni S w

Podstawy termodynamiki

Hierarchia Chomsky ego Maszyna Turinga

Turing i jego maszyny

S ścianki naczynia w jednostce czasu przekazywany

Teoria kinetyczno cząsteczkowa

Prawdopodobieństwo. Prawdopodobieństwo. Jacek Kłopotowski. Katedra Matematyki i Ekonomii Matematycznej SGH. 16 października 2018

Podstawowe pojęcia. Teoria informacji

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

prawda symbol WIEDZA DANE komunikat fałsz liczba INFORMACJA (nie tyko w informatyce) kod znak wiadomość ENTROPIA forma przekaz

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

Operatory AND, OR, NOT, XOR Opracował: Andrzej Nowak Bibliografia:

Elementy Teorii Obliczeń

Przykład: Σ = {0, 1} Σ - zbiór wszystkich skończonych ciagów binarnych. L 1 = {0, 00, 000,...,1, 11, 111,... } L 2 = {01, 1010, 001, 11}

Termodynamika. Cel. Opis układu niezależny od jego struktury mikroskopowej Uniwersalne prawa. William Thomson 1. Baron Kelvin

Matematyka podstawowa X. Rachunek prawdopodobieństwa

Fizyka statystyczna Zerowa Zasada Termodynamiki. P. F. Góra

Teoretyczne Podstawy Informatyki

Entropia w układach dynamicznych Środowiskowe Studia Doktoranckie z Nauk Matematycznych Uniwersytet Jagielloński, Kraków, marzec-kwiecień 2013

Bramki logiczne Podstawowe składniki wszystkich układów logicznych

Wstęp do informatyki- wykład 1 Systemy liczbowe

Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI

Podstawy Informatyki Elementarne podzespoły komputera

Teoria Informacji - wykład. Kodowanie wiadomości

Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika

Równowaga w układach termodynamicznych. Katarzyna Sznajd-Weron

Obliczenia inspirowane Naturą

1. Operacje logiczne A B A OR B

Generowanie ciągów bitów losowych z wykorzystaniem sygnałów pochodzących z komputera

Wielkości liczbowe. Wykład z Podstaw Informatyki. Piotr Mika

Zestaw 3. - Zapis liczb binarnych ze znakiem 1

Termodynamika. Część 11. Układ wielki kanoniczny Statystyki kwantowe Gaz fotonowy Ruchy Browna. Janusz Brzychczyk, Instytut Fizyki UJ

DRUGA ZASADA TERMODYNAMIKI

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem

Podstawy Informatyki Maszyna Turinga

ZADANIE 1. Rozwiązanie:

Występują fluktuacje w stanie równowagi Proces przejścia do stanu równowagi jest nieodwracalny proces powrotny jest bardzo mało prawdopodobny.

Wstęp do fizyki statystycznej: krytyczność i przejścia fazowe. Katarzyna Sznajd-Weron

AKADEMIA MORSKA KATEDRA NAWIGACJI TECHNICZEJ

DRUGA ZASADA TERMODYNAMIKI

Złożoność informacyjna Kołmogorowa. Paweł Parys

Informatyka kwantowa. Zaproszenie do fizyki. Zakład Optyki Nieliniowej. wykład z cyklu. Ryszard Tanaś. mailto:tanas@kielich.amu.edu.

Kodowanie informacji

Logiczny model komputera i działanie procesora. Część 1.

Wykład 2. Przykład zastosowania teorii prawdopodobieństwa: procesy stochastyczne (Markova)

Peter W. Shor - Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer. 19 listopada 2004 roku

PRAWDOPODOBIEŃSTWO CZAS PRACY: 180 MIN. ZADANIE 1 (5 PKT) NAJWIEKSZY INTERNETOWY ZBIÓR ZADAŃ Z MATEMATYKI

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Sortowanie. Tomasz Żak zak. styczeń Instytut Matematyki i Informatyki, Politechnika Wrocławska

LOGIKA I TEORIA ZBIORÓW

Języki, automaty i obliczenia

Rozkłady statyczne Maxwella Boltzmana. Konrad Jachyra I IM gr V lab

Statystyki kwantowe. P. F. Góra

Prawdopodobieństwo

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Wykład 2. Informatyka Stosowana. 8 października 2018, M. A-B. Informatyka Stosowana Wykład 2 8 października 2018, M. A-B 1 / 41

Instrukcje dla zawodników

Entropia Kodowanie. Podstawy kompresji. Algorytmy kompresji danych. Sebastian Deorowicz

b) bc a Rys. 1. Tablice Karnaugha dla funkcji o: a) n=2, b) n=3 i c) n=4 zmiennych.

RACHUNEK PRAWDOPODOBIEŃSTWA ZADANIA Z ROZWIĄZANIAMI. Uwaga! Dla określenia liczebności zbioru (mocy zbioru) użyto zamiennie symboli: Ω lub

Kodowanie informacji. Kody liczbowe

Mikrooperacje. Mikrooperacje arytmetyczne

Statystyka podstawowe wzory i definicje

Architektura systemów komputerowych Laboratorium 13 Symulator SMS32 Operacje na bitach

Fizyka statystyczna Teoria Ginzburga-Landaua w średnim polu. P. F. Góra

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

Struktura i działanie jednostki centralnej

0 + 0 = 0, = 1, = 1, = 0.

Co ma piekarz do matematyki?

Podstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 5 Liczby w komputerze

Informatyka kwantowa. Karol Bartkiewicz

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Fizyka 1 Wróbel Wojciech. w poprzednim odcinku

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Naturalny kod binarny (NKB)

Arytmetyka binarna - wykład 6

Temat: Pamięci. Programowalne struktury logiczne.

Synteza układów kombinacyjnych

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

Podstawy Informatyki

Transkrypt:

Termodynamika informacji P. F. Góra Wydział Fizyki, Astronomii i Informatyki Stosowanej UJ http://th-www.if.uj.edu.pl/zfs/gora/ 30 października 2014

Pojęcia z dwu różnych dyscyplin Fizyka Demon Maxwella podstawy termodynamiki Informatyka Maszyna Turinga podstawy teorii obliczalności przetwarza informację o czastkach przetwarzaja informację przetwarza informację o symbolach Termodynamika informacji 2

Pojęcie entropii Niech pewien układ fizyczny może znajdować się w jednym z N stanów {ω i } N i=1. Każdy z tych stanów może być przybrany z prawdopodobieństwem p i = P (ω i ). i p i = 1. Kiedy mamy pełna informację o układzie? Kiedy wiemy, że układ z cała pewnościa znajduje się w konkretnym, znanym nam stanie ω i0 : p i0 = 1, p i i0 = 0. Kiedy mamy najmniejsza informację o układzie? Gdy każdy stan układu jest obsadzony z jednakowym prawdopodobieństwem: p 1 = p 1 = = p N ( = 1/N). Termodynamika informacji 3

Im mniej prawdopodobny jest stan, w którym znajduje się układ, tym bardziej uporzadkowany nam się wydaje. Termodynamika informacji 4

Miara informacji Przykład: w urnie jest sto ponumerowanych kul. Kule o numerach 1,2 sa czerwone. Kule o numerach 3,4,...,100 sa niebieskie. Ktoś wylosował jedna kulę i mówi nam Wylosowałem kulę czerwona Wylosowałem kulę niebieska W którym przypadku dowiemy się więcej o wyniku losowania? Dowiemy się więcej, gdy uzyskany wynik będzie mniej prawdopodobny. Termodynamika informacji 5

Miara informacji powinna być 1. Ciagł a funkcja prawdopodobieństwa zajścia zdarzenia, 2. Musi być tym większa, im prawdopodobieństwo jest mniejsze, 3. Jeżeli zdarzenie jest suma dwu zdarzeń niezależnych, miara informacyjna zdarzenia łacznego musi być równa sumie miar zdarzeń składowych. Funkcja, która spełnia te wymagania, jest ( ) 1 I(ω i ) = log 2 P (ω i ) = log 2 P (ω i ) Termodynamika informacji 6

Entropia Gibbsa-Shannona Claude Shannon, 1948: Entropia informacyjna jest średnia miara informacji zawartej w danym rozkładzie. S = N i=1 p i log 2 p i Ten wzór jest identyczny (z dokładnościa do jednostek) z wyprowadzonym przez Josiaha Willarda Gibbsa na przełomie XIX i XX wieku: S = k B N i=1 p i ln p i Termodynamika informacji 7

Przypadki ekstremalne: 1. Pełna wiedza o systemie S = 0. 2. Najmniejsza wiedza o systemie wszystkie mikrostany sa równoważne N i: p i = 1/N: S = k 1 B N ln ( ) 1 N = kb ln ( ) 1 N = kb ln N. i=1 Można pokazać, że jest to największa możliwa wartość entropii. Jest to entropia Boltzmanna: Jeżeli wszystkie mikrostany sa jednakowo prawdopodobne, entropia układu jest proporcjonalna do logarytmu z liczby dostępnych stanów. Termodynamika informacji 8

II zasada termodynamiki: W żadnych procesach zachodzacych spontanicznie entropia nie może maleć. Czy to się odnosi do obliczeń na komputerze?! A raczej, czy przeprowadzanie obliczeń koniecznie wiaże się ze wzrostem entropii? Termodynamika informacji 9

Demon Maxwella Czy demon Maxwella, po wyeliminowaniu (zminimalizowaniu) tarcia itp, narusza II zasadę termodynamiki? Termodynamika informacji 10

Silnik Szilarda minimalistyczna wersja demona Maxwella 1. Wstaw przegrodę. 2. Ustal, w której połówce jest czastka (pomiar!). 3. Pzyczep cięgna. 4. Poczekaj, aż czastka przesunie przegrodę do ściany. 5. Odczep cięgna. 6. GOTO 1. Termodynamika informacji 11

Na którym etapie cyklu pracy silnika Szilarda wzrasta entropia? Leo Szilard: Entropia wzrasta w wyniku dokonania pomiaru. To nie jest prawidłowa odpowiedź. Można dokonać odwracalnego pomiaru stanu układu dwustanowego. Termodynamika informacji 12

Reprezentacje jednego bitu czastka w pudełku z przegroda czastka w podwójnej studni potencjału spin 1 2 Termodynamika informacji 13

Jeśli wiem, że układ na pewno znajduje się w jednym z dwu możliwych stanów, entropia wynosi S wiem = k(1 ln 1 + 0 ln 0) = 0. (1) Jeśli układ z równym prawdopodobieństwem znajduje się w każdym z dwu możliwych stanów, entropia wynosi S nie wiem = k ( 1 2 ln 1 2 + 1 2 ln 1 2 ) = k ln 2. (2) W silniku Szilarda wstawienie przegrody utrata informacji o stanie układu powoduje wzrost entropii. Termodynamika informacji 14

Kiedy jeszcze tracimy informację? Jeśli w toku jakichś obliczeń dwie scieżki zbiegaja się (np. jeśli dwa zestawy danych wejściowych daja ten samy wynik), taka operacja jest logicznie nieodwracalna. Przejście od stanu 1 do stanu 2 można interpretować jako zniknięcie bariery oddzialejace dwa stany logiczne, czemu także towarzyszy wzrost entropii o k ln 2. Termodynamika informacji 15

Zasada Landauera (Rolf Landauer, 1961) Każda operacja logicznie nieodwracalna usunięcie jednego bitu informacji połaczenie dwu ścieżek obliczeń powoduje wzrost entropii o k ln 2. Istniejace komputery produkuja miliony razy więcej entropii... Termodynamika informacji 16

Dlaczego demon Maxwella nie łamie II zasady? Demon Maxwella, aby wiedzieć, czy ma otworzyć drzwiczki, czy nie, musi gromadzić informację o czastach. Jeśli demon jest automatem skończonym, musi mieć skończona pamięć. W którymś momencie ta pamięć się wyczerpie i demon, aby móc dalej pracować, musi zaczać czyścić pamięć. Entropia wzrasta, gdy demon usuwa bity ze swojej pamięci. Termodynamika informacji 17

Reversible computing Czy da się prowadzić obliczenia bez operacji logicznie nieodwracalnych? Trzeba przetłumaczyć cały kod programu na operacje na bitach, które można wykonać na bramkach logicznych (trudne, ale możliwe). Negacja i identyczność sa odwracalne. Bramki AND, OR, NAND, XOR nie sa odwracalne Termodynamika informacji 18

Bramka Toffoli Odwracalne bramki logiczne musza mieć tyle samo wyjść, co wejść. Musza też zapamiętywać swoje dane wejściowe. Tego typu bramka jest zaproponowana przez Tommaso Toffoli bramka (x, y, z) (x, y, z XOR (x AND y)). Bramka ta odwraca trzeci bit, jeśli dwa pierwsze sa ustawione. INPUT OUTPUT 0 0 0 0 0 0 0 0 1 0 0 1 0 1 0 0 1 0 0 1 1 0 1 1 1 0 0 1 0 0 1 0 1 1 0 1 1 1 0 1 1 1 1 1 1 1 1 0 Termodynamika informacji 19

Programy binarne, napisane przy użyciu negacji i bramki Toffoli ego, sa logicznie odwracalne (ale maja bardzo duże wymagania pamięciowe). Czy da się bramkę Toffoli zrealizować praktycznie? Przy użyciu układów elektronicznych da się, ale układy elektroniczne w czasie pracy rozpraszaja dużo ciepła, więc obliczenie nie będzie fizycznie odwracalne. Termodynamika informacji 20

Billiard Ball Model Toffoli & Fredkin, 1982: Bramki reprezentowane przez bilard (idealnie sprężyste zderzenia kul, pod katem prostym). Hardware jest reprezentowany przez geometrię bilardu (układ sztywnych odbijaczy, kanały), dane przez warunki poczatkowe, software to zderzenia. Termodynamika informacji 21

Realizacja Bramki Toffoli w modelu BBM (Hosseini & Dueck, 2010) Bilard wymaga idealnych (nierealizowalnych w rzeczywistości) materiałów i jest chaotyczny. Termodynamika informacji 22

Reversible computing ma się dobrze jako koncept teoretyczny, ale nie wydaje się, aby można je było zrealizować w praktyce. Termodynamika informacji 23

Zębatka brownowska: Inne przedstawienie demona Maxwella Smoluchowski, Feynman, Magnasco, Parrondo, Jarzynski... Termodynamika informacji 24

Inny model reversible computation Inny model obliczeń odwracalnych opiera się na analogii z fizyka statystyczna: W fizyce proces można realizować na drodze kwazistatycznej, poprzez stany bardzo mało (nieskończenie mało) różniace się od stanów równowagowych gdyby wszystkie stany były równowagowe, układ co najwyżej wykonywałby bładzenie przypadkowe pomiędzy nimi, a zatem potrzebny jest jakiś napęd. Dla układów makroskopowych bardzo drobne odstępstwa od równowagi wystarczaja. Jak pokazał John D. Norton, to nie działa dla układów bardzo małych, a więc takich, jakie rozważa się w teoretycznej analizie obliczeń odwracalnych : Aby doprowadzić układ od zadanego stanu poczatkowego do pożadanego stanu końcowego czyli aby przeprowadzić obliczenie albo różnice w prawdopodobieństwach poszczególnych stanów, wynikajace np. Termodynamika informacji 25

z różnic w energii swobodnej, musza być znaczne, a wówczas nie ma mowy o odwracalności, albo też różnice sa niewielkie, ale sa niwelowane przez fluktuacje. W tej sytuacji układ wykonuje jedynie bładzenie przypadkowe. Termodynamika informacji 26

Model Jarzynskiego Co robi demon Maxwella? Otwiera lub zamyka drzwiczki w zależności od tego, czy nadlatuje czastka szybka czy wolna jest to decyzja zerojedynkowa. W języku zębatek można powiedzieć, że zębatka przeskakuje o jedna pozycję w zależności od tego, w która stronę został uderzony wiatraczek. Minimalistyczny model demona Maxwella jako trójstanowego automatu: Dybiendu Mandal, Christopher Jarzynski, Work and information processing in a solvable model of Maxwell s demon, PNAS 109, 11641 11645 (17 lipca 2012). Termodynamika informacji 27

Układ składa się z automatu trójstanowego (trzy stany: minimalna liczba pozwalajaca zaobserwować ruch kierunkowy) i jednego bitu informacji. W stanie swobodnym układ przechodzi pomiędzy swoimi stanami o niezmienionym bicie. Możliwe sa też przejścia A C (z odwróceniem bitu). Wszystkie 6 złożone stany sa równie prawdopodobne. Termodynamika informacji 28

Demon czyta taśmę Demon napędzany jest taśma zawierajac a bity (interpretowane jako polecenie otwarcia/zamknięcia drzwiczek). Każdy bit oddziałuje z demonem przez pewien czas (istnieja zatem zewnętrzny mechanizm przesuwajacy taśmę i zegar, który decyduje, kiedy taśma ma być przesunięta). Jeśli czas ten jest zbyt krótki, demon może nie zareagować na bit, jeśli jest zbyt długi, demon osiaga lokalna równowagę. Interesujace sa czasy pośrednie. Termodynamika informacji 29

Jeśli na taśmie sa same zera, demon wykonuje ruch zgodnie ze wskazówkami zegara, obracajac niektóre bity. Jeżeli na taśmie sa same jedynki, demon wykonuje ruch przeciwnie do wskazówek zegara, obracajac niektóre bity. Jeżeli na taśmie jest uporzadkowany układ zer i jedynek, także możliwy jest ruch w którymś kierunku. W tych przypadkach demon zwiększa entropię (wyjściowego) ciagu bitów. Jeżeli na wejściu bity sa losowe, demon wykonuje ruchy losowe, bez przewagi żadnego kierunku. Termodynamika informacji 30

Maszyna Turinga Teoretyczny model komputera (dowolnej maszyny obliczajacej): 1. Taśma (potencjalnie nieskończona), podzielona na komórki. W każdej komórce zapisany jest jeden symbol ze skończonego alfabetu, obejmujacego symbol pusty. 2. Głowica czytajaca i zapisujaca symbole na taśmie. 3. Rejestr zapamiętujacy aktualny (jeden ze skończenie wielu) stan maszyny. Termodynamika informacji 31

4. Funkcja przejścia, która mówi, co maszyna ma zrobić w zależności od swojego stanu i symbolu na taśmie wymazać lub zapisać symbol, przesunać taśmę w lewo lub w prawo, przejść do nowego stanu lub pozostać w dotychczasowym. Maszyna Turinga jest podstawowym narzędziem myślowym w informatyce teoretycznej (zasada Churcha). Termodynamika informacji 32

Model Mandala-Jarzynskiego jest dużym krokiem na drodze konstrukcji fizycznej maszyny Turinga. Daje to teoretyczne podstawy do narzucania termodynamicznych ograniczeń na możliwe obliczenia, a także konceptualnie łaczy podstawy fizyki statystycznej i teorii obliczalności. Byłby to etap długiego procesu, zapoczatkowanego przez Richarda Langa w 1973, a w pewnym sensie już przez Leo Szilarda w 1929. Termodynamika informacji 33

Nie wszystkie rezultaty przypadkowych rotacji bywaja korzystne Termodynamika informacji 34