Fizyczne granice możliwości obliczeniowych

Podobne dokumenty
Obliczenia inspirowane Naturą

Czarne dziury. Grażyna Karmeluk

Informatyka kwantowa. Karol Bartkiewicz

Plan Zajęć. Ćwiczenia rachunkowe

Wstęp do astrofizyki I

Informatyka kwantowa. Zaproszenie do fizyki. Zakład Optyki Nieliniowej. wykład z cyklu. Ryszard Tanaś. mailto:tanas@kielich.amu.edu.

Czym jest prąd elektryczny

Światło fala, czy strumień cząstek?

Teoria Wielkiego Wybuchu FIZYKA 3 MICHAŁ MARZANTOWICZ

Peter W. Shor - Polynomial-Time Algorithms for Prime Factorization and Discrete Logarithms on a Quantum Computer. 19 listopada 2004 roku

Fizyka 3. Konsultacje: p. 329, Mechatronika

Elektryczne własności ciał stałych

PAMIĘĆ RAM. Rysunek 1. Blokowy schemat pamięci

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Ćwiczenie nr 5 Doświadczenie Franka-Hertza. Pomiar energii wzbudzenia atomów neonu.

dr inż. Andrzej Skorupski Wydział Elektroniki i Technik Informacyjnych Politechnika Warszawska

Protokół teleportacji kwantowej

Kwantowe własności promieniowania, ciało doskonale czarne, zjawisko fotoelektryczne zewnętrzne.

zadania zamknięte W zadaniach od 1. do 10. wybierz i zaznacz jedną poprawną odpowiedź.

Kwantowa natura promieniowania

Jak zmieni się wartość siły oddziaływania między dwoma ciałami o masie m każde, jeżeli odległość między ich środkami zmniejszy się dwa razy.

Podstawy Fizyki IV Optyka z elementami fizyki współczesnej. wykład 24, Radosław Chrapkiewicz, Filip Ozimek

Technika cyfrowa Inżynieria dyskretna cz. 2

= = Budowa materii. Stany skupienia materii. Ilość materii (substancji) n - ilość moli, N liczba molekuł (atomów, cząstek), N A

Fizyka kwantowa. promieniowanie termiczne zjawisko fotoelektryczne. efekt Comptona dualizm korpuskularno-falowy. kwantyzacja światła

Termodynamika. Część 11. Układ wielki kanoniczny Statystyki kwantowe Gaz fotonowy Ruchy Browna. Janusz Brzychczyk, Instytut Fizyki UJ

W5. Komputer kwantowy

Teorie wiązania chemicznego i podstawowe zasady mechaniki kwantowej Zjawiska, które zapowiadały nadejście nowej ery w fizyce i przybliżały

Cele RAID. RAID z ang. Redundant Array of Independent Disks, Nadmiarowa macierz niezależnych dysków.

n n 1 2 = exp( ε ε ) 1 / kt = exp( hν / kt) (23) 2 to wzór (22) przejdzie w następującą równość: ρ (ν) = B B A / B 2 1 hν exp( ) 1 kt (24)

Kwantowe stany splątane. Karol Życzkowski Instytut Fizyki, Uniwersytet Jagielloński 25 kwietnia 2017

Ciało doskonale czarne absorbuje całkowicie padające promieniowanie. Parametry promieniowania ciała doskonale czarnego zależą tylko jego temperatury.

Dydaktyka Informatyki budowa i zasady działania komputera

Wyznaczanie stałej słonecznej i mocy promieniowania Słońca

Efekt Comptona. Efektem Comptona nazywamy zmianę długości fali elektromagnetycznej w wyniku rozpraszania jej na swobodnych elektronach

Architektura komputerów

Własności jąder w stanie podstawowym

Stałe : h=6, Js h= 4, eVs 1eV= J nie zależy

Początek XX wieku. Dualizm korpuskularno - falowy

Przewodność elektryczna ciał stałych. Elektryczne własności ciał stałych Izolatory, metale i półprzewodniki

Tak określił mechanikę kwantową laureat nagrody Nobla Ryszard Feynman ( ) mechanika kwantowa opisuje naturę w sposób prawdziwy, jako absurd.

Podstawy transmisji sygnałów

Niższy wiersz tabeli służy do wpisywania odpowiedzi poprawionych; odpowiedź błędną należy skreślić. a b c d a b c d a b c d a b c d

ARCHITEKRURA KOMPUTERÓW Kodowanie liczb ze znakiem

bity kwantowe zastosowania stanów splątanych

Oddziaływanie podstawowe rodzaj oddziaływania występującego w przyrodzie i nie dającego sprowadzić się do innych oddziaływań.

Macierze RAID MARCEL GAŃCZARCZYK 2TI 1

Synteza jądrowa (fuzja) FIZYKA 3 MICHAŁ MARZANTOWICZ

Elektrostatyka, część pierwsza

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

XXXI OLIMPIADA FIZYCZNA ETAP WSTĘPNY Zadanie teoretyczne

PAMIĘCI. Część 1. Przygotował: Ryszard Kijanka

S ścianki naczynia w jednostce czasu przekazywany

Feynmana wykłady z fizyki. [T.] 1.2, Optyka, termodynamika, fale / R. P. Feynman, R. B. Leighton, M. Sands. wyd. 7. Warszawa, 2014.

Pamięci masowe. ATA (Advanced Technology Attachments)

OPTYKA. Leszek Błaszkieiwcz

Oddziaływanie cząstek z materią

Teoria grawitacji. Grzegorz Hoppe (PhD)

PRÓBNY EGZAMIN MATURALNY Z FIZYKI Z ASTRONOMIĄ

SYMULACJA GAMMA KAMERY MATERIAŁ DLA STUDENTÓW. Szacowanie pochłoniętej energii promieniowania jonizującego

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

Ćwiczenie nr 2 : Badanie licznika proporcjonalnego fotonów X

Wykład Temperatura termodynamiczna 6.4 Nierówno

Wykład 8 i 9. Hipoteza ergodyczna, rozkład mikrokanoniczny, wzór Boltzmanna

Analiza spektralna widma gwiezdnego

Entropia, demon Maxwella i maszyna Turinga

Zasady oceniania karta pracy

Energetyka konwencjonalna odnawialna i jądrowa

Rozszczepienie poziomów atomowych

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Klimat na planetach. Szkoła Podstawowa Klasy VII-VIII Gimnazjum Klasa III Doświadczenie konkursowe 2

Ciśnienie i temperatura model mikroskopowy

Repeta z wykładu nr 8. Detekcja światła. Przypomnienie. Efekt fotoelektryczny

Kwantowe przelewy bankowe foton na usługach biznesu

Atomowa budowa materii

I. PROMIENIOWANIE CIEPLNE

Oprogramowanie IP - pytania i odpowiedzi. JPEG (Mb/s) kl./s BASIC SUPER FINE BASIC SUPER FINE 5 0,46 1,45 1,02 2,5 12,5 1,17 3,6 2,53 6,32

Cząstka w pudle potencjału. Jan Bojanowski Nowoczesna synteza i analiza organiczna

bity kwantowe zastosowania stanów splątanych

Historia. Zasada Działania

Kolokwium ze statystyki matematycznej

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Wykład 1 i 2. Termodynamika klasyczna, gaz doskonały

Fizyka statystyczna Zwyrodniały gaz Fermiego. P. F. Góra

Kwantyzacja wektorowa. Kodowanie różnicowe.

Redefinicja jednostek układu SI

1. Od czego i w jaki sposób zależy szybkość reakcji chemicznej?

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

Postulaty szczególnej teorii względności

Wykład 2. Informatyka Stosowana. 8 października 2018, M. A-B. Informatyka Stosowana Wykład 2 8 października 2018, M. A-B 1 / 41

Fizyka dla wszystkich

Informatyka kwantowa

41R POWTÓRKA FIKCYJNY EGZAMIN MATURALNY Z FIZYKI I ASTRONOMII. POZIOM ROZSZERZONY (od początku do końca)

WOJSKOWA AKADEMIA TECHNICZNA Wydział Mechaniczny Katedra Pojazdów Mechanicznych i Transportu LABORATORIUM TERMODYNAMIKI TECHNICZNEJ

Wstęp do Informatyki

Promieniowanie cieplne ciał.

Badanie absorpcji promieniowania γ

Własności optyczne półprzewodników

Ataki na RSA. Andrzej Chmielowiec. Centrum Modelowania Matematycznego Sigma. Ataki na RSA p. 1

Metoda Elementów Skończonych

Transkrypt:

Fizyczne granice możliwości obliczeniowych Opracował: Marcin Rociek 1. Aktualne trendy Prawo Moore a: prędkość / pojemność rośnie jak t 1 7 (t - czas w latach). Dzisiejszy komputer z procesorem 1,6GHz, 1GB pamięci RAM, 100GB HDD to 0,01% kosztu superkomputera z 1990. W tym tempie za 300 lat będziemy mogli rozwiazywać problemy rozważajace wszystkie 10 80 czastek wszechświata. Czy aby na pewno? 2. Ograniczenia pojemności 2.1. Fizyczna reprezentacja informacji Entropia - rodzaj fizycznej informacji. Każda informacja, która możemy manipulować jest fizyczna z natury. Termin wprowadzony w 1850 przez Rudopha Clausiusa. Później Ludwig Boltzman określił maksymalna entropię S dowolnego układu fizycznego jako logarytm z ilości wszystkich rozróżnialnych stanów. Logarytm o podstawie 2 bity, logarytm naturalny naty (1nat log 2 e 1 44b). Nat jest znany inaczej jako stała Boltzmana k B lub stała gazu idealnego R. 1

Znana informacja - fizyczna informacja w części systemu, którego stan jest znany. Entropia - informacja w nieznanej części. Możemy zmienić entropię w informację poprzez pomiar, zaś informację w entropię poprzez zapomnienie lub wymazanie jej. Ich suma w danym systemie jest zawsze stała, chyba że zmieni się maksymalna ilość możliwych rozróżnialnych stanów systemu, poprzez np. zmianę jego rozmiaru, dodania lub odjęcia energii, itp. 2.2. Granice entropii Warren Smith postuluje górna granicę entropii S w układzie o objętości V w sposób następujacy: S V q 2 1 4 16 π 3 60 1 4 c M V 3 4 nat Gdzie: q - ilość rozróżnialnych typów czastek, c - prędkość światła, - stała Plancka, M - całkowita energia masy. Przykład: 1m 3 zawierajacy 1000kg światła 6 (fotony o dwóch stanach polaryzacji) może pomieścić maksymalnie 10 34 bitów, czyli 60kb w 1A 3. Prawdopodobnie granica ta jest nieosiagalna, gdyż światło o takiej gęstości (t.j. wody) miało by temperaturę ok. miliarda stopni i ciśnienie rzędu ok. 10 16 funtów na cal kwadratowy. Seth Lloyd zaprezentował granicę niemal identyczna 2 na podstawie podobnych przesłanek różniac a się o mały współczynnik 2. Przykładowy 1kg 1l laptop (o gęstości wody) składajacy się z dwustanowych fotonów miałby maksymalna entropię 2 13 10 31 bitów. 2

Granice te nie biora pod uwagę efektów grawitacyjnych i relatywistycznych. Jacob Bekenstein pokazuje dużo luźniejszy limit entropii: S c 2πER Gdzie: E - całkowita energia układu, R - promień układu. Aktualnie jedynym znanym układem osiagaj acym takie ilości entropii sa czarne dziury. Entropia czarnej dziury jest proporcjonalna do jej powierzchni (a nie objętości!). Czarna dziura ma dokładnie 1 4 nata entropii w kwadracie o boku długości Plancka (1 6 10 35 ). Innymi słowy absolutnym fizycznym minimum dla 1 nata jest kwadrat o boku równym 2 długości Plancka. Granica wyznaczona przez Bekensteina jest duża: hipotetyczna maszyna o promieniu 1m posiadała by gęstość entropii 10 b/a 39 3. Musiałaby być jednak czarna dziura o masie Saturna. 2.3. Ile bitów można przechować w atomie? Jadra moga przechowywać 1 bit informacji. Wzbudzone jadra nie sa jednak stabilne - staja się radioaktywne i szybko się rozpadaja emitujac wysokoenergetyczne szkodliwe promieniowanie. Konfiguracja elektronów. Atom w ciele stałym ma 6 stopni swobody. Zwiększajac odległości między atomami zwiększa się ilość entropii dla atomu, lecz nie zwiększa się gęstość dla obszaru lepiej pozostać przy stałych materiałach. Przykład: czysta miedź posiada gęstość entropii w granicach 0,5 1,5 bita na A 3 (w zależności od temperatury). 3

Można zwiększyć gęstość entropii stosujac większe ciśnienie. Aktualnie maksymalne wartości możliwe do utrzymania w stabilnych strukturach nie sa jasne. Jedynym jasnym limitem jest ciśnienie w jadrze gwiazdy neutronowej, tuż poniżej masy krytycznej powodujacej zapadnięcie się gwiazdy w czarna dziurę - ok. 10 30 atmosfer. Z powyższych obserwacji wynika, że wysoce nieprawdopodobne A będzie przekroczenie gęstości informacji większej niż 10 bitów / 3 w ciagu najbliższych 100 lat. Nawet jeśli będzie to tylko 1 bit /A 3, to 1cm 3 takiego materiału mógłby teoretycznie przechowywać 10 24 bitów = 100 miliardów terabajtów - dużo więcej niż całkowita ilość cyfrowych danych przechowywanych obecnie na świecie. 2.4. Minimalna energia potrzebna do przechowywania informacji Minimalizacja zużycia energii przez układ wymaga minimalizacji całkowitej entropii generowanej przez system. Załóżmy, że posiadamy pewna informację i chcemy ja zapisać na stałe w stanie pewnego układu. Jaka ilość entropii musi być wytworzona w tym procesie? Trzeba założyć, że układ zawiera już jakaś informacje fizyczna, która może być zarówno znana informacja jak i entropia. Nie może ona być po prostu zniszczona, ponieważ na najniższym poziomie fizyka jest odwracalna, to znaczy w zamkniętym układzie przejście z jednego stanu do drugiego w pewnym czasie następuje w sposób matematycznie odwracalny. Odwracalność nie wymaga symetrii czasowej. Jak więc poradzić sobie z niechciana informacja? Jedna z możliwości jest po prostu przeniesienie jej do innego układu. 4

Wzrost entropii w układzie o S 1bit k B ln2 wymaga zainwestowania co najmniej k B T ln2 energii w postaci ciepła. Pierwszy uszczegółowił to Rolf Landauer łacz ac utratę znanej informacji z utrata energii. W dzisiejszych komputerach każdy zapis operacji, tzn. każda z operacji na bitach dokonana przez każda z dziesiatek milionów bramek logicznych w każdej nanosekundzie wykorzystuje ta metodę pozbywania się informacji. Zakłada się, że poprzednie informacje sa nieznane, powoduje to generację nowej entropii, wykorzystujac nieefektywnie energię. Istnieje pewna alternatywa: przestrzeń i energia zajmowana przez stara, niechciana (lecz znana) informację może być ponownie użyta. Wykorzystujac informację o poprzednim stanie dokonuje się przekształcenia starego stanu w nowy w termodynamicznie odwracalny sposób - w procesie, który nie generuje entropii. Dzisiejsza technologia stosujaca nieodwracalne zapisywanie informacji jest stosunkowo blisko sięgnięcia podstawowych ograniczeń w zakresie rozpraszania energii. W obecnym tempie limit k B T ln2 zostanie osiagnięty za 35 lat. W tym czasie wydajność jednostki obliczeniowej wykorzystujacej zwykłe i nieodwracalne (produkujace 5 entropię) operacje zapisu informacji będzie wynosić maksymalnie 3 10 22 nieodwracalnych bitowych operacji na sekundę w 100W komputerze. Jakiekolwiek możliwe dalsze udoskonalenia wydajności poza ten punkt wymagaja odwracalnego obliczania. 5

3. Ograniczenia komunikacji Przesyłanie informacji ograniczone jest w sposób podobny do przechowywania informacji. Komunikacja z punktu A do punktu B jest przesyłaniem bitów, pewnym rodzajem ich przechowywania lecz w stanie ruchu. Podobnie przechowywanie informacji jest forma komunikacji na zerowym dystansie, ale za to w czasie. Majac ograniczenie gęstości informacji ρ oraz prędkość rozchodzenia się informacji v; otrzymujemy limit gęstości strumienia informacji ρv - ilość informacji przesyłanej w pewnym czasie dla pewnego obszaru. Oczywiście istnieje limit prędkości rozchodzenia się informacji - prędkość światła c. Smith pokazuje, że maksymalny strumień entropii F S z użyciem fotonów dla danego strumienia energii F E wynosi: 4 F S 3 σ1 4 F3 4 SB E gdzie σ SB to stała Stefana-Boltzmana π 2 k 2 B 60c 2 3. Przykład: kwadratowa płytka o boku 10cm transmitujaca bezprzewodowo z moca 1W nie może komunikować się z szybkościa większa niż 6 8 10 20 bps, niezależnie od rozkładów częstotliwości czy użytego schematu kodowania, nawet w przypadku całkowitej nieobecności szumu. Wyglada to na dużo, lecz to tylko 68kbps/nm 2. Dla komunikacji pomiędzy sasiednimi elementami gęsto upakowanego nanoskalowego urzadzenia chcielibyśmy uzyskać dużo większe przepustowości, być może rzędu 10 11 bps/nm 2. Ten 10 6 razy większy strumień informacji wymaga jednak 10 6 4 3 10 8 razy więcej mocy (wg Smitha), czyli rzędu 1MW/cm 2. Odpowiada to temperaturze rzędu 14000K. Warto zauważyć, że przy zakodowaniu bitu w bardziej złożonych czastkach, przy gęstości informacji 1b/nm 3, możemy otrzymać wymagana przepustowość 10 11 bps/nm 2 poprzez ruch atomów badź elektronów ze stosunkowo niewielka prędkościa 100m/s. 6

4. Ograniczenia szybkości obliczeń Jaka minimalna cenę, w sensie podstawowych zasobów fizycznych, musimy zapłacić za wykonywanie operacji obliczeniowych? Istnieje termodynamiczny limit wydajności obliczeniowej nieodwracalnych operacji jako funkcja rozpraszania mocy, spowodowanej koniecznościa usuwania niechcianej informacji. Jednak limit ten nie musi się odnosić do odwracalnych operacji. Czy sa jakieś inne ograniczenia odnoszace się do jakiegokolwiek typu obliczeń, nawet odwracalnych? Przy użyciu teorii kwantowej możemy określić maksymalna częstotliwość przy której moga zachodzić przejścia pomiędzy rozróżnialnymi stanami. Jedna z form tej górnej granicy zależy od całkowitej energii układu E i wynosi 4E 2π. Laptop Lloyd a posiada całkowita energię 9 10 16 J, więc maksymalna częstotliwość pracy wynosi 5 10 50 zmian stanów na sekundę. Jeśli całkowita energia układu nie bierze udziału w obliczniach, otrzymujemy mniejszy limit. Przykładowo hipotetyczne urzadzenie opierajace się na pojedynczych elektronach pracujacych na poziomie 1eV mogłoby pracować z częstotliwościa 1PHz (10 15 Hz). Zmieniajac wykorzystywany zbiór rozróżnialnych stanów w czasie komputer kwantowy może drastycznie skrócić czas obliczeń pewnych problemów. Jednakże częstotliwość ortogonalnych przejść oraz ilość oddzielnych stanów zawsze będa poniżej omówionych tu limitów. 7

5. Konkluzje Zgodnie z prawem Moore a za ok. 40 lat zostanie osiagnięty limit 1b/A 3, który prawdopodobnie będzie górna granica. Ok. roku 2035 osiagnięty zostanie termodynamiczny limit 0.7kT generacji ciepła wynikajacego z zapisywania bitu informacji w pamięci w sposób niszczacy poprzednia informację tam znajdujac a się. Limity te moga zostać przekroczone jeśli zostana opracowane techniki zapisywania informacji nie niszczace poprzedniej informacji. Częstotliwość pracy procesora nie przekroczy limitów ustalonych przez maksymalna częstotliwość przejść atomowych. Realistyczna granica jest wartość 10 15 Hz - około 10 6 razy więcej niż dzisiejsze częstotliwości, która będzie osiagnięta za 30 lat. Bibliografia [1] Michael P. Frank, The Physical Limits of Computing, Computing in Science & Engineering, vol. 4, May/June 2002, pp. 27-30; http://www.cise.ufl.edu/research/revcomp/physlim/physlim-cise/c3fra.pdf. [2] Douglas E. Post, Francis Sullivan, Limits on Computations, Computing in Science & Engineering, vol. 4, May/June 2002, pp. 27-30; http://www.computer.org/cise/cs2002/pdf/c3014.pdf. [3] Charles H. Bennett, Rolf Landauer, The Fundamental Physical Limits of Computation, Scientific American 253 (1), 48-56, July 1985; http://www.aeiveos.com/~bradbury/authors/computing/bennett-ch/tfploc.html. [4] Michael P. Frank, Reversibility for Efficient Computing, Dec. 20, 1999; http://www.cise.ufl.edu/~mpf/manuscript/phdthesis.pdf.gz. [5] Warren D. Smith; Fundamental physical limits on computation, May 5, 1995; http://www.cise.ufl.edu/~mpf/fundphys.pdf. [6] Warren D. Smith, Fundamental physical limits on information storage, May 13, 1999; http://www.cise.ufl.edu/~mpf/memorybound.pdf. 8