Informacja Informacja

Podobne dokumenty
Informacja. Informacja. Informacja. Informacja/wiadomość. Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji).

Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów. Wszystko to, co może być zużytkowane do

Systemy liczbowe Plan zaję ć

Wykład I: Kodowanie liczb w systemach binarnych. Studia Podyplomowe INFORMATYKA Podstawy Informatyki

Jednostki informacji. Bajt moŝna podzielić na dwie połówki 4-bitowe nazywane tetradami (ang. nibbles).

Techniki multimedialne

Arytmetyka komputera. Na podstawie podręcznika Urządzenia techniki komputerowej Tomasza Marciniuka. Opracował: Kamil Kowalski klasa III TI

Plan wyk ladu. Kodowanie informacji. Systemy addytywne. Definicja i klasyfikacja. Systemy liczbowe. prof. dr hab. inż.

Dla człowieka naturalnym sposobem liczenia jest korzystanie z systemu dziesiętnego, dla komputera natomiast korzystanie z zapisu dwójkowego

wiadomość komunikat - informacja Caius Julius Cesar Człowiek zasztyletowany przez senatorów na forum Romanum w Idy Marcowe roku DCCIX ab urbe condita

SYSTEMY LICZBOWE. SYSTEMY POZYCYJNE: dziesiętny (arabski): 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 rzymski: I, II, III, V, C, M

12. Wprowadzenie Sygnały techniki cyfrowej Systemy liczbowe. Matematyka: Elektronika:

PODSTAWY INFORMATYKI. Informatyka? - definicja

Systemy liczenia. 333= 3*100+3*10+3*1

L6.1 Systemy liczenia stosowane w informatyce

Technologie Informacyjne

Wstęp do informatyki. Pojęcie liczebności. Zapis liczb. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

Teoretyczne Podstawy Informatyki

Informatyka kodowanie liczb. dr hab. inż. Mikołaj Morzy

Arytmetyka komputera

1.1. Pozycyjne systemy liczbowe

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

Podstawy Informatyki dla Nauczyciela

Wstęp do informatyki. Pojęcie liczebności. Liczenie bez liczebników. Podstawy arytmetyki komputerowej. Cezary Bolek

Wstęp do informatyki- wykład 1

Systemy liczbowe. 1. Przedstawić w postaci sumy wag poszczególnych cyfr liczbę rzeczywistą R = (10).

Dr inż. Grażyna KRUPIŃSKA. D-10 pokój 227 WYKŁAD 1 WSTĘP DO INFORMATYKI

System Liczbowe. Szesnastkowy ( heksadecymalny)

Kodowanie liczb całkowitych w systemach komputerowych

Systemy liczbowe używane w technice komputerowej

Systemy liczbowe. Bibliografia: Urządzenia techniki komputerowej, K. Wojtuszkiewicz

Znaki w tym systemie odpowiadają następującym liczbom: I=1, V=5, X=10, L=50, C=100, D=500, M=1000

Podstawy Informatyki. Inżynieria Ciepła, I rok. Wykład 5 Liczby w komputerze

Wstęp do informatyki- wykład 1 Systemy liczbowe

Wprowadzenie do informatyki i użytkowania komputerów. Kodowanie informacji System komputerowy

Urządzenia Techniki. Klasa I TI. System dwójkowy (binarny) -> BIN. Przykład zamiany liczby dziesiętnej na binarną (DEC -> BIN):

Samodzielnie wykonaj następujące operacje: 13 / 2 = 30 / 5 = 73 / 15 = 15 / 23 = 13 % 2 = 30 % 5 = 73 % 15 = 15 % 23 =

ARCHITEKTURA SYSTEMÓW KOMPUTEROWYCH

Języki i metodyka programowania. Reprezentacja danych w systemach komputerowych

Jednostki miar stosowane w sieciach komputerowych. mgr inż. Krzysztof Szałajko

SYSTEMY LICZBOWE. Zapis w systemie dziesiętnym

SYSTEMY LICZBOWE 275,538 =

Dane, informacja, programy. Kodowanie danych, kompresja stratna i bezstratna

O sygnałach cyfrowych

Wstęp do Informatyki

Pracownia Komputerowa wykład V

Metody numeryczne Technika obliczeniowa i symulacyjna Sem. 2, EiT, 2014/2015

Wykład 2. Informatyka Stosowana. 10 października Informatyka Stosowana Wykład 2 10 października / 42

Wykład 2. Informatyka Stosowana. 9 października Informatyka Stosowana Wykład 2 9 października / 42

Systemy zapisu liczb.

Kodowanie informacji. Kody liczbowe

DZIESIĘTNY SYSTEM LICZBOWY

Pracownia Komputerowa wyk ad V

Kodowanie informacji. Przygotował: Ryszard Kijanka

Ćwiczenie nr 1: Systemy liczbowe

Kodowanie i kompresja Streszczenie Studia dzienne Wykład 9,

Kod uzupełnień do dwóch jest najczęściej stosowanym systemem zapisu liczb ujemnych wśród systemów binarnych.

Technika Cyfrowa i Mikroprocesorowa

Zapis liczb binarnych ze znakiem

Przedmiot: Urządzenia techniki komputerowej Nauczyciel: Mirosław Ruciński

Systemy liczbowe. 1. System liczbowy dziesiętny

Met Me ody numer yczne Wykład ykład Dr inż. Mic hał ha Łan Łan zon Instyt Ins ut Elektr Elektr echn iki echn i Elektrot Elektr echn olo echn

Wprowadzenie do informatyki - ć wiczenia

Luty 2001 Algorytmy (7) 2000/2001

INFORMATYKA. Zajęcia organizacyjne. Arytmetyka komputerowa.

Wykład I Cyfrowa reprezentacja informacji Algorytmy metody prezentacji i zapisu

Wprowadzenie do architektury komputerów systemy liczbowe, operacje arytmetyczne i logiczne

Pracownia Komputerowa wykład IV

Komputerowa reprezentacja znaków i liczb. dr inż. Izabela Szczęch Politechnika Poznańska Podstawy informatyki

Algorytmy i struktury danych

Informacja w perspektywie obliczeniowej. Informacje, liczby i obliczenia

Krótka wycieczka do wnętrza komputera

Stan wysoki (H) i stan niski (L)

Wykład 2. Informatyka Stosowana. 8 października 2018, M. A-B. Informatyka Stosowana Wykład 2 8 października 2018, M. A-B 1 / 41

kodowanie informacji Autor prezentacji: 1 prof. dr hab. Maria Hilczer

Temat 7. Dekodery, enkodery

Podstawy informatyki. Reprezentacja danych w systemach cyfrowych

Kodowanie i kompresja Tomasz Jurdziński Studia Wieczorowe Wykład Kody liniowe - kodowanie w oparciu o macierz parzystości

Pracownia Komputerowa wykład VI

Cyfrowy zapis informacji. 5 grudnia 2013 Wojciech Kucewicz 2

Podstawy Informatyki

Wstęp do Informatyki. dr inż. Paweł Pełczyński

Podstawy Informatyki. Metalurgia, I rok. Wykład 3 Liczby w komputerze

Arytmetyka komputerów

teoria informacji Kanały komunikacyjne, kody korygujące Mariusz Różycki 25 sierpnia 2015

Informatyka. Michał Rad

Architektura komputerów

Wprowadzenie do informatyki - ć wiczenia

RODZAJE INFORMACJI. Informacje analogowe. Informacje cyfrowe. U(t) U(t) Umax. Umax. R=(0,Umax) nieskończony zbiór możliwych wartości. Umax.

ARCHITEKTURA KOMPUTERÓW Systemy liczbowe

ZAMIANA SYSTEMÓW LICZBOWYCH

Wielkości liczbowe. Wykład z Podstaw Informatyki dla I roku BO. Piotr Mika

Cyfrowy zapis informacji

2 Arytmetyka. d r 2 r + d r 1 2 r 1...d d 0 2 0,

LABORATORIUM PROCESORY SYGNAŁOWE W AUTOMATYCE PRZEMYSŁOWEJ. Zasady arytmetyki stałoprzecinkowej oraz operacji arytmetycznych w formatach Q

Pracownia Komputerowa wyk ad IV

teoria informacji Entropia, informacja, kodowanie Mariusz Różycki 24 sierpnia 2015

Zadanie 1. Potęgi (14 pkt)

1259 (10) = 1 * * * * 100 = 1 * * * *1

ARYTMETYKA BINARNA. Dziesiątkowy system pozycyjny nie jest jedynym sposobem kodowania liczb z jakim mamy na co dzień do czynienia.

Transkrypt:

Informacja Informacja Czynnik, któremu człowiek może przypisać określony sens (znaczenie) w celu wykorzystania do różnych celów. Wszystko to, co może być zużytkowane do bardziej sprawnego wyboru działań prowadzących do realizacji pewnego celu.

Informacja Zbiór danych zebranych w celu ich przetworzenia i otrzymania wyników (nowych informacji). Wielkość abstrakcyjna, która może być przechowywana, przesyłana i przetwarzana w pewnych obiektach a także stosowana do sterowania obiektami (obiekty: organizmy żywe, urządzenia techniczne, systemy obiektów). Informacja/wiadomość Jest trzynasta. Godzinę temu była dwunasta. Jest trzynasta. Godzinę temu był ostatni w tym dniu samolot do Polski. Ta sama wiadomość może mieć różną wartość. Wiadomość jest rodzajem nośnika (sposobem zapisu) informacji, informacja jest zaś treścią wiadomości.

Wiadomość ść/komunikat Wiadomość może być przekazana w formie komunikatu. Ten sam komunikat może przekazywać różne wiadomości dla różnych odbiorców Wiadomość o wszczęciu zbrojnego wystąpienia przeciwko rządowi republikańskiemu przekazali spiskowcy frankistowscy komunikatem nad Hiszpanią niebo jest czyste. Informacja/wiadomość ść/komunikat Komunikat jest odpowiednio zakodowaną wiadomością, zawierającą pewną ilość informacji.

Definicja Informacja - wielkość abstrakcyjna, która może być przechowywana w pewnych obiektach, przesyłana pomiędzy obiektami, przetwarzana w pewnych obiektach i stosowana do sterowania pewnymi obiektami, przy czym przez obiekty rozumie się organizmy żywe, urządzenia techniczne oraz systemy takich obiektów. /A.Mazurkiewicz/ Informacja W praktyce informacje można zdefiniować jako dane wraz ze sposobem ich interpretowania. Dane jest więc pojęciem ogólniejszym, który obejmuje informacje bez znanego lub istotnego w danym kontekście znaczenia ich treści.

Teoria informacji Informacją zajmuje się nauka zwana Teorią Informacji - dotyczy ona przekazywania wiadomości ze źródła wiadomości do ich przeznaczenia (odbiorcy). Ilość informacji Fundamentalną koncepcją teorii informacji jest przyjęcie, że informacja zawarta w przekazie zwana zawartością informacyjną jest definiowalną i mierzalną wielkością matematyczną. Określenie zawartość nie odnosi się do znaczenia przekazywanej wiadomości, ale do prawdopodobieństwa, że określona wiadomość zostanie odebrana (odczytana) z całego zbioru możliwych wiadomości. Największa wartość zawartości informacyjnej odnosi się do wiadomości, która jest najmniej prawdopodobna.

Twierdzenie Shannona Dla odniesienia zawartości informacyjnej (k) do prawdopodobieństwa, Shannon wprowadził proste równanie: k=log 2 1/p, gdzie p jest prawdopodobieństwem uzyskania (otrzymania, zaistnienia) wiadomości, Im większe jest prawdopodobieństwo wyniku dla zdarzenia, tym mniejszą ilość informacji otrzymuje się w związku z jego zaistnieniem. I na odwrót - im mniej prawdopodobny był wynik zdarzenia, tym więcej informacji zawiera wiadomo o jego zaistnieniu. Łącze informacyjne Zakłócenia Źródło Nadajnik (kodowanie) Kanał Odbiornik (dekodowanie) Przeznaczenie informacji Informacja Sygnały Sygnały Informacja

Źródło o informacji Źródła analogowe przykłady Termometr, barometr Struny głosowe Instrumenty muzyczne Źródła cyfrowe przykłady Klawiatura Telegraf Źródło o informacji Generuje wiadomo (znak), koduje je w postaci sygnału i wysyła znaki (jeden po drugim w czasie). Modelem generacji jest zdarzenie losowe. Zakładamy dyskretne i stacjonarne zdarzenia losowe, tzn.: znaki są wybierane ze skończonego zbioru, z niezależnym od czasu prawdopodobieństwem.

Kanał przesyłowy Powietrze Linie telefoniczne Ethernet CD, DVD Dyski magnetyczne Pamięć operacyjna Przestrzeń międzyplanetarna Kanał przesyłowy na przesyłany sygnał oddziałują tu inne sygnały losowe, tzw. sygnały zakłócające - odebrany przez odbiornik sygnał może by różny od sygnału nadanego.

Odbiornik informacji następuje tu odwrotne dekodowanie sygnału na postać wiadomości (znaku) i odczytanie tej wiadomości. Odbiorca wiadomości musi podjąć decyzję, który spośród ustalonych z góry znaków został przyjęty. Kodowanie Kodowanie to zapisywanie informacji w określony sposób. Kodowanie: Alfabet wejściowy A (np( np. A={a,b,,z,z}) Alfabet wyjściowy B każdej literze z A przyporządkowuje ciąg g liter z B

Kodowanie Kodowanie binarne: każdemu elementowi alfabetu przyporządkowuje ciąg g binarny (np( np.. a 0001, a b 0010, itd. ) Inaczej K(a)=0001, K(b)=0010, gdzie K to kod. Słowo kodowe Jeśli K(a)=0001, to 0001 jest słowem s kodowym a. Kodowanie o stałej długod ugości: Kodowanie Każde słowo s kodowe ma tęt samą długość np.. K(a)=0001, K(b)=0010, K(c) ) musi mieć 4 bity Kodowanie o zmiennej długod ugości: Słowa kodowe mogą mieć różne długod ugości np.. K(a)=0001, K(b)=100 Kodowanie jednoznaczne Po zakodowaniu słowa s x do postaci y można je odkodować tylko na jeden sposób, uzyskując c x. Warunek jednoznaczności ci kodu o stałej długod ugości: Dla każdych dwóch liter a b wystarczy K(a) K(b)

Entropia informacyjna źródła informacji Informacja docierająca od nadawcy do odbiorcy, ulega różnorakim modyfikacjom, czasami wręcz zniekształceniom, do których przyczyniają się zarówno sami uczestnicy procesu komunikowania, jak i otoczenie fizyczne, a nawet kod. Zakłócenia tego rodzaju nazywane są entropią informacyjną lub szumem. Jeżeli źródło może nadawać n różnych komunikatów, to jego entropią informacyjną źródła nazywamy wartością oczekiwaną ilości informacji w komunikatach z tego źródła. Entropia informacyjna pojęcie entropii zostało o zapożyczone z termodynamiki do określenia średniej zawartości informacyjnej wiadomości z określonego źródła. entropia może e być rozumiana intuicyjnie jako miara nieuporządkowania systemu. w teorii informacji entropia wiadomości równa r się średniej zawartości informacyjnej. jeśli w jakimś zbiorze wiadomości, prawdopodobieństwo ich wystąpienia jest równe r to całkowit kowitą entropię określa wzór r H = log 2 N, gdzie N jest liczbą możliwych wiadomości w zestawie.

Redundancja Redundancja to ilość informacji przekraczająca wymagane do rozwiązania problemu minimum. Ułatwienie odtworzenia danych po ich częś ęściowej utracie, czy uszkodzeniu lub też do wykrycia takiego uszkodzenia (bit parzystości, suma kontrolna, kod nadmiarowy CRC) Nadmiarowość jest cechą każdego systemu informacyjnego przesyłaj ającego jakieś dane cyfrowe, Usuwanie nieprzydatnej redundancji to kompresja danych. Co przekazuje informacje? Informację przekazuje możliwość porównania dwóch stanów: - zmiana stanu jest informacją - brak zmian to brak informacji

Jednostki informacji bit podstawowa, najmniejsza i niepodzielna jednostka informacji cyfrowej, jaka może e być przetwarzana przez komputer bit może e przechowywać informację o jednym z dwóch możliwych stanów przyjmuje wartości oznaczane jako 0 albo 1 bit to skrót t terminu BInary DigiT. bit to po angielsku kawałek skrót: b Jednostki informacji 1 bit: 0, 1, rozróżnia 2 znaki 2 bity: 00, 01, 10, 11, rozróżniają 4 znaki. 3 bity: 000, 001, 010, 011, 100, 101, 110, 111, rozróżniają 8 znaków. 4 bity: 0000... 1111, rozróżniają 16 znaków (tetrada) 8 bitów pozwala odróżnić 28 = 16 x 16 = 256 znaków Cztery bity to tetrada Osiem bitów tworzy tzw. oktet zwany również bajtem (B)

Jednostki informacji Dwa bajty to (najczęś ęściej...) półsłowo. Cztery bajty (32 bity) to słowo. 64 bity to podwójne słowos owo. Słowo komputerowe - ilość informacji przetwarzanej przez komputer. Komputer 8, 8, 16,, 32 (64,, 128-) ) bitowy oznacza wielkość grupy danych, którą komputer może operować jako całości cią. Jednostki informacji W informatyce nazwy przedrostków nie odpowiadają tym w układzie SI kilo = 1000= 10 3 mega = 1000000= 10 6 = kilo x 1000 giga = 1000000000= 10 9 = mega x 1000 tera = 1000000000000 = 10 12 = giga x 1000 Kilo = 1024= 2 10 Mega = 1048576= 2 20 = Kilo x 1024 Giga = 1073741824= 2 30 = Mega x1024 Tera = 1099511627776 = 2 40 = Giga x 1024

Wielkość danych 2 10 =1024=1K kilobajt, typowa strona tekstu to kilka KB; 2 20 =1024K=1M megabajt, książka bez grafiki lub minuta muzyki; 2 30 =1024M=1G gigabajt, film cyfrowy, sporo grafiki, ludzki genom; 2 40 =1024G=1T terabajt, duża biblioteka, szerokoekranowy film w kinie; 2 50 =1024T=1P petabajt, ludzka pamięć; Rozróżnienie B i b: B=bajty, KB=kilobajty, MB=megabajty, GB=gigabajty b=bity, Kb=kilobity, Mb-megabity... Dlaczego komputery przetwarzają bity? Bity sąs proste mogą przyjmować tylko jeden z dwóch stanów: 0 i 1. Dlatego układy operujące na bitach sąs dużo o prostsze niż dla innych jednostek. Za pomocą bitów w można dobrze kodować dowolną informację,, więc c przetwarzanie informacji można wykonywać przy pomocy układ adów w operujących na bitach.

Dlaczego komputery przetwarzają bity? Bity sąs odporne na zakłócenia - w czasie przekazu należy y wykryć tylko dwa poziomy, wysoki H - 1 i niski L - 0. Brak wartości pośrednich. W przypadku innych jednostek sygnał musi mieć więcej poziomów, a więc c jest bardziej podatny na przekłamania w trakcie transmisji. Binarny system pozycyjny da się bezpośrednio zakodować w postaci bitów - każdej cyfrze binarnej odpowiada jeden bit (na bitach można wykonywać dowolne operacje arytmetyczne, a więc c liczyć) Przyszłość maszyn liczących cych komputer kwantowy Informacją kwantową nazywamy informację zawartą w stanie układu kwantowego. Jednostką informacji kwantowej jest kubit. Informacja kwantowa może być zakodowane w nielokalnych związkach pomiędzy poszczególnymi elementami układu, które nie mają odpowiednika w klasycznej teorii informacji. Mówimy wtedy, że układ jest w stanie splątanym.

Przyszłość maszyn liczących cych komputer kwantowy Inna cechą odróżniaj niającą informację kwantową od klasycznej informacji jest jej probabilistyczność ść. Mierząc c wartość jednego kubitu,, możemy uzyskać z pewnym prawdopodobieństwem wynik 0 lub 1. Z wyjątkiem pewnych szczególnych przypadków w nie możemy przewidzieć który z nich uzyskamy. System liczbowy Zbiór reguł do jednolitego zapisywania i nazywania cyfr. addytywne pozycyjno-wagowe

Systemy addytywne Posiadają osobne symbole dla pierwszych kilku małych liczb, a następnie posiadają kolejne symbole dla ich wielokrotności. W systemach tych liczby tworzy się przez "dodawanie" kolejnych symboli i stąd ich nazwa Przykład Jeśli "X"=10,"V"=5,"I"=1 to XVI = 10+5+1 = 16) (rzymski system liczbowy) Systemy pozycyjno-wagowe System pozycyjny to taki, w którym znaczenie znaków zależy od ich pozycji. System wagowy to taki, w którym każdej pozycji cyfry przypisana jest inna waga. Liczbę przedstawia się jako ciąg cyfr, przy czym wartość tej liczby zależy zarówno od cyfr jak i miejsca, na którym się one znajdują w tym ciągu Przykład Liczba 5004 w dziesiętnym systemie liczbowym, w którym podstawą pozycji jest 10 : 5 x 10 3 + 0 x 10 2 + 0 x 10 1 + 4 x 10 0 = 5 x 1000 + 4 x 1

System pozycyjno-wagowy Liczbę całkowitą L w systemie pozycyjnym o podstawie (bazie) r zapisujemy w postaci: (a n-1 a 1 a 0 ) r Unikalną reprezentacją liczby o wartości L jest zbiór cyfr {a n-1,,a 1,a 0 ) takich, że L P - podstawa systemu a kolejne cyfry w liczbie i indeks kolejnych cyfr n = ap i i= 0 i System dziesiętny (decymalny, arabski ) Podstawę systemu dziesiętnego tworzy liczba 10. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach od 0 do 9. Przykład 126 10 = 1x10 2 + 2x10 1 + 6x10 0

System dwójkowy (binarny) Podstawę systemu binarnego tworzy liczba 2. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach 0 i 1. Przykład 1010 2 = 1x2 3 + 0x2 2 + 1x2 1 + 0x2 0 = 8 + 2 = 10 10 System dwójkowy (binarny) Naturalny system informatyki Zalety: Prostota łatwa realizacja techniczna (elektronika) możliwość interpretacji cyfr {0, 1} jako wartości Wady: logicznych długość zapisu liczby przyzwyczajenie do systemu dziesiętnego

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 0 1 2 3 4 5 6 7 8 9 A B C D E F System szestnastkowy (hexadecymalny) Podstawę systemu binarnego tworzy liczba 16. Zapis liczby tworzymy za pomocą cyfr o przypisanych wartościach od 0 do 9 oraz kolejne litery alfabetu łacińskiego A, B, C, D, E, F. Przykład A1F 16 = Ax16 2 + 1x16 1 + Fx16 0 = 10x256 + 1x16 + 15x1 = 2591 10 Po co jest system szestnastkowy? Adresy komórek pamięci są szesnastkowe Zawartość komórek (bajtów) jest określana w sposób szesnastkowy

Zadania 43521 (7) =??? (10) 2101122 (3) =??? (10) AGF63B (17) =??? (10) Algorytm Hornera obliczania dziesiętnej wartości liczby całkowitej n - liczba cyfr w zapisie pozycyjnym danej liczby p - podstawa systemu pozycyjnego, w którym jest zapisana liczba c i - cyfra stojąca na i-tej pozycji. Pozycja o numerze 0 jest pierwszą pozycją od strony prawej. w - obliczana wartość liczby 1. w 0 2. i n - 1 3. w c i + w x p 4. jeśli i = 0, to koniec, w zawiera wartość liczby 5. i i - 1 6. wróć do punktu 3

Algorytm Hornera przykład Obliczyć przy pomocy algorytmu Hornera dziesiętną wartość liczby 742031 zapisanej w systemie pozycyjnym o podstawie p=8. w 0 w 7 + 0 x 8 = 7 w 4 + 7 x 8 = 60 w 2 + 60 x 8 = 482 w 0 + 482 x 8 = 3856 w 3 + 3856 x 8 = 30851 w 1 + 30851 x 8 = 246809 i kończymy, ponieważ osiągnęliśmy ostatnią cyfrę Algorytm Hornera zadanie Obliczyć przy pomocy algorytmu Hornera wartość liczby 2210112 zapisanej w systemie pozycyjnym o podstawie p=3.

Metoda przeliczania liczb Problem - znalezienie kolejnych cyfr zapisu liczby dziesiętnej w systemie docelowym. Wartość liczby L jest równa zgodnie ze wzorem: L = C n-1 p n-1 + C n-2 p n-2 +... + C 2 p 2 + C 1 p + C 0 Do wydobycia poszczególnych cyfr C i, i = 0,1,2,...,n-1, są nam potrzebne dwa działania: div - dzielenie całkowitoliczbowe - określa ile całkowitą ilość razy dzielnik mieści się w dzielnej, na przykład: 9 div 4 = 2, gdyż 4 mieści się w 9 dwa razy. mod - reszta z dzielenia całkowitoliczbowego, na przykład: 9 mod 4 = 1,gdyż 4 mieści się w 9 dwa razy, co daje 8 i pozostaje reszta 1. Znajdowanie rozwinięcia liczby o podstawie p w -wartość liczby p - podstawa systemu pozycyjnego c i - cyfra na i-tej pozycji w systemie pozycyjnym o podstawie p 1. i 0 2. c i reszta z dzielenia w / p 3. w wynik dzielenia całkowitego w / p 4. jeśli w = 0, to kończymy, wszystkie cyfry znalezione 5. i i + 1 6. wróć do punktu 2

Znajdowanie rozwinięcia liczby o podstawie p przykład Przeliczyć wartość 12786 na system piątkowy. w 12786 / 5 = 2557 i reszta 1 w 2557 / 5 = 511 i reszta 2 w 511 / 5 = 102 i reszta 1 w 102 / 5 = 20 i reszta 2 w 20 / 5 = 4 i reszta 0 w 4 / 5 = 0 i reszta 4 (koniec obliczeń, ponieważ otrzymaliśmy wartość 0) 12786 (10) = 402121 (5) Znajdowanie rozwinięcia liczby o podstawie p zadania Przeliczyć wartość 86597 (10) na system dwójkowy. Przedstawić w systemie trójkowym liczbę 325748 (10). Przedstawić w systemie czwórkowym liczbę 2743 (10).

Konwersja dwójkowo jkowo-ósemkowa cyfry ósemkowe cyfra 0 1 2 3 4 5 6 7 wartość 000 (2) 001 (2) 010 (2) 011 (2) 100 (2) 101 (2) 110 (2) 111 111 (2) 110101111011010101011101 (2) 110 101 111 011 010 101 011 101 (2) 110 101 111 011 010 101 011 101 6 5 7 3 2 5 3 5 110101111011010101011101 (2) = 65732535 (8) Konwersja ósemkowo-dwójkowa cyfry ósemkowe cyfra 0 1 2 3 4 5 6 7 wartość 000 (2) 001 (2) 010 (2) 011 (2) 100 (2) 101 (2) 110 (2) 111 111 (2) 7 5 2 4 0 1 111 101 010 100 000 001 752401 (8) = 111101010100000001 (2)

0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 Konwersja dwójkowo jkowo-szestnastkowa 0 1 2 3 4 5 6 7 8 9 A B C D E F 110101111011010101011101 (2) 1101 0111 1011 0101 0101 1101 (2) D 7 B 5 5 D 110101111011010101011101 (2) = D7B55G (16) 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111 Konwersja szestnastkowo-dw dwójkowa 0 1 2 3 4 5 6 7 8 9 A B C D E F D 7 B 5 5 D 1101 0111 1011 0101 0101 1101 D7B55G (16) = 111101010100000001 (2)