Procesory kart graficznych i CUDA wer
|
|
- Halina Michalik
- 8 lat temu
- Przeglądów:
Transkrypt
1 wer Litreratura: CUDA textbook by David Kirk from NVIDIA and Prof. Wen-mei Hwu from UIUC. CUDA w przykładach. Wprowadzenie do ogólnego programowania procesorów GP, J.Sanders, E.Kandrot, Helion Getting Started with CUDA, Greg Ruetsch, Brent Oster, NVIDIA Technical Brief NVIDIA GeForce GTX 200 GPU Architectural Overview 1
2 Motywacje: Problemy postępu technologii procesorów sytuacja 10 lat temu Problemy: Energia - tania, tranzystory drogie Obliczenia - wolne, dostęp do pamięci - wolny, Rozwiązania: wzrost prędkości obliczeń uzyskiwany dzięki współbieżności przetwarzania na poziomie instrukcji realizacja analiza kodu przez kompilatory, dynamiczna kolejność przetwarzania instrukcji, przetwarzanie spekulatywne, zastosowanie pamięci podręcznej procesora. 2
3 Motywacje: Problemy postępu technologii procesorów sytuacja obecnie Problemy: Przeszkoda energetyczna energia - droga, tranzystory tanie Przeszkoda pamięci : obliczenia - szybkie, dostęp do pamięci - wolny, (np. 200 cykli - dostęp do DRAM, 4 cykle - mnożenie FP) Rozwiązanie wzrost efektywności poprzez: współbieżność wątków - powszechna równoległość wieloprocesorowa i wielordzeniowa ogranicza zużycie mocy i równoległość danych - jednakowe operacje na wielu jednostkach danych proste procesory SIMD, GPU łączone dostępy do pamięci i przełączanie wątków. 3
4 Zasady ogólne: Compute Unified Device Architecture (NVIDIA) - CUDA Sposób na programowanie PKG (GPU, karty graficzne): model programowania i środowisko dla programowania równoległego CUDA zawiera: specyfikację architektury sprzętu, język programowania, interfejs języka dla aplikacji czyli API runtime API lub device API. 4
5 Zasady ogólne: Cechy CUDA Dostęp wątków do pamięci: wątek może realizować odczyt dowolnej lokacji pamięci globalnej karty, wątek może czytać/zapisywać potrzebną liczbę lokacji pamięci globalnej karty, wątki mogą współdzielić dane w pamięci współdzielonej. Niski nakład pracy wejścia niezbędny dla poznania CUDA: niewielkie rozszerzenie języka C, brak wymagań na znajomość zagadnień graficznych. Umożliwia wykorzystanie systemów niejednorodnych - CPU + karta graficzna (GPU) o rozdzielonych pamięciach. (notacja: CPU -host, GPU device) 5
6 Zasady ogólne: Współpraca wątków Znaczenie współpracy: współdzielenie wyników brak konieczności wielokrotnych obliczeń korzystanie ze współdzielonej pamięci pozwala na: obniżenie wymagań na przepustowość pamięci głównej możliwość efektywnej współpracy (pamięć współdzielona, synchronizacja) w ramach mniejszych grup wątków blokach wątków Ograniczenie możliwości współpracy w ramach dowolnie dużej grupy wątków (limit na wielkość bloku wątków) często na danym etapie obliczeń dla problemu każdy blok wątków realizuje niezależne obliczenia(na tych samych lub innych procesorach, w tym samym lub innym czasie). 6
7 Krótka legenda: Przetwarzanie w modelu CUDA Multiprocesor (SM) fragment struktury przetwarzającej - składa się z wielu rdzeni, jednostek przetwarzających specjalnego przeznaczenia i pamięci współdzielonej. Warp osnowa - logiczna grupa 32 jednostek wykonawczych multiprocesora realizujących tę samą instrukcję dla wiązki wątków. Kernel funkcja kod realizowanych przez PKG (brak współbieżności kerneli, nowsze karty możliwa). Grid grupa (struktura) wątków realizująca kernel (struktura logiczna max 2 (3) wymiarowa). Blok wątków grupa wątków - część gridu (max 3 wymiarowy) blok jest przetwarzany na jednym multiprocesorze, blok dzieli się na wiązki Wiązka wątków grupa wątków (max 32) część kolejnych (wierszami ) wątków bloku, przetwarzana jednocześnie, wątki wiązki wykonują ten sam rozkaz (część watków może rozkazu nie wykonywać warunek w kodzie). 7
8 Przetwarzanie w modelu CUDA Wywołanie w kodzie dla procesora komputera funkcji kernela umożliwia uruchonienie gridu składającego się z wielu bloków wątków. Wątki tego samego bloku realizowane na tym samym SM: współpracują przez pamięć współdzieloną, mogą się efektywnie synchronizować. Przetwarzanie bloków wątków jest przenośne i skalowalne przetwarzanie można realizować na różnych kartach scharakteryzowanych wymaganą zgodnością obliczeniową compute capability. 8
9 CPU - GPU filozofie architektur (1) Przetwarzanie GPU jest skoncentrowane na obliczeniach i przepustowości, stosowana metodologia: przerwanie przetwarzania grupy wątków na czas oczekiwania na dane, realizacja obliczeń na rzecz innej grupy wątków. Przetwarzanie CPU jest zorientowane na redukcję opóźnienia i zapełnienie potoków przetwarzania, stosowana metodologia: dążenie do wysokich współczynników trafień i efektywnej predykcji rozgałęzień kodu, dynamiczna zmiana kolejności instrukcji. 9
10 GPU filozofia architektury (2) Stopień wykorzystania struktur logicznych przez jednostki funkcjonalne CPU i GPU. W GPU znacznie więcej - niż w CPU - tranzystorów jest wykorzystywanych do implementacji ALU, niż do sterowania przetwarzaniem i pamięci podręcznej. Efekt: wymaganie na większą niż w CPU przewidywalność w dostępie do danych i przepływie sterowania dla programów efektywnych w GPU. 10
11 Równoległość zadań a równoległość danych Równoległość zadań niezależne procesy realizują dowolne zadania z niewielką ilością komunikacji Łatwa do implementacji: wspólczesne systemy operacyjne w systemach wieloprocesorowych + OpenMP Równoległość danych wiele jednostek danych na których realizowane mają być te same obliczenia, możliwość wykorzystania wielu jednostek przetwarzających lecz: konieczność przeprojektowania tradycyjnych algorytmów. Implementacja efektywna w systemach kart graficznych 11
12 GPU - filozofia architektury (4) CPU szybkie pamięci podręczne (nadają się do algorytmów z ponownym wykorzystaniem danych) wiele różnych procesów/wątków wysoka efektywność przetwarzania pojedynczego wątku (warunek - lokalność dostępów) GPU - PKG wiele jednostek wykonawczych, efektywny (przepustowość!, opóźnienie?) dostęp do pamięci urządzenia, realizacja tego samego kodu na wielu elementach danych, wysoka przepustowość dla wielu obliczeń równoległych (warunek jednakowe operacje dla wiązki wątków) Zatem: CPU właściwe dla równoległości zadań GPU właściwe dla równoległości danych 12
13 Compute Capability 5.0 na podstawie karty GTX745 Sprzęt używany na laboratorium lab Architektura Maxwell (GTX745 1,033GHz): posiada multiprocesory Maxwell SM SMM SMM zawiera 128 rdzenii (operacje arytmetyczne FP) i 32 SFU (f. wykładnicza, logarytm, pierwiastek). Układ scalony GM107 - posiada 5 SMM multipocesorów jeden GPC Graphics Proseccing Cluster. W karcie GTX 745 (lab ) 3 SMM są uaktywnione 384 rdzeni Posiada: Compute capability 5.0 Pamięć podręczna danych i dynamiczna równoległość Inne układy scalone serii Maxwell to GM108, GM204 (CC5.2) Prędkość obliczeń (pojedyńczej precyzji) 2 operacje (+*) wykonuje na rdzeń i na cykl (podwójna precyzja 1/32) czyli ok. 2*400 GFlops 13
14 Sprzęt używany na laboratorium lab Compute capability dla GTX745 - Maxwell to CC 5.0: wątków na blok - Max 1024 wielkość WARP - 32 liczba bloków na SMM max 32 wiązki (ang. WARP) rezydujące na SMM max 64 (2048 wątków) 32 bit rejestry na SMM - 64 K 32 bit rejestry na wątek 255 SMEM na SMM 64 KB Banki SMEM 32 14
15 Szeregowanie przetwarzania CC Poszczególne bloki wątków są rozdzielane do przetwarzania na SM, potencjalnie więcej niż jeden blok, lecz <= 32 bloki (równocześnie) dla Compute Capability SM (CC 5.0) realizuje jednoczesne obliczenia dla wiązek, których liczba jest ograniczona liczbą warpów utworzonych z jednostek wykonawczych w SM: 128 ALU i 32 SFU, pozostałe wiązki oczekują na swoją kolej (dostępne warpy) lub dane. SM przetwarza wiązki przydzielonych bloków do końca. 3. Zwolnienie zasobów SM przydzielonych do bloku rejestry, pamięć - następuje po zakończeniu przetwarzania bloku daje możliwość przetwarzania kolejnego bloku. 15
16 Szeregowanie wątków w ramach bloków wątków i jednostki warp w SM Przykładowa kolejność dotyczy przetwarzania dla jednego warpa kolejno przetwarzane: Wiązka1 bloku 1, Wiązka 1 bloku 2, Wiązka 1 bloku 3, Wiązka 2 bloku 3 TB1, W1 stall okres utknięcia wiązki W1 bloku B1, ze względu na brak danych do obliczeń. 16
17 Kernel jest realizowany przez grid - tablicę wątków: wszystkie watki otrzymują ten sam kod każdy watek posiada unikalny w gridzie identyfikator (zależy od blockidx.x, blockdim.x, threadidx.x) używany do określenia pracy: np. obliczenia wykorzystywanego adresu pamięci i sterowania przebiegiem obliczeń Wątki i ich identyfikatory - threadid float x = input[threadid]; Przykład kodu kernela: float y = func(x); output[threadid] = y; 17
18 Model pamięci dla PKG CUDA Możliwe dostępy do pamięci w ramach kodu: Kernel (wątki dla PKG) R/W rejestru w ramach wątku (lokalnie szybki dostęp) R/W pamięci prywatnej wątku (w pamięci globalnej karty powolny dostęp) R/W pamięci współdzielonej w ramach bloku wątków (szybki dostęp) R/W pamięci globalnej w ramach gridu (w pamięci globalnej karty powolny dostęp) odczyt pamięci wartości stałych (constant) w ramach gridu Kod komputera dostępowego (host) R/W pamięci gridu globalnej i pamięci stałych 18
19 Struktura pamięci systemu CPU-GPU Kod CPU zarządza pamięcią GPU - alokacja, zwolnienie, kopiowanie danych pomiędzy pamięciami: host do device oraz device do host. 19
20 Wywołanie kernela - parametry konfiguracyjne 1. Zmodyfikowana składnia wywołania funkcji dla PKG (CUDA): nazwa_funkcji <<<dim3 opis_gridu, dim3 opis_bloku>>> (parametry_kernela); 2. Konfiguracja uruchomienia określona jest poprzez <<< >>> 3. opis_gridu oznacza: liczbę wymiarów i wielkość gridu (tj. rozmiary) podane w jednostkach bloku, max 2(3) wymiary x, y, z liczba bloków uruchomionych w grid wynosi opis_gridu.x * opis_gridu.y 4. opis_bloku oznacza: liczbę wymiarów i wielkość bloku (tj. rozmiary) w wątkach, max 3 wymiary bloków x,y,z, liczba wątków na blok wynosi zatem opis_bloku.x * opis_bloku.y * opis_bloku.z Nie określone wartości typu dim3 zostają automatycznie zainicjowane do wartości Kompilator zamienia to wywołanie w blok kodu, który zostaje skonfigurowany (ustalona struktura i liczba wątków) i zostanie uruchomiony asynchronicznie na PKG. 20
21 Zmienne automatyczne konfiguracji wątek dowiaduje się swojwgo ID i określa pracę Wszystkie funkcje global i device mają dostęp do automatycznie zdefiniowanych zmiennych o następujących nazwach i typie : dim3 griddim; // ile bloków w wymiarze griddim.x, griddim.y dim3 blockdim; // ile wątków w wymiarze blockdim.x... dim3 blockidx; //który blok blockidx.x <= griddim.x-1 dim3 threadidx; //który wątek threadidx.x <= blockdim.x-1 Nie można przyporządkowywać wartości zmiennych automatycznych i pobierać adresu, wykorzystywane są np. do adresowania pamięci i określania pracy wątku. 21
22 Inkrementacja tablicy porównanie kodu CPU-GPU program CPU void inc_cpu(int *a, int N) { } int idx; for (idx = 0; idx<n; idx++) a[idx] = a[idx] + 1; int main() { } inc_cpu(a, N); program CUDA global void inc_gpu(int *a, int N) { int idx = blockidx.x * blockdim.x + threadidx.x; if (idx < N) a[idx] = a[idx] + 1; //grid i blok jednowymiarowe } int main() { dim3 dimblock (blocksize); dim3 dimgrid( ceil( N / (float)blocksize) ); inc_gpu<<<dimgrid, dimblock>>>(a, N); } // sufit dla uzyskania wystarczającej liczby wątków 22
23 Określniki rodzaju zmiennych (kernel) device Zmienne przechowywane w pamięci globalnej (duża pamięć, długi czas dostępu, (brak pp w starszych kartach), alokowana przez cudamalloc, dostępna dla wszystkich wątków, przez czas życia aplikacji. shared Zmienne przechowywane w pamięci współdzielonej SM (szybki czas dostępu), dostępne przez wątki tego samego bloku, dostępne w czasie istnienia bloku, jedna kopia obiektu na blok wątków, rozmiar specyfikowany przy kompilacji lub w konfiguracji uruchomienia, UWAGA: synchronizacja jest niezbędna do uzyskania obrazu wykonanych operacji również w ramach innych wątków bloku (lub deklaracja volatile), dane _shared_ są niedostępne z CPU. 23
24 Określniki rodzaju zmiennych (kernel) constant Globalne zmienne przechowywane w pamięci GPU, dla GPU możliwy odczyt, dla CPU API odczyt/zapis bez określnika rodzaju Zmienne lokalne wątku (typy skalarne i wbudowane typy wektorowe) przechowywane w rejestrach lub (gdy się nie mieszczą ) w pamieci globalnej naywane local memory. 24
25 Optymalizacja dostępu do pamięci Pamięć globalna: Dostęp do pamięci globalnej grupy wątków realizowanych jednocześnie WARP (1/2 WARP) może być zrealizowany jako jedna transakcja z pamięcią (połączone - coalesced od koalicja) Coalesced vs. Non-coalesced => różnica rzędu w wielkości czas dostępu dotyczy dostępów do pamięci globalnej i lokalnej GPU Pamięć współdzielona: Unikanie konfliktów dostępu do tych samych banków w pamięci współdzielonej (cel: sąsiednie wątki WARP odwołują się do różnych adresów modulo liczba banków pamięci brak konfliktów) W CC 5.0 odwołania do kolejnych 32 bitowych słów trafiają do różnych 32 banków pamięci. 25
26 Efektywność przetwarzania możliwe sytuacje 1. Przepustowość dostępu do pamięci za mała obniżenie efektywności obliczeń ze względu na brak danych. 2. Przepustowość dostępu do pamięci wystarczająca obniżenie efektywności obliczeń ze względu na brak danych powodowany opóźnieniem dostępu (czas odpowiedzi) 3. Przepustowość dostępu do pamięci wystarczająca wysoka efektywności obliczeń ze względu na wystarczającą liczbę warpów, które posiadają dane gotowe do obliczeń. Liczba wątków (równocześnie na SM) niezbędnych do efektywnego przetwarzania zależna od CGMA parametr ten określa jak długo zajmujemy procesor pobranymi z pamięci globalnej danymi. 26
27 Łączenie dostępów dla CC 5.0 Dane pobierane z pamięci globalnej są buforowane w pamieci podręcznej L2 wspólnej dla wszystkich SM. Żądania z WARP są odwzorowane na linie pamięci podręcznej L2 (32 bajty) i zaspokajane z pamięci podręcznej (transakcje 32 bajtowe) lub globalnej transakcje 128 bajtowe. 27
28 Zalety pamięci współdzielonej bloku wątków Sto razy szybszy czas dostępu do pamięci współdzielonej niż czasu dostępu do pamięci globalnej. Możliwość współpracy wątków bloku. Użycie grupy wątków do załadowania danych i obliczenia na danych współdzielonych przez wszystkie wątki. Użycie do zapobieżenia dostępom niepołączonym Etapy pobrań i zapisu przy użyciu pamięci współdzielonej dla uporządkowania adresowania dostępów nie dających się (wg algorytmu) połączyć. 28
29 Synchronizacja przetwarzania bloku wątków w SM void syncthreads(); synchronizacja wątków bloku, wprowadza barierę dla wątków bloku, używana do zapobiegnięcia wyścigowi w dostępie do pamięci współdzielonej multiprocesora musi wystąpić w wykonywanym kodzie wszystkich wątków bloku. 29
30 Synchronizacja przetwarzania CPU GPU Wszystkie uruchomienia funkcji kernel są asynchroniczne: sterowanie wraca natychmiast do kodu CPU, możliwe są równoczesne obliczenia CPU i GPU funkcja kernel jest realizowana po zakończeniu wcześniejszych wywołań CUDA. cudamemcpy(); funkcja jest synchroniczna, sterowanie wraca do kodu CPU po jej zakończeniu, kopiowanie jest realizowane po zakończeniu wszystkich wcześniejszych (ten sam strumień) wywołań CUDA. cudathreadsynchronize() ; przerywa przetwarzanie kodu CPU do momentu zakończenia wcześniejszych wywołań CUDA 30
31 Równoczesność transmisji danych (HOST DEVICE) i obliczeń (GPU, CPU) Wywołania asynchroniczne funkcji API i strumienie pozwalają na nakładanie się komunikacji i obliczeń Obliczenia CPU mogą się nakładać z transferem danych na wszystkich typach GPU (transfer asynchroniczny) Obliczenia GPU mogą się nakładać z transferem danych na kartach z Concurrent copy and execution (od compute capability >= 1.1) - realizacja w różnych strumieniach. Strumień (Stream) = sekwencja operacji realizowana na GPU Operacje z różnych strumieni mogą być realizowane równocześnie. Identyfikator strumienia jest używany jako argument do wywołań asynchronicznych i uruchomień funkcji kernel. 31
32 Asynchroniczna komunikacja host-device Asynchroniczne transfery host-device zwracają sterowanie natychmiast do CPU cudamemcpyasync(dst, src, size, dir, stream); wymagają pamięci o stałej lokacji (bez wirtualizacji) (alokowanej za pomocą cudamallochost), równoczesność obliczeń CPU i przesyłu danych, wzrost efektywności komunikacji poprzez wykorzystanie wprost pamięci o stałej lokacji. Przykład: cudamemcpyasync(a_d, a_h, size, cudamemcpyhosttodevice, 0); kernel<<<grid, block>>>(a_d); obliczenia_na_cpu(); cudathreadsynchronize(); //oczekiwanie na zakończenie przetwarzania GPU Uwaga: 0 oznacza strumień zerowy ten sam w którym niejawnie (domyślnie) uruchamiany jest kernel 32
33 Zrównoleglenie przetwarzania funkcji kernel i transferu danych HOST-GPU Wymagany jest własność Concurrent copy and execute pola deviceoverlap zmiennej cudadeviceprop. Kernel i funkcja transferu używać muszą różnych niezerowych strumieni. Wywołanie funkcji CUDA dla strumienia 0 blokuje przetwarzanie tej funkcji do momentu zakończenia wszystkich wcześniejszych wywołań (wszystkich strumieni) - nie zezwala na zrównoleglenie realizacji wywołań. Przykład: cudastreamcreate(&stream1); cudastreamcreate(&stream2); cudamemcpyasync(a_d, a_h, size, cudamemcpyhosttodevice, stream1); kernel<<<grid, block, 0, stream2>>>(inne_niz_a_d_dane); UWAGA: aby ten sam wątek mógł wywołać kernel, transfer musi być asynchroniczny. 33
34 Przykład: wieloetapowa komunikacja równoległa z przetwarzaniem GPU (i CPU) for (i=0; i<nstreams; i++) { } offset= oblicz_offset(); cudamemcpyasync(a_d+offset, a_h+offset, size, dir, stream[i]); kernel<<<nblocks, nthreads, 0, stream[i]>>>(a_d+offset); czas Rysunek przedstawia przebieg Sekwencyjnego i równoległego transfer danych (CPU_GPU) i przetwarzania na GPU. 34
35 Synchronizacja GPU/CPU Wywołania związane ze strumieniem i ze zdarzeniami: zdarzenia można wprowadzić do strumienia : cudaeventrecord(event, stream) zdarzenie jest zarejestrowane, gdy GPU dotrze do niego (w przetwarzanym strumieniu) zdarzenie zarejestrowane = przypisana wartość etykiety czasowej (GPU clocktick), użyteczne dla pomiaru czasu cudaeventsynchronize(event) blokada wątku CPU do momentu zarejestrowania zdarzenia cudaeventquery(event) bada czy zdarzenie jest zarejestrowane zwraca cudasuccess, cudaerrornotready nie blokuje przetwarzania wątku CPU 35
36 Synchronizacja GPU/CPU Dotyczy bieżącego kontekstu wywołania: cudathreadsynchronize() blokuje CPU do zakończenia wszystkich wcześniejszych wywołań CUDA z CPU Związane ze strumieniem: cudastreamsynchronize(stream) blokuje CPU do zakończenia wszystkich wywołań CUDA dla danego strumienia - parametru cudastreamquery(stream) bada czy strumień jest pusty zwraca cudasuccess, cudaerrornotready,... nie blokuje wątku CPU 36
37 Podstawowe operacje na pamięci GPU Alokacja pamięci : cudamalloc(void ** pointer, size_t nbytes) Wypełnienie pamięci: cudamemset(void * pointer, int value, size_t count) Oddanie pamięci: cudafree(void* pointer) Przykładowy kod: int n = 1024; int nbytes = 1024*sizeof(int); int *a_d = 0; cudamalloc( (void**)&a_d, nbytes ); cudamemset( a_d, 0, nbytes); cudafree(a_d); 37
38 Kopiowanie daych CPU - GPU cudamemcpy(void *dst, void *src, size_t nbytes, cudamemcpykind direction); zmienna direction określa kierunek transferu danych enum cudamemcpykind - wartości w tym typie to: cudamemcpyhosttodevice cudamemcpydevicetohost cudamemcpydevicetodevice Funkcja ta blokuje przetwarzanie na CPU, kończy się po zakończeniu przesłania. Kopiowanie rozpoczyna się typowo po zakończeniu poprzedniego wywołania CUDA. 38
39 Przykład kodu dla transferu danych kierunki przesłań zgodnie z rysunkiem int main(void) { float *a_h, *b_h; // host data float *a_d, *b_d; // device data int N = 14, nbytes, i ; nbytes = N*sizeof(float); a_h = (float *)malloc(nbytes); b_h = (float *)malloc(nbytes); cudamalloc((void **) &a_d, nbytes); cudamalloc((void **) &b_d, nbytes); for (i=0, i<n; i++) a_h[i] = 100.f + i; cudamemcpy(a_d, a_h, nbytes, cudamemcpyhosttodevice); cudamemcpy(b_d, a_d, nbytes, cudamemcpydevicetodevice); cudamemcpy(b_h, b_d, nbytes, cudamemcpydevicetohost); for (i=0; i< N; i++) assert( a_h[i] == b_h[i] ); free(a_h); free(b_h); cudafree(a_d); cudafree(b_d); } return 0; Host a_h Device a_d b_h b_d 39
40 Zasady optymalizacji algorytmu dla GPU 1. Algorytm oparty na niezależnej równoległości przetwarzania. 2. Maksymalizacja intensywności obliczeń arytmetycznych - miara współczynik CGMA (compute to global memory access ratio). Czasem lepiej ponownie obliczyć niż pobrać z pamięci, gdyż GPU dostarcza użytkownikowi przede wszystkim wiele ALU, a nie szybkiej pamięci. 3. Unikać kosztownych transferów do host. 4. Minimalizacja użycia zasobów przez wątek dla umożliwienia wielu blokom wątków aktywności w ramach SM. Zapewnienie wystarczającej ilości pracy SM poprzez dużą liczbę wątków i dużą liczbę bloków wątków (maksymalizacja równoległości). 5. Optymalizacja dostępów (inna niż CPU!) do pamięci dla wykorzystania maksymalnej przepustowości pamięci. 6. Optymalizacja wykorzystania instrukcji kodu dla maksymalizacji prędkości obliczeń (np. rozwijanie pętli usuwanie instrukcji sterujących). 40
41 Operacje atomowe w pamięci GPU Compute capability >=1.1 Operacje add, sub, increment, decrement, min, max,... and, or, xor exchange, compare, swap 1. Operacje atomowe na 32-bit słowach pamięci globalnej wymagają compute capability >= 1.1 (G84/G86/ G92) 2. Operacje atomowe na 32-bit słowach pamięci współdzielonej i 64-bit słowach pamięci globalnej wymagają compute capability >=
42 Kwalifikatory funkcji CUDA Kernel określony za pomocą: global Funkcja wywoływana w kodzie host i wykonywana w device, musi: zwracać void, posiadać stałą liczbę argumentów argumenty automatycznie kopiowane z CPU do GPU nie może: być rekursywna i odwoływać się do pamięci CPU Inne kwalifikatory: device Funkcja wywoływana w kodzie device i wykonywana w device. host Funkcja wywoływana i realizowana na host Można używać host i device równocześnie. 42
43 Wywołanie kernela - przykłady dim3 grid, block; grid.x = 2; grid.y = 4; block.x = 8; block.y = 16; nazwa_kernela<<<grid, block>>>(...); dim3 grid(2, 4), block(8,16); // to samo za pomocą funkcji tworzącej nazwa_kernela<<<grid, block>>>(...); // 8*128=1024 wątki nazwa_kernela<<<32,512>>>(...); // 1 wymiarowy grid - 32 bloki, jednowymiarowy blok wątków po 512 wątków 43
44 Zmienne automatyczne konfiguracji przykłady Dla jednowymiarowego gridu i bloku o parametrach: blockidx.x, blockdim.x, threadidx.x globalny identyfikator wątku wyliczony wg wzoru: blockidx.x*blockdim.x + threadidx.x Ogólnie liczba wątków dowolnego gridu: griddim.x *griddim.y*blockdim.x*blockdim.y*blockdim.z 44
45 Użycie pamięci współdzielonej Rozmiar znany podczas kompilacji Rozmiar znany przy wywołaniu global void kernel( ) { shared float sdata[256]; } int main(void) { kernel<<<nblocks,blocksize>>>( ); } global void kernel( ) { extern shared float sdata[]; } int main(void) { int smbytes = blocksize*sizeof(float); kernel<<<nblocks, blocksize, smbytes>>>( ); } 45
46 Materiały Nvidia
47 Znaczenie optymalizacji wykorzystania zasobów multiprocesora (SM) Wielkość wykorzystanych przez kernel rejestrów, pamięci lokalnej, współdzielonej i stałych można poznać za pomocą programu NVIDIA profiler oraz podczas kompilacji za pomocą opcji linii wywołania kompilatora nvcc --ptxas-options=-v Liczba rejestrów używanych przez kernel może mieć duży wpływ na liczbę bloków rezydujących na multiprocesorze. Przykład: CC k 32 bitowych rejestów w SM kernel wymaga - 16 rejestrów dla każdego wątku, Blok 512 wątków, można przydzielić 2 bloki które 2*512*16 wyczerpią wszystkie dostępne rejestry. wzrost zapotrzebowania na liczbę rejestrów o 1 na wątek zmniejsza liczbę przydzielonych bloków do SM o jeden, a przydzielonych warp o połowę!! (z 32 do 16). 47
Procesory kart graficznych i CUDA wer PR
wer 1.3 14.12.2016 PR Litreratura: CUDA textbook by David Kirk from NVIDIA and Prof. Wen-mei Hwu from UIUC. CUDA w przykładach. Wprowadzenie do ogólnego programowania procesorów GP, J.Sanders, E.Kandrot,
Procesory kart graficznych i CUDA
4.05.2019 Litreratura: CUDA textbook by David Kirk from NVIDIA and Prof. Wen-mei Hwu from UIUC. CUDA w przykładach. Wprowadzenie do ogólnego programowania procesorów GP, J.Sanders, E.Kandrot, Helion Getting
GTX260 i CUDA wer
GTX260 i CUDA wer 1.1 25.11.2014 Litreratura: CUDA textbook by David Kirk from NVIDIA and Prof. Wen-mei Hwu from UIUC. CUDA w przykładach. Wprowadzenie do ogólnego programowania procesorów GP, J.Sanders,
Programowanie kart graficznych
CUDA Compute Unified Device Architecture Programowanie kart graficznych mgr inż. Kamil Szostek AGH, WGGIOŚ, KGIS Wykorzystano materiały z kursu Programowanie kart graficznych prostsze niż myślisz M. Makowski
Procesory kart graficznych i CUDA wer 1.2 6.05.2015
wer 1.2 6.05.2015 Litreratura: CUDA textbook by David Kirk from NVIDIA and Prof. Wen-mei Hwu from UIUC. CUDA w przykładach. Wprowadzenie do ogólnego programowania procesorów GP, J.Sanders, E.Kandrot, Helion
Obliczenia na GPU w technologii CUDA
Obliczenia na GPU w technologii CUDA 1 Różnica szybkości obliczeń (GFLOP/s) pomiędzy CPU a GPU źródło NVIDIA 2 Różnica w przepustowości pamięci pomiędzy CPU a GPU źródło NVIDIA 3 Różnice architektoniczne
Programowanie Współbieżne
Programowanie Współbieżne Agnieszka Łupińska 5 października 2016 Hello World! helloworld.cu: #include global void helloworld(){ int thid = (blockidx.x * blockdim.x) + threadidx.x; printf("hello
Programowanie aplikacji równoległych i rozproszonych
Programowanie aplikacji równoległych i rozproszonych Dr inż. Krzysztof Rojek krojek@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Strumienie operacji na GPU Domyślne
Wprowadzenie do programowania w środowisku CUDA. Środowisko CUDA
Wprowadzenie do programowania w środowisku CUDA Środowisko CUDA 1 Budowa procesora CPU i GPU Architektura GPU wymaga większej ilości tranzystorów na przetwarzanie danych Control ALU ALU ALU ALU Cache DRAM
Programowanie CUDA informacje praktycznie i. Wersja
Programowanie CUDA informacje praktycznie i przykłady Wersja 16.12.2013 Podstawowe operacje na GPU cudasetdevice() Określenie GPU i ustanowienie kontekstu (analog w GPU tego czym jest proces dla CPU) dla
Programowanie CUDA informacje praktycznie i przykłady. Wersja
Programowanie CUDA informacje praktycznie i przykłady problemów obliczeniowych Wersja 25.11.2014 cudasetdevice() Podstawowe operacje na urządzeniu GPU Określenie GPU i ustanowienie kontekstu (analog w
Programowanie procesorów graficznych NVIDIA (rdzenie CUDA) Wykład nr 1
Programowanie procesorów graficznych NVIDIA (rdzenie CUDA) Wykład nr 1 Wprowadzenie Procesory graficzne GPU (Graphics Processing Units) stosowane są w kartach graficznych do przetwarzania grafiki komputerowej
Porównanie wydajności CUDA i OpenCL na przykładzie równoległego algorytmu wyznaczania wartości funkcji celu dla problemu gniazdowego
Porównanie wydajności CUDA i OpenCL na przykładzie równoległego algorytmu wyznaczania wartości funkcji celu dla problemu gniazdowego Mariusz Uchroński 3 grudnia 2010 Plan prezentacji 1. Wprowadzenie 2.
Programowanie procesorów graficznych GPGPU
Programowanie procesorów graficznych GPGPU 1 GPGPU Historia: lata 80 te popularyzacja systemów i programów z graficznym interfejsem specjalistyczne układy do przetwarzania grafiki 2D lata 90 te standaryzacja
Przygotowanie kilku wersji kodu zgodnie z wymogami wersji zadania,
Przetwarzanie równoległe PROJEKT OMP i CUDA Temat projektu dotyczy analizy efektywności przetwarzania równoległego realizowanego przy użyciu komputera równoległego z procesorem wielordzeniowym z pamięcią
Programowanie PKG - informacje praktycznie i przykłady. Wersja z Opracował: Rafał Walkowiak
Programowanie PKG - informacje praktycznie i przykłady problemów obliczeniowych Wersja z 7.05.2018 Opracował: Rafał Walkowiak cudasetdevice() Podstawowe operacje na urządzeniu GPU Określenie GPU i ustanowienie
Programowanie procesorów graficznych GPGPU. Krzysztof Banaś Obliczenia równoległe 1
Programowanie procesorów graficznych GPGPU Krzysztof Banaś Obliczenia równoległe 1 OpenCL projektowanie kerneli Przypomnienie: kernel program realizowany przez urządzenie OpenCL wątek (work item) rdzeń
JCuda Czy Java i CUDA mogą się polubić? Konrad Szałkowski
JCuda Czy Java i CUDA mogą się polubić? Konrad Szałkowski Agenda GPU Dlaczego warto używać GPU Budowa GPU CUDA JCuda Przykładowa implementacja Co to jest? GPU GPU Graphical GPU Graphical Processing GPU
Programowanie procesorów graficznych w CUDA.
Programowanie procesorów graficznych w CUDA. Kompilujemy program Alokacja zasobów gpgpu oraz załadowanie modułu CUDA odbywa się za pomocą komend: qsub -q gpgpu -I -l walltime=2:00:00,nodes=1:ppn=1:gpus=1
Programowanie Równoległe wykład, 21.01.2013. CUDA, przykłady praktyczne 1. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe wykład, 21.01.2013 CUDA, przykłady praktyczne 1 Maciej Matyka Instytut Fizyki Teoretycznej Motywacja l CPU vs GPU (anims) Plan CUDA w praktyce Wykład 1: CUDA w praktyce l aplikacja
CUDA obliczenia ogólnego przeznaczenia na mocno zrównoleglonym sprzęcie. W prezentacji wykorzystano materiały firmy NVIDIA (http://www.nvidia.
CUDA obliczenia ogólnego przeznaczenia na mocno zrównoleglonym sprzęcie W prezentacji wykorzystano materiały firmy NVIDIA (http://www.nvidia.com) 1 Architektura karty graficznej W porównaniu z tradycyjnym
Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Programowanie równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 23 października 2009 Spis treści Przedmowa...................................................
Tesla. Architektura Fermi
Tesla Architektura Fermi Tesla Tesla jest to General Purpose GPU (GPGPU), GPU ogólnego przeznaczenia Obliczenia dotychczas wykonywane na CPU przenoszone są na GPU Możliwości jakie daje GPU dla grafiki
Programowanie kart graficznych. Architektura i API część 1
Programowanie kart graficznych Architektura i API część 1 Literatura NVIDIA CUDA Programming Guide version 4.2 http//developer.download.nvidia.com/compute/devzone/ docs/html/c/doc/cuda_c_programming_guide.pdf
Wprowadzenie do programowania w środowisku CUDA. Środowisko CUDA
Wprowadzenie do programowania w środowisku CUDA Środowisko CUDA 1 Budowa procesora CPU i GPU Architektura GPU wymaga większej ilości tranzystorów na przetwarzanie danych Control ALU ALU ALU ALU Cache DRAM
i3: internet - infrastruktury - innowacje
i3: internet - infrastruktury - innowacje Wykorzystanie procesorów graficznych do akceleracji obliczeń w modelu geofizycznym EULAG Roman Wyrzykowski Krzysztof Rojek Łukasz Szustak [roman, krojek, lszustak]@icis.pcz.pl
Przetwarzanie Równoległe i Rozproszone
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI I TECHNOLOGII INFORMACYJNYCH Przetwarzanie Równoległe i Rozproszone www.pk.edu.pl/~zk/prir_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl
CUDA. cudniejsze przyk ady
CUDA cudniejsze przyk ady Agenda: CPU vs. GPU Mnożenie macierzy CPU Mnożenie macierzy - GPU Sploty Macierze CPU vs. GPU CPU: GPU: Mnożenie wykonywane w kolejnych iteracjach pętli. Przechodzimy przez pierwszy
Programowanie Równoległe Wykład, CUDA praktycznie 1. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe Wykład, 07.01.2014 CUDA praktycznie 1 Maciej Matyka Instytut Fizyki Teoretycznej Motywacja l CPU vs GPU (anims) Plan CUDA w praktyce Wykład 1: CUDA w praktyce Wykład 2: Cuda +
CUDA. obliczenia na kartach graficznych. Łukasz Ligowski. 11 luty Łukasz Ligowski () CUDA 11 luty / 36
CUDA obliczenia na kartach graficznych Łukasz Ligowski 11 luty 2008 Łukasz Ligowski () CUDA 11 luty 2008 1 / 36 Plan 1 Ogólne wrażenia 2 Obliczenia na kartach - wstęp 3 Wprowadzenie 4 CUDA Łukasz Ligowski
Procesory wielordzeniowe (multiprocessor on a chip) Krzysztof Banaś, Obliczenia wysokiej wydajności.
Procesory wielordzeniowe (multiprocessor on a chip) 1 Procesory wielordzeniowe 2 Procesory wielordzeniowe 3 Konsekwencje prawa Moore'a 4 Procesory wielordzeniowe 5 Intel Nehalem 6 Architektura Intel Nehalem
Programowanie kart graficznych
Programowanie kart graficznych Sławomir Wernikowski swernikowski@wi.zut.edu.pl Wykład #1: Łagodne wprowadzenie do programowania w technologii NVIDIA CUDA Terminologia: Co to jest GPGPU? General-Purpose
Programowanie Równoległe wykład 12. OpenGL + algorytm n ciał. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe wykład 12 OpenGL + algorytm n ciał Maciej Matyka Instytut Fizyki Teoretycznej CUDA z OpenGL 1. Dane dla kerneli znajdują się na karcie GFX. 2. Chcemy liczyć i rysować używając
Programowanie współbieżne i rozproszone
Programowanie współbieżne i rozproszone WYKŁAD 1 dr inż. Literatura ogólna Ben-Ari, M.: Podstawy programowania współbieżnego i rozproszonego. Wydawnictwa Naukowo-Techniczne, Warszawa, 2009. Czech, Z.J:
Co to jest sterta? Sterta (ang. heap) to obszar pamięci udostępniany przez system operacyjny wszystkim działającym programom (procesom).
Zarządzanie pamięcią Pamięć: stos i sterta Statyczny i dynamiczny przydział pamięci Funkcje ANSI C do zarządzania pamięcią Przykłady: Dynamiczna tablica jednowymiarowa Dynamiczna tablica dwuwymiarowa 154
Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1
Wydajność systemów a organizacja pamięci Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Motywacja - memory wall Krzysztof Banaś, Obliczenia wysokiej wydajności. 2 Organizacja pamięci Organizacja pamięci:
Zadania na zaliczenie przedmiotu Przetwarzanie równoległe Zebrał dla roku.ak. 2015/2016 Rafał Walkowiak,
Zadania na zaliczenie przedmiotu Przetwarzanie równoległe Zebrał dla roku.ak. 2015/2016 Rafał Walkowiak, 30.01.2016 Zagadnienia sprzętowe w przetwarzaniu równoległym 1.1 Procesory systemu równoległego
Architektury komputerów Architektury i wydajność. Tomasz Dziubich
Architektury komputerów Architektury i wydajność Tomasz Dziubich Przetwarzanie potokowe Przetwarzanie sekwencyjne Przetwarzanie potokowe Architektura superpotokowa W przetwarzaniu potokowym podczas niektórych
Wysokowydajna implementacja kodów nadmiarowych typu "erasure codes" z wykorzystaniem architektur wielordzeniowych
Wysokowydajna implementacja kodów nadmiarowych typu "erasure codes" z wykorzystaniem architektur wielordzeniowych Ł. Kuczyński, M. Woźniak, R. Wyrzykowski Instytut Informatyki Teoretycznej i Stosowanej
Dodatek A. CUDA. 1 Stosowany jest w tym kontekście skrót GPCPU (od ang. general-purpose computing on graphics processing units).
Dodatek A. CUDA Trzy ostatnie rozdziały książki poświęcone są zagadnieniom związanym z programowaniem równoległym. Skłoniła nas do tego wszechobecność maszyn wieloprocesorowych. Nawet niektóre notebooki
Ograniczenia efektywności systemu pamięci
Ograniczenia efektywności systemu pamięci Parametry pamięci : opóźnienie (ang. latency) - czas odpowiedzi pamięci na żądanie danych przez procesor przepustowość systemu pamięci (ang. bandwidth) - ilość
Podstawy Informatyki Systemy sterowane przepływem argumentów
Podstawy Informatyki alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu 1 Komputer i jego architektura Taksonomia Flynna 2 Komputer i jego architektura Taksonomia Flynna Komputer Komputer
CUDA ćwiczenia praktyczne
CUDA ćwiczenia praktyczne 7 kwietnia 2011, Poznań Marek Błażewicz, marqs@man.poznan.pl Michał Kierzynka, michal.kierzynka@man.poznan.pl Agenda Wprowadzenie do narzędzi umożliwiających tworzenie programów
16. Taksonomia Flynn'a.
16. Taksonomia Flynn'a. Taksonomia systemów komputerowych według Flynna jest klasyfikacją architektur komputerowych, zaproponowaną w latach sześćdziesiątych XX wieku przez Michaela Flynna, opierająca się
Procesy i wątki. Krzysztof Banaś Obliczenia równoległe 1
Procesy i wątki Krzysztof Banaś Obliczenia równoległe 1 Procesy i wątki Proces: ciąg rozkazów (wątek główny) i ewentualnie inne wątki stos (wątku głównego) przestrzeń adresowa dodatkowe elementy tworzące
Ograniczenia efektywności systemu pamięci
Ograniczenia efektywności systemu pamięci Parametry pamięci : opóźnienie (ang. latency) - czas odpowiedzi pamięci na żądanie danych przez procesor przepustowość systemu pamięci (ang. bandwidth) - ilość
Budowa komputera Komputer computer computare
11. Budowa komputera Komputer (z ang. computer od łac. computare obliczać) urządzenie elektroniczne służące do przetwarzania wszelkich informacji, które da się zapisać w formie ciągu cyfr albo sygnału
4. Procesy pojęcia podstawowe
4. Procesy pojęcia podstawowe 4.1 Czym jest proces? Proces jest czymś innym niż program. Program jest zapisem algorytmu wraz ze strukturami danych na których algorytm ten operuje. Algorytm zapisany bywa
Programowanie Rozproszone i Równoległe
Programowanie Rozproszone i Równoległe OpenMP (www.openmp.org) API do pisania wielowątkowych aplikacji Zestaw dyrektyw kompilatora oraz procedur bibliotecznych dla programistów Ułatwia pisanie programów
Jacek Matulewski - Fizyk zajmujący się na co dzień optyką kwantową i układami nieuporządkowanymi na Wydziale Fizyki, Astronomii i Informatyki
Michał Matuszak, Jacek Matulewski CUDA i czyny Technologia NVIDIA CUDA W zeszłomiesięcznym numerze SDJ w artykule pt. Czyń cuda opisaliśmy
Podstawy Informatyki DMA - Układ bezpośredniego dostępu do pamięci
Układ Podstawy Informatyki - Układ bezpośredniego dostępu do pamięci alina.momot@polsl.pl http://zti.polsl.pl/amomot/pi Plan wykładu Układ 1 Układ Wymiana informacji Idea Zasady pracy maszyny W Architektura
Dr inż. Grażyna KRUPIŃSKA. D-10 pokój 227 WYKŁAD 7 WSTĘP DO INFORMATYKI
Dr inż. Grażyna KRUPIŃSKA Grazyna.Krupinska@fis.agh.edu.pl D-10 pokój 227 WYKŁAD 7 WSTĘP DO INFORMATYKI Wyrażenia 2 Wyrażenia w języku C są bardziej elastyczne niż wyrażenia w jakimkolwiek innym języku
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu
CUDA Median Filter filtr medianowy wykorzystujący bibliotekę CUDA sprawozdanie z projektu inż. Daniel Solarz Wydział Fizyki i Informatyki Stosowanej AGH 1. Cel projektu. Celem projektu było napisanie wtyczki
Architektura mikroprocesorów TEO 2009/2010
Architektura mikroprocesorów TEO 2009/2010 Plan wykładów Wykład 1: - Wstęp. Klasyfikacje mikroprocesorów Wykład 2: - Mikrokontrolery 8-bit: AVR, PIC Wykład 3: - Mikrokontrolery 8-bit: 8051, ST7 Wykład
Programowanie z wykorzystaniem technologii CUDA i OpenCL Wykład 1
Programowanie z wykorzystaniem technologii CUDA i OpenCL Wykład 1 Organizacja przedmiotu Dr inż. Robert Banasiak Dr inż. Paweł Kapusta 1 2 Nasze kompetencje R n D Tomografia 3D To nie tylko statyczny obraz!
Nowoczesne technologie przetwarzania informacji
Projekt Nowe metody nauczania w matematyce Nr POKL.09.04.00-14-133/11 Nowoczesne technologie przetwarzania informacji Mgr Maciej Cytowski (ICM UW) Lekcja 2: Podstawowe mechanizmy programowania równoległego
Logiczny model komputera i działanie procesora. Część 1.
Logiczny model komputera i działanie procesora. Część 1. Klasyczny komputer o architekturze podanej przez von Neumana składa się z trzech podstawowych bloków: procesora pamięci operacyjnej urządzeń wejścia/wyjścia.
Literatura. 3/26/2018 Przetwarzanie równoległe - wstęp 1
Literatura 1. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010, 2013 2. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 3. Designing
Projektowanie. Projektowanie mikroprocesorów
WYKŁAD Projektowanie mikroprocesorów Projektowanie układ adów w cyfrowych - podsumowanie Algebra Boole a Bramki logiczne i przerzutniki Automat skończony System binarny i reprezentacja danych Synteza logiczna
4. Procesy pojęcia podstawowe
4. Procesy pojęcia podstawowe 4.1 Czym jest proces? Proces jest czymś innym niż program. Program jest zapisem algorytmu wraz ze strukturami danych na których algorytm ten operuje. Algorytm zapisany bywa
Literatura. 11/16/2016 Przetwarzanie równoległe - wstęp 1
Literatura 1. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010, 2013 2. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 3. Designing
Architektura komputerów
Architektura komputerów Wykład 12 Jan Kazimirski 1 Magistrale systemowe 2 Magistrale Magistrala medium łączące dwa lub więcej urządzeń Sygnał przesyłany magistralą może być odbierany przez wiele urządzeń
Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1 Metodologia programowania równoległego Przykłady podziałów zadania na podzadania: Podział ze względu na funkcje (functional
Procesor ma architekturę rejestrową L/S. Wskaż rozkazy spoza listy tego procesora. bgt Rx, Ry, offset nand Rx, Ry, A add Rx, #1, Rz store Rx, [Rz]
Procesor ma architekturę akumulatorową. Wskaż rozkazy spoza listy tego procesora. bgt Rx, Ry, offset or Rx, Ry, A add Rx load A, [Rz] push Rx sub Rx, #3, A load Rx, [A] Procesor ma architekturę rejestrową
4 NVIDIA CUDA jako znakomita platforma do zrównoleglenia obliczeń
Spis treści Spis treści i 1 Wstęp 1 1.1 Wprowadzenie.......................... 1 1.2 Dostępne technologie, pozwalające zrównoleglić obliczenia na kartach graficznych....................... 1 1.2.1 Open
System obliczeniowy laboratorium oraz. mnożenia macierzy
System obliczeniowy laboratorium.7. oraz przykładowe wyniki efektywności mnożenia macierzy opracował: Rafał Walkowiak Materiały dla studentów informatyki studia niestacjonarne październik 1 SYSTEMY DLA
Magistrala. Magistrala (ang. Bus) służy do przekazywania danych, adresów czy instrukcji sterujących w różne miejsca systemu komputerowego.
Plan wykładu Pojęcie magistrali i jej struktura Architektura pamięciowo-centryczna Architektura szynowa Architektury wieloszynowe Współczesne architektury z połączeniami punkt-punkt Magistrala Magistrala
Zarządzanie pamięcią w systemie operacyjnym
Zarządzanie pamięcią w systemie operacyjnym Cele: przydział zasobów pamięciowych wykonywanym programom, zapewnienie bezpieczeństwa wykonywanych procesów (ochrona pamięci), efektywne wykorzystanie dostępnej
Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system.
Wstęp Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system. Przedstawienie architektur sprzętu wykorzystywanych do
5. Model komunikujących się procesów, komunikaty
Jędrzej Ułasiewicz str. 1 5. Model komunikujących się procesów, komunikaty Obecnie stosuje się następujące modele przetwarzania: Model procesów i komunikatów Model procesów komunikujących się poprzez pamięć
Wskaźniki. Programowanie Proceduralne 1
Wskaźniki Programowanie Proceduralne 1 Adresy zmiennych Sterta 1 #include 2 3 int a = 2 ; 4 5 int main ( ) 6 { 7 int b = 3 ; 8 9 printf ( " adres zmiennej a %p\n", &a ) ; 10 printf ( " adres
Programowanie procesorów graficznych GPGPU
Programowanie procesorów graficznych GPGPU 1 OpenCL projektowanie kerneli Przypomnienie: kernel program realizowany przez urządzenie OpenCL wątek (work item) rdzeń (processing element): jeden wątek wykonywany
Przetwarzanie Równoległe i Rozproszone
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI I TECHNOLOGII INFORMACYJNYCH Przetwarzanie Równoległe i Rozproszone www.pk.edu.pl/~zk/prir_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl
Programowanie kart graficznych. Sprzęt i obliczenia
Programowanie kart graficznych Sprzęt i obliczenia CUDA Szczegóły implementacji sprzętowej Architektura SIMT: podstawą konstrukcji urządzeń CUDA jest skalowalna macierz wielowątkowych multiprocesorów strumieniowych
Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych Krzysztof Banaś Obliczenia równoległe 1 Tworzenie programów równoległych W procesie tworzenia programów równoległych istnieją dwa kroki o zasadniczym znaczeniu: wykrycie
Architektura komputerów
Architektura komputerów Wykład 7 Jan Kazimirski 1 Pamięć podręczna 2 Pamięć komputera - charakterystyka Położenie Procesor rejestry, pamięć podręczna Pamięć wewnętrzna pamięć podręczna, główna Pamięć zewnętrzna
Przykładem jest komputer z procesorem 4 rdzeniowym dostępny w laboratorium W skład projektu wchodzi:
Przetwarzanie równoległe PROJEKT OMP Temat projektu dotyczy analizy efektywności przetwarzania równoległego realizowanego w komputerze równoległym z procesorem wielordzeniowym z pamięcią współdzieloną.
Architektura potokowa RISC
Architektura potokowa RISC Podział zadania na odrębne części i niezależny sprzęt szeregowe Brak nawrotów" podczas pracy potokowe Przetwarzanie szeregowe i potokowe Podział instrukcji na fazy wykonania
Kompilator języka C na procesor 8051 RC51 implementacja
Kompilator języka C na procesor 8051 RC51 implementacja Implementowane typy danych bit 1 bit char lub char signed 8 bitów char unsigned 8 bitów int lub signed int 16 bitów unsigned int 16 bitów long lub
Stronicowanie w systemie pamięci wirtualnej
Pamięć wirtualna Stronicowanie w systemie pamięci wirtualnej Stronicowanie z wymianą stron pomiędzy pamięcią pierwszego i drugiego rzędu. Zalety w porównaniu z prostym stronicowaniem: rozszerzenie przestrzeni
Podstawy programowania. Wykład Funkcje. Krzysztof Banaś Podstawy programowania 1
Podstawy programowania. Wykład Funkcje Krzysztof Banaś Podstawy programowania 1 Programowanie proceduralne Pojęcie procedury (funkcji) programowanie proceduralne realizacja określonego zadania specyfikacja
Systemy wbudowane. Uproszczone metody kosyntezy. Wykład 11: Metody kosyntezy systemów wbudowanych
Systemy wbudowane Wykład 11: Metody kosyntezy systemów wbudowanych Uproszczone metody kosyntezy Założenia: Jeden procesor o znanych parametrach Znane parametry akceleratora sprzętowego Vulcan Początkowo
Moc płynąca z kart graficznych
Moc płynąca z kart graficznych Cuda za darmo! Czyli programowanie generalnego przeznaczenia na kartach graficznych (GPGPU) 22 października 2013 Paweł Napieracz /20 Poruszane aspekty Przetwarzanie równoległe
Projektowanie algorytmów równoległych. Zbigniew Koza Wrocław 2012
Projektowanie algorytmów równoległych Zbigniew Koza Wrocław 2012 Spis reści Zadniowo-kanałowy (task-channel) model algorytmów równoległych Projektowanie algorytmów równoległych metodą PACM Task-channel
Budowa i zasada działania komputera. dr Artur Bartoszewski
Budowa i zasada działania komputera 1 dr Artur Bartoszewski Jednostka arytmetyczno-logiczna 2 Pojęcie systemu mikroprocesorowego Układ cyfrowy: Układy cyfrowe służą do przetwarzania informacji. Do układu
Programowanie kart graficznych. Architektura i API część 2
Programowanie kart graficznych Architektura i API część 2 CUDA hierarchia pamięci c.d. Globalna pamięć urządzenia: funkcje CUDA API takie jak cudamalloc() i cudafree() z założenia służą do manipulowania
Programowanie w języku C++
Programowanie w języku C++ Część siódma Autor Roman Simiński Kontakt roman.siminski@us.edu.pl www.us.edu.pl/~siminski Niniejsze opracowanie zawiera skrót treści wykładu, lektura tych materiałów nie zastąpi
10/14/2013 Przetwarzanie równoległe - wstęp 1. Zakres przedmiotu
Literatura 1. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 2. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010. 3. Designing
CUDA część 1. platforma GPGPU w obliczeniach naukowych. Maciej Matyka
CUDA część 1 platforma GPGPU w obliczeniach naukowych Maciej Matyka Bariery sprzętowe (procesory) ok na. 1 10 00 la raz t y Gdzie jesteśmy? a ok. 2 razy n 10 lat (ZK) Rozwój 1985-2004 i dalej? O roku ów
Wydajność systemów a organizacja pamięci, czyli dlaczego jednak nie jest aż tak źle. Krzysztof Banaś, Obliczenia wysokiej wydajności.
Wydajność systemów a organizacja pamięci, czyli dlaczego jednak nie jest aż tak źle Krzysztof Banaś, Obliczenia wysokiej wydajności. 1 Organizacja pamięci Organizacja pamięci współczesnych systemów komputerowych
Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych Krzysztof Banaś Obliczenia równoległe 1 Tworzenie programów równoległych W procesie tworzenia programów równoległych istnieją dwa kroki o zasadniczym znaczeniu: wykrycie
4. Procesy pojęcia podstawowe
4. Procesy pojęcia podstawowe 4.1 Czym jest proces? Proces jest czymś innym niż program. Program jest zapisem algorytmu wraz ze strukturami danych na których algorytm ten operuje. Algorytm zapisany bywa
MOŻLIWOŚCI PROGRAMOWE MIKROPROCESORÓW
MOŻLIWOŚCI PROGRAMOWE MIKROPROCESORÓW Projektowanie urządzeń cyfrowych przy użyciu układów TTL polegało na opracowaniu algorytmu i odpowiednim doborze i zestawieniu układów realizujących różnorodne funkcje
Programowanie w modelu równoległości danych oraz dzielonej globalnej pamięci wspólnej. Krzysztof Banaś Obliczenia równoległe 1
Programowanie w modelu równoległości danych oraz dzielonej globalnej pamięci wspólnej Krzysztof Banaś Obliczenia równoległe 1 Model równoległości danych Model SPMD (pierwotnie dla maszyn SIMD) Zrównoleglenie
Procesory wielordzeniowe (multiprocessor on a chip) Krzysztof Banaś, Obliczenia wysokiej wydajności.
Procesory wielordzeniowe (multiprocessor on a chip) 1 Procesory wielordzeniowe 2 Procesory wielordzeniowe 3 Intel Nehalem 4 5 NVIDIA Tesla 6 ATI FireStream 7 NVIDIA Fermi 8 Sprzętowa wielowątkowość 9 Architektury
PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK
1 PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK POLITECHNIKA CZĘSTOCHOWSKA 2 Trendy rozwoju współczesnych procesorów Budowa procesora CPU na przykładzie Intel Kaby Lake
Programowanie współbieżne Wykład 7. Iwona Kochaoska
Programowanie współbieżne Wykład 7 Iwona Kochaoska Poprawnośd programów współbieżnych Właściwości związane z poprawnością programu współbieżnego: Właściwośd żywotności - program współbieżny jest żywotny,
Zaawansowane programowanie w C++ (PCP)
Wykład 10 - boost Thread. 8 czerwca 2007 Równoległość bardzo wolna reakcja człowieka wolne urządzenia wejścia - wyjścia (np. drukarki) bardzo szybkie procesory można przeprowadzać obliczenia podczas obsługi
Czyń CUDA (część 1) Powinieneś wiedzieć: Od czytelnika wymagana jest znajomość C++ oraz podstawowych zasad programowania równoległego.
Warsztaty Czyń CUDA (część 1) Architektura GPGPU to skrót, który na ustach informatyków pojawia się coraz częściej. Oznacza general-purpose computing on graphics processing units, czyli możliwość przeprowadzania
Lab 9 Podstawy Programowania
Lab 9 Podstawy Programowania (Kaja.Gutowska@cs.put.poznan.pl) Wszystkie kody/fragmenty kodów dostępne w osobnym pliku.txt. Materiały pomocnicze: Wskaźnik to specjalny rodzaj zmiennej, w której zapisany