Programowanie maszyn z pamięcią wspólną w standardzie OpenMP ciąg dalszy.
|
|
- Dariusz Andrzejewski
- 7 lat temu
- Przeglądów:
Transkrypt
1 Programowanie maszyn z pamięcią wspólną w standardzie OpenMP ciąg dalszy. 1
2 Dyrektywa atomic Często sekcja krytyczna polega na uaktualnieniu jednej lokacji w pamięci. OpenMP dostarcza dyrektywę atomic dla tego typu sekcji krytycznych. Po dyrektywie atomic może wystąpić pojedyncza instrukcja uaktualniająca zmienną postaci: x op=expr, gdzie expr jest wyrażeniem, a op jest jednym z binarnych operatorów (dopuszczalne są również wyrażenia typu x++ albo --x). Dyrektywa atomic serializuje odczyt i zapis zmiennej x w jednej sekcji krytycznej. Obliczanie wyrażenia expr nie jest serializowane!!! Każda dyrektywa atomic może być zastąpiona dyrektywą critical. Jednakże większość maszyn posiada wsparcie sprzętowe (specjalne instrukcje), sprawiające że dyrektywa atomic może być o wiele wydajniej zaimplementowana niż critical. 2
3 Dyrektywa barrier Jest najprostszą dyrektywą synchronizacyjną. Ma postać: #pragma omp barrier Po napotkaniu tej dyrektywy wątek zostaje wstrzymany do momentu, gdy wszystkie inne wątki napotkają tę dyrektywę. Dyrektywa barrier jest wykonywana automatycznie po zakończeniu dyrektywy for, chyba że w dyrektywie for umieszczono klauzulę nowait. Oznacza to że po zakończeniu zrównoleglonej pętli for wątek czeka aż pozostałe wątki zakończą pętlę for. 3
4 Dyrektywa barrier - wizualizacja region bariery czas Kolorem białym oznaczono oczekiwanie wątku. Wątek zostaje wypuszczony z punktu bariery dopiero wtedy, gdy wszystkie inne wątki osiągnęły ten punkt. Należy pamiętać, że implementacja dyrektywy barrier ma złożoność czasową O(log(p)), gdzie p jest liczbą procesorów. Nadużycie dyrektywy barrier zmniejsza skalowalność. 4
5 Przykład poprawnego użycia dyrektywy nowait w klauzuli for pragma omp parallel shared(a,b,n,m,y,z) { #pragma omp for nowait for (i=1; i<n; i++) b[i] = (a[i] - a[i-1]) / 2.0; #pragma omp for nowait for (i=0; i<m; i++) y[i] = sqrt(z[i]); Obydwie pętle for są niezależne od siebie Wątek może więc przystąpić do wykonywania swojej puli iteracji w drugiej pętli for bez czekania na inne wątki. Klauzula nowait w drugiej pętli for, to trywialna optymalizacja (zapewne i tak automatycznie wykona ją kompilator) w celu uniknięcia podwójnej operacji bariery. Na zakończenie pętli for i na zakończenie regionu równoległego. Uwaga: operacje bariery są bardzo kosztowne i poprawne użycie dyrektywy nowait może doprowadzić do znacznego zwiększenia wydajności. 5
6 Przykład użycia dyrektywy nowait w klauzuli for z subtelnym błędem. pragma omp parallel { #pragma omp for nowait for (i=0; i<n; i++) a[i]=i #pragma omp for for (i=0; i<n; i++) b[i]=2*a[i]; Można argumentować, że, wprawdzie istnieje zależność między pętlami, ale ten sam wątek który stworzył a[i] będzie tym samym który wykorzysta a[i] (Zakres iteracji obydwu pętli for jest identyczny). Ale nie pokazaliśmy kompilatorowi jak rozdzielić iteracje pomiędzy wątki (brak klauzli schedule). Nawet z klauzulą schedule można to zrobić na kilka sposobów. W związku z tym iteracje mogą być rozdzielone w dwóch pętlach w różny sposób standard OpenMP 2.5 nie gwarantuje identycznego podziału. W związku z tym druga pętla for może odczytać wartości z tablicy a, które nie zostały zapisane przez pierwszą pętlę for sytuacja wyścigu. W standardzie OpenMP 3.0 to ma się zmienić. 6
7 Dyrektywa ta ma postać: #pragma omp single [klauzule] blok_instrukcji Dyrektywy single i master Po napotkaniu dyrektywy single tylko jeden wątek wykona blok instrukcji. Pozostałe wątki przeskakują na koniec bloku. Pozostałe wątki czekają na wątek wykonujący blok instrukcji (operacja bariery), chyba że została podana klauzula nowait. Dyrektywa single nie określa, który wątek wykona blok instrukcji. Będzie to wątek dowolny. Podobną do dyrektywy single jest dyrektywa: #pragma omp master [klauzule] blok_instrukcji Sprawia ona że blok instrukcji zostanie wykonany przez wątek nadrzędny (master) - o numerze 0. Z dyrektywą master należy uważać, gdyż nie ma wbudowanej synchronizacji barierowej. 7
8 Przykład błednego użycia konstruktu master #pragma omp parallel shared (a,b) private(i) { #pragma omp master a=10 #pragma omp for for (i=0; i<n; i++) b[i]=a; Chcemy aby zmienna a była inicjalizowana tylko raz. Ponieważ konstrukt master nie ma wbudowanej synchronizacji, to wątki wykonujące pętle for mogą rozpocząć wykorzystywanie zmiennej a w pętli zanim zostanie ona zainicjalizowana przez wątek główny. Sytuacja wyścigu. Należy wtawić #pragma omp barrier albo zmienić master na single. 8
9 Dyrektywa single - wizualizacja blok single czas blok single Kolorem białym oznaczono oczekiwanie wątku. Przykłady zastosowania: Obliczanie danych globalnych Wejście-wyjście z bloku równoległego. 9
10 Funkcje operujące na zamkach void omp_init_lock(omp_lock_t *lock); void omp_destroy_lock(omp_lock_t *lock); void omp_set_lock(omp_lock_t *lock); void omp_unset_lock(omp_lock_t *lock); int omp_test_lock(omp_lock_t *lock); Zamek realizuje wzajemne wykluczanie wątków. Przed użyciem należy go zainicjalizować poprzez omp_init_lock, a gdy staje się zbędny usunąć funkcją omp_destroy_lock. Funkcja omp_set_lock wchodzi, a omp_unset_lock wychodzi z sekcji krytycznej. Tylko jeden wątek może przebywać w sekcji krytycznej; pozostałe czekają w funkcji omp_set_lock na wejście. Funkcja omp_test_lock usiłuje wejść do sekcji krytycznej, i jeżeli w danej chwili nie jest to możliwe natychmiast powraca z wynikiem zero. Gdy udało się wejść do sekcji krytycznej natychmiast powraca z wynikiem różnym od zera. Wersje funkcji z końcówką _nest_lock umożliwiającą wielokrotne (rekurencyjne) wchodzenie do sekcji krytycznej przez ten sam wątek. Liczba wywołań funkcji set musi być równa liczbie wywołań funkcji unset. 10
11 Przykład: całkowanie metodą prostokątów f(x) h h= b a N x i =a h 2 i h a x 0 x 1 x 2 b b a N 1 f x h i=0 f x i Całka oznaczona przybliżana przy pomocy sumy ` pól powierzchni N (w przykładzie N=3) prostokątów. Obliczenia można obsłużyć jedną pętlą for. 11
12 Całkowanie: wersja niewydajna double Sum(int N,double a,double b) { int i; double sum=0.0; double h=(b-a)/(double)n; #pragma omp parallel for default(none) firstprivate(n,h,a) shared(sum) for(i=0;i<n;i++) { double func=f(a+i*h+h/2); #pragma omp critical sum+=func; return sum*h Ciekawostka: program skompiluje się do wersji jednowątkowej na kompilatorze nie obsługującym OpenMP sum jest zmienną współdzieloną w której gromadzona jest suma pól prostokątów. skoro dostęp do niej ma wiele wątków, które jednocześnie ją zwiększają, to musimy ją chronić sekcją krytyczną. Zastosowanie sekcji krytycznej obniża znacznie wydajność, ponieważ wątek będący w sekcji krytycznej i aktualizujący tę zmienną wstrzymuje pozostałe wątki chcące zrobić to samo. 12
13 Całkowanie: jak poprawić wydajność Idealnie byłoby gdyby każdy wątek posiadał prywatną kopię zmiennej sum, w której byłaby gromadzona suma pól prostokątów rozpatrywanych w iteracjach przydzielonych temu wątkowi. Te lokalne sumy mogłyby być zsumowane po wyjściu z pętli for. Takie rozwiązanie nie potrzebowałoby synchronizacji w każdej iteracji. Tak więc sum musi być zmienną prywatną. Pytanie: w jaki sposób zsumować prywatne zmienne? Odpowiedź: za pomocą kluzuli reduction(+:sum). Określa ona że: każdy wątek w teamie ma prywatną kopię zmiennej sum inicjalizowaną wartością zmiennej sprzed regionu równoległego. przy wyjściu z regionu przez wątek obliczana jest suma (znak +, możliwe są też inne operatory) prywatnych kopii i zapamiętywana w zmiennej sum wątku głównego (master). 13
14 Całkowanie: wersja z klauzulą reduction double Sum(int N,double a,double b) { int Trials=N/size,i; double sum=0.0; double h=(b-a)/(double)n; #pragma omp parallel for default(none)firstprivate(n,h,a)reduction(+:sum) for(i=0;i<n;i++) { sum+=f(a+i*h+h/2); return sum*h; Ciekawostka: program skompiluje się do wersji jednowątkowej na kompilatorze nie obsługującym OpenMP Brak sekcji krytycznej sprawia, że wątki w pętli wykonują się z maksymalną szybkością, a synchronizacja nastąpi dopiero gdy zakończą swoje iteracje (podczas dodawania prywatnych kopii zmiennej sum). 14
15 Dyrektywa flush Kiedy zmiana zmiennej współdzielonej jest widoczna dla pozostałych wątków? Gdyby zmiana takiej zmiennej była widoczna natychmiast, to kompilator nie mógłby generować kodu przechowującego zmienne w rejestrach procesora. W przypadku zmiennych volatile (ulotnych) każda modyfikacja zmiennej wiąże się z zapisem do pamięci a odczyt z odczytem z pamięci. Standard OpenMP stwierdza, że wszelkie modyfikacje są zapisane do pamięci, a przez to widoczne innym wątkom w punktach synchronizacji. To samo dotyczy odczytów z pamięci. Niejawne punkty synchronizacji to Jawna i niejawna synchronizacja barrierowa Wejście i wyjście z regionu krytycznego Wejście i wyjście z funkcji operującej na zamkach Jawnie punkt synchronizacji możemy wstawić przy pomocy dyrektywy #pragma omp flush(lista_zmiennych) 15
16 Zapis zmiennej do pamięci a=... Zapis może nastąpić już w tym punkcie <inne obliczenia> Albo w tym #pragma omp flush(a) Ale na pewno nie po dyrektywie flush 16
17 Dyrektywa flush - przykład int data,flag #pragma omp parallel sections shared(data,flag) num_threads(2) { #pragma omp section { read(&data); #pragma omp flush(data) flag = 1; #pragma omp flush(flag) // Do more work. #pragma omp section { while (!flag) { #pragma omp flush(flag) #pragma omp flush(data) process(&data); 17
18 Wydajność - minimalizuj sekcje krytyczne #pragma omp parallel shared(a,b) private(c,d) { // tu jakiś kod #pragma omp critical { a+=2*c; b=d*d; // tu dalszy kod Operacja zapisu do zmiennej współdzielonej zmiennej a musi być wewnątrz sekcji krytycznej (niebezpieczeństwo wyścigu). Jednakże przypisanie wartości zmiennej prywatnej d możemy bezpiecznie przenieść poza sekcję krytyczną. Wtedy możemy zastąpić sekcję krytyczną dyrektywą atomic. #pragma omp parallel shared(a,b) private(c,d) { // tu jakiś kod #pragma omp critical a+=2*c; c=d*d; // tu dalszy kod 18
19 Wydajność - maksymalizuj regiony równoległe #pragma omp parallel shared(a,b) private(c,d) for(i=0;i<n;i++) for(j=0;j<n;j++) #pragma omp parallel for for(k=0;k<n;k++) {... Koszt wejścia do i wyjścia z regionu równoległego ponoszony n 2 razy. #pragma omp parallel private(i,j) for(i=0;i<n;i++) for(j=0;j<n;j++) #pragma omp for for(k=0;k<n;k++) {... Koszt wejścia do i wyjścia z regionu równoległego ponoszony 1 raz. Zresztą należy rozważyć czy nie możemy zrównoleglić którejś z zewnętrznych pętli for. 19
20 Wydajność unikaj współdzielenia (w tym fałszywego) połączonego z zapisem. Przypomnienie z drugiego wykładu: gdy wiele wątków wykonuje zapisy do współdzielonego wiersza pamięci cache następuje znaczne spowolnienie systemu (konieczność uruchomienia protokołu spójności). Niech nt jest liczbą wątków (przykład celowo źle skonstruowany) #pragma omp parallel for shared(nt,a) schedule(static,1) for(int i=0;i<nt;i++) a[i]+=i; Statyczny rozdział puli iteracji algorytmem round-robin po jednej między wątki: wątek zerowy aktualizuje a[0], pierwszy a[1], drugi a[2], etc... Z punktu widzenia języka programowania wątki nie współdzielą elementów a. Ale a[0],a[1],a[2] mają duże szanse na rezydowanie w jednym wierszu pamięci. Z punktu widzenia hardware'u może być to współdzielenie. 20
21 Wydajność - uwaga na funkcje biblioteczne!!! Pewien student (obecny na wszystkich wykładach z obliczeń równoległych!!!) zaobserował spowolnienie zamiast przyspieszenia w następującym kodzie: #pragma omp parallel {... x=rand();... ; Co robi funkcja rand. Zwraca nową liczbę losową na podstawie zmiennej globalnej będącej stanem generatora liczb losowych i aktualizuje stan przechowywany w tej zmiennej. Mamy doczynienie ze współdzieleniem spowalniającym program a ponadto z wyścigiem (dlaczego z wyścigiem). Wyjście: zastosować funkcję która pozwala na jawne przekazanie wskaźnika na stan generatora; jedna instancja stanu generatora na jeden wątek. Ponadto każdy wątek powinien używać innego ziarna (dlaczego???). Co się dzieje gdy wołamy malloc/free/new/delete z wielu wątków? Na szczęście funkcje te wykonywane są w sekcjach krytycznych (są bezpieczne ze względu na wielowątkowść ang. thread safe). Na nieszczęście sekcje krytyczne serializują kod. Jeżeli wątki dużo czasu spędzają wewnętrz malloc/free to... 21
22 Wydajność - dbaj o zrównoważenie obciążenia void CalcImage(int Width,int Height) { #pragma omp parallel for schedule(runtime) for(int i=0;i<height;i++) CalcImgRow(Image[i],i,Width,Height); Omawiany już, przy okazji biblioteki MPI, przykład ze zbiorem Mandlebrota. Czas wykonania funkcji CalcImgRow silnie zależy od numeru wiersza i. Klauzula schedule(runtime) nakazuje podział iteracji pętli for w zależności od wartości zmiennej środowiskowej OMP_SCHEDULE. Zmienna ta przyjęła 3 wartości: static dynamic,1 guided,1 Obliczenia na klastrze Mordor2: dwa procesory czterordzeniowe; razem 8. 22
23 Przyspieszenie static dynamic,1 guided, liczba procesorów (rdzeni) Wersje (dynamic,guided) z dynamicznym równownoważeniem obciążenia spisują się o wiele lepiej. Uwaga: guided, dynamic nie zawsze lepsze niż static (dlaczego?) Widoczny wpływ prawa Amdahla - część sekwencyjna m.in zapis wynikowego obrazu do pliku 23
24 Poprawność - eliminuj wyścigi (ang. race) double a[n],b[n];... #pragma omp parallel for for(int i=0;i<n-1;i++) a[i]=a[i]+b[i] Ta pętla jest poprawnie zrównoleglona. Kolejna pętla zawiera zależność pomiędzy iteracjami (ang. loop carried dependence) #pragma omp parallel for for(int i=0;i<n-1;i++) a[i]=a[i+1]+b[i] Ta pętla jest zrównoleglona błędnie. Otóż różne wątki usiłują wykonać współbieżnie różne iteracje pętli jeżeli iteracja i+1 zostanie wykonana przed iteracją i, a[i+1] zostanie wyliczone wcześniej. A zatem do obliczenia a[i] użyjemy nowej" (a nie starej" jak w wersji sekwencyjnej) wartości a[i+1]. W przypadku wyścigu błędny wynik może, ale nie musi wystąpić; jest to niedeterministyczne. Fakt wystąpienia błędu może być uwarunkowany: (a) liczbą wątków (b) obciążeniem systemu (c) danymi wejściowymi 24
25 Eliminacja zależności między pętlami double c[n]; #pragma omp parallel for for(int i=0;i<n;i++) c[i]=a[i] #pragma omp parallel for for(int i=0;i<n-1;i++) a[i]=c[i+1]+b[i] Kod po przetransformowaniu do powyższej wersji został poprawnie zrównoleglony. 25
26 Inne pułapki Uwaga na domyślne typy zmiennych (zmienna staje się współdzielona, a myślimy że jest prywatna) - użycie default(none). Zmienne prywatne są niezainicjalizowane, a ich wynik po wyjściu z pętli jest nieokreślony - użycie lastprivate/firstprivate. Funkcje biblioteczne muszą być bezpieczne ze względu na wielowątkowość (ang. thread safe) - przykład z funkcją rand. Większość dyrektyw np. #pragma omp for, #pragma omp barrier musi być wykonana przez wszystkie wątki. Poniższy kod jest błędny: #pragma omp parallel if (omp_get_thread_num()>0) { #pragma omp parallel for for(int i=0;i<n;i++)... 26
27 Podsumowanie OpenMP jest standardem programowania systemów z pamięcią wspólną. Określa standard programowania wielowątkowego i jest API wyższego poziomu niż POSIX threads. Opiera się na dyrektywach #pragma i wymaga wsparcia kompilatora. Jest rozpowszechniony w przemyśle software'owym (standard przemysłowy) i dlatego warto go poznać. Wraz z rozpowszechnianiem się procesorów wielordzeniowych jego znaczenie będzie rosnąć. 27
Programowanie maszyn z pamięcią wspólną w standardzie OpenMP.
Programowanie maszyn z pamięcią wspólną w standardzie OpenMP. 1 OpenMP Standard rozwinięty i zdefiniowany w latach 90 przez grupę specjalistów z przemysłu. Strona www: www.openmp.org Składa się ze zbioru
Przetwarzanie Równoległe i Rozproszone
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI I TECHNOLOGII INFORMACYJNYCH Przetwarzanie Równoległe i Rozproszone www.pk.edu.pl/~zk/prir_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl
Programowanie systemów z pamięcią wspólną specyfikacja OpenMP. Krzysztof Banaś Obliczenia równoległe 1
Programowanie systemów z pamięcią wspólną specyfikacja OpenMP Krzysztof Banaś Obliczenia równoległe 1 OpenMP Przenośność oprogramowania Model SPMD Szczegółowe wersje (bindings) dla różnych języków programowania
Programowanie maszyn z pamięcią wspólną w standardzie OpenMP.
Programowanie maszyn z pamięcią wspólną w standardzie OpenMP. 1 OpenMP Standard rozwinięty i zdefiniowany w latach 90 przez grupę specjalistów z przemysłu. Strona www: www.openmp.org Składa się ze zbioru
Open MP wer Rafał Walkowiak Instytut Informatyki Politechniki Poznańskiej Wiosna
Open MP wer. 2.5 Rafał Walkowiak Instytut Informatyki Politechniki Poznańskiej Wiosna 2019.0 OpenMP standard specyfikacji przetwarzania współbieżnego uniwersalny i przenośny model równoległości (typu rozgałęzienie
Elementy składowe: Przenośność oprogramowania Model SPMD Szczegółowe wersje (bindings) dla różnych języków programowania
OpenMP Elementy składowe: o o o dyrektywy dla kompilatorów funkcje biblioteczne zmienne środowiskowe Przenośność oprogramowania Model SPMD Szczegółowe wersje (bindings) dla różnych języków programowania
Równoległość i współbieżność
Równoległość i współbieżność Wykonanie sekwencyjne. Poszczególne akcje procesu są wykonywane jedna po drugiej. Dokładniej: kolejna akcja rozpoczyna się po całkowitym zakończeniu poprzedniej. Praca współbieżna
Równoległość i współbieżność
Równoległość i współbieżność Wykonanie sekwencyjne. Poszczególne akcje procesu są wykonywane jedna po drugiej. Dokładniej: kolejna akcja rozpoczyna się po całkowitym zakończeniu poprzedniej. Praca współbieżna
Wprowadzenie do OpenMP
Wprowadzenie do OpenMP OZUKO Kamil Dworak OZUKO Wprowadzenie do OpenMP Kamil Dworak 1 / 25 OpenMP (ang. Open Multi-Processing) opracowany w 1997 przez radę Architecture Review Board, obliczenia rówoległe
Programowanie współbieżne Wstęp do OpenMP. Rafał Skinderowicz
Programowanie współbieżne Wstęp do OpenMP Rafał Skinderowicz Czym jest OpenMP? OpenMP = Open Multi-Processing interfejs programowania aplikacji (API) dla pisania aplikacji równoległych na komputery wieloprocesorowe
OpenMP. Programowanie aplikacji równoległych i rozproszonych. Wykład 2. Model programowania. Standard OpenMP. Dr inż. Tomasz Olas
OpenMP Programowanie aplikacji równoległych i rozproszonych Wykład 2 Dr inż. Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska OpenMP (Open Multi-Processing)
Przygotowanie kilku wersji kodu zgodnie z wymogami wersji zadania,
Przetwarzanie równoległe PROJEKT OMP i CUDA Temat projektu dotyczy analizy efektywności przetwarzania równoległego realizowanego przy użyciu komputera równoległego z procesorem wielordzeniowym z pamięcią
Wprowadzenie do zrównoleglania aplikacji z wykorzystaniem standardu OpenMP
OpenMP p. 1/4 Wprowadzenie do zrównoleglania aplikacji z wykorzystaniem standardu OpenMP Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska OpenMP OpenMP
Przetwarzanie wielowątkowe przetwarzanie współbieżne. Krzysztof Banaś Obliczenia równoległe 1
Przetwarzanie wielowątkowe przetwarzanie współbieżne Krzysztof Banaś Obliczenia równoległe 1 Problemy współbieżności wyścig (race condition) synchronizacja realizowana sprzętowo (np. komputery macierzowe)
Open MP wer Rafał Walkowiak Instytut Informatyki Politechniki Poznańskiej Jesień 2014
Open MP wer. 2.5 Wykład PR część 3 Rafał Walkowiak Instytut Informatyki Politechniki Poznańskiej Jesień 2014 OpenMP standard specyfikacji przetwarzania współbieżnego uniwersalny (przenośny) model równoległości
Wsparcie dla OpenMP w kompilatorze GNU GCC Krzysztof Lamorski Katedra Informatyki, PWSZ Chełm
Wsparcie dla OpenMP w kompilatorze GNU GCC Krzysztof Lamorski Katedra Informatyki, PWSZ Chełm Streszczenie Tematem pracy jest standard OpenMP pozwalający na programowanie współbieŝne w systemach komputerowych
Programowanie współbieżne OpenMP wybrane wydajność. Rafał Skinderowicz
Programowanie współbieżne OpenMP wybrane wydajność Rafał Skinderowicz OpenMP niskopoziomowa synchronizacja OpenMP udostępnia mechanizm zamków (lock) znany z typowych bibliotek programowania współbieżnego
Programowanie współbieżne Wykład 7. Iwona Kochaoska
Programowanie współbieżne Wykład 7 Iwona Kochaoska Poprawnośd programów współbieżnych Właściwości związane z poprawnością programu współbieżnego: Właściwośd żywotności - program współbieżny jest żywotny,
Komputerowe Obliczenia Równoległe: Wstęp do OpenMP i MPI
Komputerowe Obliczenia Równoległe: Wstęp do OpenMP i MPI Patryk Mach Uniwersytet Jagielloński, Instytut Fizyki im. Mariana Smoluchowskiego Zadania w OpenMP technika zrównoleglania bardziej złożonch problemów,
Open MP. Rafał Walkowiak Instytut Informatyki Politechniki Poznańskie Jesień 2011
Open MP wersja 2.5 Rafał Walkowiak Instytut Informatyki Politechniki Poznańskie Jesień 2011 OpenMP standard specyfikacji przetwarzania współbieŝnego uniwersalny (przenośny) model równoległości typu fork-join
Komputerowe Obliczenia Równoległe: Wstęp do OpenMP i MPI
Komputerowe Obliczenia Równoległe: Wstęp do OpenMP i MPI Patryk Mach Uniwersytet Jagielloński, Instytut Fizyki im. Mariana Smoluchowskiego OpenMP (Open Multi Processing) zbiór dyrektyw kompilatora, funkcji
Procesy i wątki. Krzysztof Banaś Obliczenia równoległe 1
Procesy i wątki Krzysztof Banaś Obliczenia równoległe 1 Procesy i wątki Proces: ciąg rozkazów (wątek główny) i ewentualnie inne wątki stos (wątku głównego) przestrzeń adresowa dodatkowe elementy tworzące
Podstawy programowania. Wykład Funkcje. Krzysztof Banaś Podstawy programowania 1
Podstawy programowania. Wykład Funkcje Krzysztof Banaś Podstawy programowania 1 Programowanie proceduralne Pojęcie procedury (funkcji) programowanie proceduralne realizacja określonego zadania specyfikacja
Literatura. 11/16/2016 Przetwarzanie równoległe - wstęp 1
Literatura 1. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010, 2013 2. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 3. Designing
Języki C i C++ Wykład: 2. Wstęp Instrukcje sterujące. dr Artur Bartoszewski - Języki C i C++, sem. 1I- WYKŁAD
Języki C i C++ Wykład: 2 Wstęp Instrukcje sterujące 1 dr Artur Bartoszewski - Języki C i C++, sem. 1I- WYKŁAD programowania w C++ Instrukcje sterujące 2 Pętla for for ( instrukcja_ini ; wyrazenie_warunkowe
PRZETWARZANIE RÓWNOLEGŁE I ROZPROSZONE. Mnożenie macierzy kwadratowych metodą klasyczną oraz blokową z wykorzystaniem OpenMP.
P O L I T E C H N I K A S Z C Z E C I Ń S K A Wydział Informatyki PRZETWARZANIE RÓWNOLEGŁE I ROZPROSZONE. Mnożenie macierzy kwadratowych metodą klasyczną oraz blokową z wykorzystaniem OpenMP. Autor: Wojciech
Programowanie współbieżne Wykład 2. Iwona Kochańska
Programowanie współbieżne Wykład 2 Iwona Kochańska Miary skalowalności algorytmu równoległego Przyspieszenie Stały rozmiar danych N T(1) - czas obliczeń dla najlepszego algorytmu sekwencyjnego T(p) - czas
Programowanie Rozproszone i Równoległe
Programowanie Rozproszone i Równoległe OpenMP (www.openmp.org) API do pisania wielowątkowych aplikacji Zestaw dyrektyw kompilatora oraz procedur bibliotecznych dla programistów Ułatwia pisanie programów
Literatura. 3/26/2018 Przetwarzanie równoległe - wstęp 1
Literatura 1. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010, 2013 2. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 3. Designing
Wątek - definicja. Wykorzystanie kilku rdzeni procesora jednocześnie Zrównoleglenie obliczeń Jednoczesna obsługa ekranu i procesu obliczeniowego
Wątki Wątek - definicja Ciąg instrukcji (podprogram) który może być wykonywane współbieżnie (równolegle) z innymi programami, Wątki działają w ramach tego samego procesu Współdzielą dane (mogą operować
10/14/2013 Przetwarzanie równoległe - wstęp 1. Zakres przedmiotu
Literatura 1. Introduction to Parallel Computing; Grama, Gupta, Karypis, Kumar; Addison Wesley 2003 2. Wprowadzenie do obliczeń równoległych, Zbigniew Czech, Wydawnictwo Naukowe PWN, 2010. 3. Designing
Modele programowania równoległego. Pamięć współdzielona Rafał Walkowiak dla III roku Informatyki PP
Modele programowania równoległego Pamięć współdzielona Rafał Walkowiak dla III roku Informatyki PP Procesy a wątki [1] Model 1: oparty o procesy - Jednostka tworzona przez system operacyjny realizująca
Obiekt klasy jest definiowany poprzez jej składniki. Składnikami są różne zmienne oraz funkcje. Składniki opisują rzeczywisty stan obiektu.
Zrozumienie funkcji danych statycznych jest podstawą programowania obiektowego. W niniejszym artykule opiszę zasadę tworzenia klas statycznych w C#. Oprócz tego dowiesz się czym są statyczne pola i metody
Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych Krzysztof Banaś Obliczenia równoległe 1 Tworzenie programów równoległych W procesie tworzenia programów równoległych istnieją dwa kroki o zasadniczym znaczeniu: wykrycie
znajdowały się różne instrukcje) to tak naprawdę definicja funkcji main.
Część XVI C++ Funkcje Jeśli nasz program rozrósł się już do kilkudziesięciu linijek, warto pomyśleć o jego podziale na mniejsze części. Poznajmy więc funkcje. Szybko się przekonamy, że funkcja to bardzo
1 Podstawy c++ w pigułce.
1 Podstawy c++ w pigułce. 1.1 Struktura dokumentu. Kod programu c++ jest zwykłym tekstem napisanym w dowolnym edytorze. Plikowi takiemu nadaje się zwykle rozszerzenie.cpp i kompiluje za pomocą kompilatora,
Programowanie - wykład 4
Programowanie - wykład 4 Filip Sośnicki Wydział Fizyki Uniwersytet Warszawski 20.03.2019 Przypomnienie Prosty program liczący i wyświeltający wartość silni dla wprowadzonej z klawiatury liczby: 1 # include
Niezwykłe tablice Poznane typy danych pozwalają przechowywać pojedyncze liczby. Dzięki tablicom zgromadzimy wiele wartości w jednym miejscu.
Część XIX C++ w Każda poznana do tej pory zmienna może przechowywać jedną liczbę. Jeśli zaczniemy pisać bardziej rozbudowane programy, okaże się to niewystarczające. Warto więc poznać zmienne, które mogą
Wyklad 11 Języki programowania równoległego
Wyklad 11 Języki programowania równoległego Części wykładu: 1. Środowisko programu równoległego - procesy i wątki 2. Podstawowe problemy języków programowania równoległego 3. Języki programowania w środowisku
Model pamięci. Rafał Skinderowicz
Model pamięci Rafał Skinderowicz Czym jest model pamięci Model pamięci dotyczy programów współbieżnych W programie współbieżnym może się zdarzyć, że dany wątek nie będzie widział od razu wartości zmiennej
Procesory wielordzeniowe (multiprocessor on a chip) Krzysztof Banaś, Obliczenia wysokiej wydajności.
Procesory wielordzeniowe (multiprocessor on a chip) 1 Procesory wielordzeniowe 2 Procesory wielordzeniowe 3 Konsekwencje prawa Moore'a 4 Procesory wielordzeniowe 5 Intel Nehalem 6 Architektura Intel Nehalem
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami
Równoległy algorytm wyznaczania bloków dla cyklicznego problemu przepływowego z przezbrojeniami dr inż. Mariusz Uchroński Wrocławskie Centrum Sieciowo-Superkomputerowe Agenda Cykliczny problem przepływowy
Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Programowanie równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 23 października 2009 Spis treści Przedmowa...................................................
Wskaźniki a tablice Wskaźniki i tablice są ze sobą w języku C++ ściśle związane. Aby się o tym przekonać wykonajmy cwiczenie.
Część XXII C++ w Wskaźniki a tablice Wskaźniki i tablice są ze sobą w języku C++ ściśle związane. Aby się o tym przekonać wykonajmy cwiczenie. Ćwiczenie 1 1. Utwórz nowy projekt w Dev C++ i zapisz go na
Podstawy programowania. Wykład: 5. Instrukcje sterujące c.d. Stałe, Typy zmiennych c.d. dr Artur Bartoszewski -Podstawy programowania, sem 1 - WYKŁAD
programowania Wykład: 5 Instrukcje sterujące c.d. Stałe, Typy zmiennych c.d. 1 dr Artur Bartoszewski -Podstawy programowania, sem 1 - WYKŁAD programowania w C++ Instrukcje sterujące 2 dr Artur Bartoszewski
OpenMP część praktyczna
.... OpenMP część praktyczna Zbigniew Koza Wydział Fizyki i Astronomii Uniwersytet Wrocławski Wrocław, 17 marca 2011 Zbigniew Koza (WFiA UWr) OpenMP część praktyczna 1 / 34 Spis treści Spis treści...1
Liczby losowe i pętla while w języku Python
Liczby losowe i pętla while w języku Python Mateusz Miotk 17 stycznia 2017 Instytut Informatyki UG 1 Generowanie liczb losowych Na ogół programy są spójne i prowadzą do przewidywanych wyników. Czasem jednak
Podstawy programowania. Wykład: 4. Instrukcje sterujące, operatory. dr Artur Bartoszewski -Podstawy programowania, sem 1 - WYKŁAD
programowania Wykład: 4 Instrukcje sterujące, operatory 1 programowania w C++ Instrukcje sterujące 2 Pętla for for ( instrukcja_ini ; wyrazenie_warunkowe ; instrukcja_krok ) tresc_petli ; instrukcja_ini
1. Liczby i w zapisie zmiennoprzecinkowym przedstawia się następująco
1. Liczby 3456.0012 i 0.000076235 w zapisie zmiennoprzecinkowym przedstawia się następująco a) 0.34560012 10 4 i 0.76235 10 4 b) 3.4560012 10 3 i 7.6235 10 5 c) 3.4560012 10 3 i 7.6235 10 5 d) po prostu
Programowanie procesorów graficznych GPGPU. Krzysztof Banaś Obliczenia równoległe 1
Programowanie procesorów graficznych GPGPU Krzysztof Banaś Obliczenia równoległe 1 OpenCL projektowanie kerneli Przypomnienie: kernel program realizowany przez urządzenie OpenCL wątek (work item) rdzeń
Zaawansowane programowanie w C++ (PCP)
Wykład 10 - boost Thread. 8 czerwca 2007 Równoległość bardzo wolna reakcja człowieka wolne urządzenia wejścia - wyjścia (np. drukarki) bardzo szybkie procesory można przeprowadzać obliczenia podczas obsługi
Temat: Dynamiczne przydzielanie i zwalnianie pamięci. Struktura listy operacje wstawiania, wyszukiwania oraz usuwania danych.
Temat: Dynamiczne przydzielanie i zwalnianie pamięci. Struktura listy operacje wstawiania, wyszukiwania oraz usuwania danych. 1. Rodzaje pamięci używanej w programach Pamięć komputera, dostępna dla programu,
Nowoczesne technologie przetwarzania informacji
Projekt Nowe metody nauczania w matematyce Nr POKL.09.04.00-14-133/11 Nowoczesne technologie przetwarzania informacji Mgr Maciej Cytowski (ICM UW) Lekcja 2: Podstawowe mechanizmy programowania równoległego
Podstawy programowania. Wykład Pętle. Tablice. Krzysztof Banaś Podstawy programowania 1
Podstawy programowania. Wykład Pętle. Tablice. Krzysztof Banaś Podstawy programowania 1 Pętle Pętla jest konstrukcją sterującą stosowaną w celu wielokrotnego wykonania tego samego zestawu instrukcji jednokrotne
O superkomputerach. Marek Grabowski
O superkomputerach Marek Grabowski Superkomputery dziś Klastry obliczeniowe Szafy (od zawsze) Bo komputery są duże Półki i blade'y (od pewnego czasu) Większe upakowanie mocy obliczeniowej na m^2 Łatwiejsze
procesów Współbieżność i synchronizacja procesów Wykład prowadzą: Jerzy Brzeziński Dariusz Wawrzyniak
Wykład prowadzą: Jerzy Brzeziński Dariusz Wawrzyniak Plan wykładu Abstrakcja programowania współbieżnego Instrukcje atomowe i ich przeplot Istota synchronizacji Kryteria poprawności programów współbieżnych
Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych Krzysztof Banaś Obliczenia równoległe 1 Tworzenie programów równoległych W procesie tworzenia programów równoległych istnieją dwa kroki o zasadniczym znaczeniu: wykrycie
- - Ocena wykonaniu zad3. Brak zad3
Indeks Zad1 Zad2 Zad3 Zad4 Zad Ocena 20986 218129 ocena 4 Zadanie składa się z Cw3_2_a oraz Cw3_2_b Brak opcjonalnego wywołania operacji na tablicy. Brak pętli Ocena 2 Brak zad3 Ocena wykonaniu zad3 po
Pętle i tablice. Spotkanie 3. Pętle: for, while, do while. Tablice. Przykłady
Pętle i tablice. Spotkanie 3 Dr inż. Dariusz JĘDRZEJCZYK Pętle: for, while, do while Tablice Przykłady 11/26/2016 AGH, Katedra Informatyki Stosowanej i Modelowania 2 Pętla w największym uproszczeniu służy
PROE wykład 3 klasa string, przeciążanie funkcji, operatory. dr inż. Jacek Naruniec
PROE wykład 3 klasa string, przeciążanie funkcji, operatory dr inż. Jacek Naruniec Przypomnienie z ostatnich wykładów Konstruktory/destruktory i kolejność ich wywołania w złożonej klasie. Referencja Obiekty
for (inicjacja_warunkow_poczatkowych; wyrazenie_warunkowe; wyrazenie_zwiekszajace) { blok instrukcji; }
Pętle Pętle (ang. loops), zwane też instrukcjami iteracyjnymi, stanowią podstawę prawie wszystkich algorytmów. Lwia część zadań wykonywanych przez programy komputerowe opiera się w całości lub częściowo
Metody Metody, parametry, zwracanie wartości
Materiał pomocniczy do kursu Podstawy programowania Autor: Grzegorz Góralski ggoralski.com Metody Metody, parametry, zwracanie wartości Metody - co to jest i po co? Metoda to wydzielona część klasy, mająca
Algorytmy dla maszyny PRAM
Instytut Informatyki 21 listopada 2015 PRAM Podstawowym modelem służącym do badań algorytmów równoległych jest maszyna typu PRAM. Jej głównymi składnikami są globalna pamięć oraz zbiór procesorów. Do rozważań
Bloki anonimowe w PL/SQL
Język PL/SQL PL/SQL to specjalny język proceduralny stosowany w bazach danych Oracle. Język ten stanowi rozszerzenie SQL o szereg instrukcji, znanych w proceduralnych językach programowania. Umożliwia
PROJEKT 3 PROGRAMOWANIE RÓWNOLEGŁE. K. Górzyński (89744), D. Kosiorowski (89762) Informatyka, grupa dziekańska I3
PROJEKT 3 PROGRAMOWANIE RÓWNOLEGŁE K. Górzyński (89744), D. Kosiorowski (89762) Informatyka, grupa dziekańska I3 17 lutego 2011 Spis treści 1 Opis problemu 2 2 Implementacja problemu 3 2.1 Kod współdzielony........................
Wskazówki dotyczące zmiennych, tablic i procedur 1
Wskazówki dotyczące zmiennych, tablic i procedur 1 Spis treści 1. Tworzenie zmiennych i tablic 1 2. Procedury i zmienne, przekazywanie zmiennych do procedur 5 3. Zakończenie działania procedury 9 1. Tworzenie
Wykład 4: Klasy i Metody
Wykład 4: Klasy i Metody Klasa Podstawa języka. Każde pojęcie które chcemy opisać w języku musi być zawarte w definicji klasy. Klasa definiuje nowy typ danych, których wartościami są obiekty: klasa to
Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1
Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1 Metodologia programowania równoległego Przykłady podziałów zadania na podzadania: Podział ze względu na funkcje (functional
Pytania sprawdzające wiedzę z programowania C++
Pytania sprawdzające wiedzę z programowania C++ Wstęp 1. Zaprezentuj mechanikę tworzenia programu napisanego w języku C++. 2. Co to jest kompilacja? 3. Co to jest konsolidacja? 4. Co to jest kod wykonywalny?
Wstęp do programowania
Wstęp do programowania Podstawowe konstrukcje programistyczne Paweł Daniluk Wydział Fizyki Jesień 2013 P. Daniluk (Wydział Fizyki) WP w. II Jesień 2013 1 / 34 Przypomnienie Programowanie imperatywne Program
PODSTAWY INFORMATYKI 1 PRACOWNIA NR 6
PODSTAWY INFORMATYKI 1 PRACOWNIA NR 6 TEMAT: Programowanie w języku C/C++: instrukcje iteracyjne for, while, do while Ogólna postać instrukcji for for (wyr1; wyr2; wyr3) Instrukcja for twory pętlę działającą
Wstęp do programowania
wykład 10 Agata Półrola Wydział Matematyki i Informatyki UŁ semestr zimowy 2018/2019 Przesyłanie argumentów - cd Przesyłanie argumentów do funkcji - tablice wielowymiarowe Przekazywanie tablic wielowymiarowych
ANALIZA EFEKTYWNOŚCI MNOŻENIA MACIERZY W SYSTEMACH Z PAMIĘCIĄ WSPÓŁDZIELONĄ
ANALIZA EFEKTYWNOŚCI MNOŻENIA MACIERZY W SYSTEMACH Z PAMIĘCIĄ WSPÓŁDZIELONĄ 1 Mnożenie macierzy dostęp do pamięci podręcznej [język C, kolejność - j,i,k][1] A,B,C są tablicami nxn for (int j = 0 ; j
for (inicjacja_warunkow_poczatkowych(końcowych); wyrazenie_warunkowe; wyrazenie_zwiekszajace(zmniejszające)) { blok instrukcji; }
Pętle Pętle (ang. loops), zwane też instrukcjami iteracyjnymi, stanowią podstawę prawie wszystkich algorytmów. Lwia część zadań wykonywanych przez programy komputerowe opiera się w całości lub częściowo
Podstawy języka C++ Maciej Trzebiński. Instytut Fizyki Jądrowej Polskiej Akademii Nauk. Praktyki studenckie na LHC IVedycja,2016r.
M. Trzebiński C++ 1/14 Podstawy języka C++ Maciej Trzebiński Instytut Fizyki Jądrowej Polskiej Akademii Nauk Praktyki studenckie na LHC IVedycja,2016r. IFJ PAN Przygotowanie środowiska pracy Niniejsza
Techniki programowania INP001002Wl rok akademicki 2018/19 semestr letni. Wykład 3. Karol Tarnowski A-1 p.
Techniki programowania INP001002Wl rok akademicki 2018/19 semestr letni Wykład 3 Karol Tarnowski karol.tarnowski@pwr.edu.pl A-1 p. 411B Plan prezentacji Abstrakcja funkcyjna Struktury Klasy hermetyzacja
JĘZYKI PROGRAMOWANIA Z PROGRAMOWANIEM OBIEKTOWYM. Wykład 6
JĘZYKI PROGRAMOWANIA Z PROGRAMOWANIEM OBIEKTOWYM Wykład 6 1 SPECYFIKATOR static Specyfikator static: Specyfikator ten powoduje, że zmienna lokalna definiowana w obrębie danej funkcji nie jest niszczona
Obliczenia równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Obliczenia równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 15 czerwca 2001 Spis treści Przedmowa............................................
Stworzenie klasy nie jest równoznaczne z wykorzystaniem wielowątkowości. Uzyskuje się ją dopiero poprzez inicjalizację wątku.
Laboratorium 7 Wstęp Jednym z podstawowych własności Javy jest wielowątkowość. Wiąże się to z możliwością współbieżnego wykonywania różnych operacji w ramach pojedynczej wirtualnej maszyny Javy (JVM).
System obliczeniowy laboratorium oraz. mnożenia macierzy
System obliczeniowy laboratorium.7. oraz przykładowe wyniki efektywności mnożenia macierzy opracował: Rafał Walkowiak Materiały dla studentów informatyki studia niestacjonarne październik 1 SYSTEMY DLA
Pętle. for, while, do... while, foreach. Materiał pomocniczy do kursu Podstawy programowania Autor: Grzegorz Góralski ggoralski.
Materiał pomocniczy do kursu Podstawy programowania Autor: Grzegorz Góralski ggoralski.com Pętle for, while, do... while, foreach Jeszcze o operatorach... Skrócone operatory arytmetyczne przykład x +=
1 Podstawy c++ w pigułce.
1 Podstawy c++ w pigułce. 1.1 Struktura dokumentu. Kod programu c++ jest zwykłym tekstem napisanym w dowolnym edytorze. Plikowi takiemu nadaje się zwykle rozszerzenie.cpp i kompiluje za pomocą kompilatora,
Skalowalność obliczeń równoległych. Krzysztof Banaś Obliczenia Wysokiej Wydajności 1
Skalowalność obliczeń równoległych Krzysztof Banaś Obliczenia Wysokiej Wydajności 1 Skalowalność Przy rozważaniu wydajności przetwarzania (obliczeń, komunikacji itp.) często pojawia się pojęcie skalowalności
Podstawy informatyki. Informatyka stosowana - studia niestacjonarne. Grzegorz Smyk. Wydział Inżynierii Metali i Informatyki Przemysłowej
Podstawy informatyki Informatyka stosowana - studia niestacjonarne Grzegorz Smyk Wydział Inżynierii Metali i Informatyki Przemysłowej Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie, rok
Podstawy programowania. Wykład 6 Wskaźniki. Krzysztof Banaś Podstawy programowania 1
Podstawy programowania. Wykład 6 Wskaźniki Krzysztof Banaś Podstawy programowania 1 Adresy zmiennych Język C pozwala na operowanie adresami w pamięci stąd, między innymi, kwalifikowanie C jako języka relatywnie
Lekcja : Tablice + pętle
Lekcja : Tablice + pętle Wprowadzenie Oczywiście wiesz już jak dużo można osiągnąć za pomocą tablic oraz jak dużo można osiągnąć za pomocą pętli, jednak tak naprawdę prawdziwe możliwości daje połączenie
Przykład MPI: zbiór Mandelbrota
Przykład MPI: zbiór Mandelbrota 1 Zbiór Mandelbrota Zbiór punktów na płaszczyźnie zespolonej, które są quasi-stabilne, kiedy są iterowane funkcją: z k 1 = z k 2 c gdzie z k+1 wartość zespolona w k+1 iteracji,
Język JAVA podstawy. Wykład 3, część 3. Jacek Rumiński. Politechnika Gdańska, Inżynieria Biomedyczna
Język JAVA podstawy Wykład 3, część 3 1 Język JAVA podstawy Plan wykładu: 1. Konstrukcja kodu programów w Javie 2. Identyfikatory, zmienne 3. Typy danych 4. Operatory, instrukcje sterujące instrukcja warunkowe,
Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015
Analiza efektywności przetwarzania współbieżnego Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015 Źródła kosztów przetwarzania współbieżnego interakcje między procesami
> C++ wskaźniki. Dane: Iwona Polak. Uniwersytet Śląski Instytut Informatyki 26 kwietnia 2017
> C++ wskaźniki Dane: Iwona Polak iwona.polak@us.edu.pl Uniwersytet Śląski Instytut Informatyki 26 kwietnia 2017 >??? Co to jest WSKAŹNIK? ++ wskaźniki 2 / 20 >??? Co to jest WSKAŹNIK? To po prostu ADRES
METODY I JĘZYKI PROGRAMOWANIA PROGRAMOWANIE STRUKTURALNE. Wykład 02
METODY I JĘZYKI PROGRAMOWANIA PROGRAMOWANIE STRUKTURALNE Wykład 02 NAJPROSTSZY PROGRAM /* (Prawie) najprostszy przykład programu w C */ /*==================*/ /* Między tymi znaczkami można pisać, co się
Programowanie w modelu równoległości danych oraz dzielonej globalnej pamięci wspólnej. Krzysztof Banaś Obliczenia równoległe 1
Programowanie w modelu równoległości danych oraz dzielonej globalnej pamięci wspólnej Krzysztof Banaś Obliczenia równoległe 1 Model równoległości danych Model SPMD (pierwotnie dla maszyn SIMD) Zrównoleglenie
Wskaźniki w C. Anna Gogolińska
Wskaźniki w C Anna Gogolińska Zmienne Zmienną w C można traktować jako obszar w pamięci etykietowany nazwą zmiennej i zawierający jej wartość. Przykład: kod graficznie int a; a a = 3; a 3 Wskaźniki Wskaźnik
Podstawy programowania skrót z wykładów:
Podstawy programowania skrót z wykładów: // komentarz jednowierszowy. /* */ komentarz wielowierszowy. # include dyrektywa preprocesora, załączająca biblioteki (pliki nagłówkowe). using namespace
Klasa jest nowym typem danych zdefiniowanym przez użytkownika. Najprostsza klasa jest po prostu strukturą, np
Klasy Klasa jest nowym typem danych zdefiniowanym przez użytkownika Wartości takiego typu nazywamy obiektami Najprostsza klasa jest po prostu strukturą, np struct Zespolona { Klasy jako struktury z operacjami
Programowanie współbieżne Wykład 9 Synchronizacja dostępu do współdzielonych zasobów. Iwona Kochańska
Programowanie współbieżne Wykład 9 Synchronizacja dostępu do współdzielonych zasobów Iwona Kochańska Sekcja krytyczna Instrukcje wykonywane na zmiennych współdzielonych tworzą sekcję krytyczną. Instrukcje
Zmienne, stałe i operatory
Zmienne, stałe i operatory Przemysław Gawroński D-10, p. 234 Wykład 2 4 marca 2019 (Wykład 2) Zmienne, stałe i operatory 4 marca 2019 1 / 21 Outline 1 Zmienne 2 Stałe 3 Operatory (Wykład 2) Zmienne, stałe
Podstawy informatyki. Informatyka stosowana - studia niestacjonarne. Grzegorz Smyk
Podstawy informatyki Informatyka stosowana - studia niestacjonarne Grzegorz Smyk Wydział Inżynierii Metali i Informatyki Przemysłowej Akademia Górniczo Hutnicza im. Stanisława Staszica w Krakowie, Materiał
Przykładem jest komputer z procesorem 4 rdzeniowym dostępny w laboratorium W skład projektu wchodzi:
Przetwarzanie równoległe PROJEKT OMP Temat projektu dotyczy analizy efektywności przetwarzania równoległego realizowanego w komputerze równoległym z procesorem wielordzeniowym z pamięcią współdzieloną.