Programowanie współbieżne Wykład 1. Rafał Skinderowicz



Podobne dokumenty
Programowanie współbieżne Wykład 1. Rafał Skinderowicz

Programowanie współbieżne. Iwona Kochańska

Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Programowanie współbieżne i rozproszone

Wprowadzenie do programowania współbieżnego

Budowa komputera. Magistrala. Procesor Pamięć Układy I/O

Algorytmy i Struktury Danych

Budowa komputera. Magistrala. Procesor Pamięć Układy I/O

Literatura. 11/16/2016 Przetwarzanie równoległe - wstęp 1

Obliczenia równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Sprzęt komputerowy 2. Autor prezentacji: 1 prof. dr hab. Maria Hilczer

Obliczenia Wysokiej Wydajności

10/14/2013 Przetwarzanie równoległe - wstęp 1. Zakres przedmiotu

Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1

Literatura. 3/26/2018 Przetwarzanie równoległe - wstęp 1

Sprzęt komputerowy 2. Autor prezentacji: 1 prof. dr hab. Maria Hilczer

Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Kod modułu Język kształcenia Efekty kształcenia dla modułu kształcenia

Programowanie współbieżne Wykład 2. Iwona Kochańska

Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1

PRZEWODNIK PO PRZEDMIOCIE

Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1

Procesory wielordzeniowe (multiprocessor on a chip) Krzysztof Banaś, Obliczenia wysokiej wydajności.

Przetwarzanie wielowątkowe przetwarzanie współbieżne. Krzysztof Banaś Obliczenia równoległe 1

Od uczestników szkolenia wymagana jest umiejętność programowania w języku C oraz podstawowa znajomość obsługi systemu Linux.

PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK

Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1

Nowoczesne technologie przetwarzania informacji

Modelowanie procesów współbieżnych

Wykład Ćwiczenia Laboratorium Projekt Seminarium

Opis efektów kształcenia dla modułu zajęć

Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system.

Obliczenia Wysokiej Wydajności

Systemy operacyjne i sieci komputerowe Szymon Wilk Superkomputery 1

Architektury komputerów Architektury i wydajność. Tomasz Dziubich

Poziom kwalifikacji: I stopnia. Liczba godzin/tydzień: 2W E, 2L PRZEWODNIK PO PRZEDMIOCIE

Programowanie współbieżne i równoległe. dr inż. Marcin Wilczewski 2013

4. Procesy pojęcia podstawowe

4. Procesy pojęcia podstawowe

Programowanie Rozproszone i Równoległe

1 Podstawowe definicje i pojęcia współbieżności

PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK

INŻYNIERIA OPROGRAMOWANIA

GRIDY OBLICZENIOWE. Piotr Majkowski

Zaawansowane programowanie w C++ (PCP)

i3: internet - infrastruktury - innowacje

Równoległość i współbieżność

Równoległość i współbieżność

Dr inż. hab. Siergiej Fialko, IF-PK,

Zaawansowane programowanie w języku C++

Architektura Systemów Komputerowych. Rozwój architektury komputerów klasy PC

O superkomputerach. Marek Grabowski

Numeryczna algebra liniowa

Program jest więc strukturą statyczną zapisaną na jakimś nośniku. Natomiast proces jest wykonującym się programem.

Procesory wielordzeniowe (multiprocessor on a chip) Krzysztof Banaś, Obliczenia wysokiej wydajności.

Budowa Mikrokomputera

Programowanie współbieżne Wykład 7. Iwona Kochaoska

Technika mikroprocesorowa. Linia rozwojowa procesorów firmy Intel w latach

5. Model komunikujących się procesów, komunikaty

Wydajność systemów a organizacja pamięci, czyli dlaczego jednak nie jest aż tak źle. Krzysztof Banaś, Obliczenia wysokiej wydajności.

Wsparcie dla OpenMP w kompilatorze GNU GCC Krzysztof Lamorski Katedra Informatyki, PWSZ Chełm

Programowanie współbieŝne. Paweł Rogaliński Politechnika Wrocławska

Projektowanie oprogramowania systemów PROCESY I ZARZĄDZANIE PROCESAMI

Tesla. Architektura Fermi

Architektura komputerów

4. Procesy pojęcia podstawowe

Przygotowanie kilku wersji kodu zgodnie z wymogami wersji zadania,

Projektowanie algorytmów równoległych. Zbigniew Koza Wrocław 2012

Systemy operacyjne. Systemy operacyjne. Systemy operacyjne. Zadania systemu operacyjnego. Abstrakcyjne składniki systemu. System komputerowy

Wydajność systemów a organizacja pamięci. Krzysztof Banaś, Obliczenia wysokiej wydajności. 1

Od uczestników szkolenia wymagana jest umiejętność programowania w języku C oraz podstawowa znajomość obsługi systemu Windows.

Programowanie procesorów graficznych GPGPU

Systemy operacyjne III

Procesy i wątki. Krzysztof Banaś Obliczenia równoległe 1

Egzamin / zaliczenie na ocenę*

ξ II.UWr Wprowadzenie do STM

Procesory. Schemat budowy procesora

Analiza ilościowa w przetwarzaniu równoległym

Wykorzystanie architektury Intel MIC w obliczeniach typu stencil

Architektura mikroprocesorów TEO 2009/2010

Wprowadzenie. Klastry komputerowe. Superkomputery. informatyka +

Wątek - definicja. Wykorzystanie kilku rdzeni procesora jednocześnie Zrównoleglenie obliczeń Jednoczesna obsługa ekranu i procesu obliczeniowego

procesów Współbieżność i synchronizacja procesów Wykład prowadzą: Jerzy Brzeziński Dariusz Wawrzyniak

RDZEŃ x86 x86 rodzina architektur (modeli programowych) procesorów firmy Intel, należących do kategorii CISC, stosowana w komputerach PC,

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

<Nazwa firmy> <Nazwa projektu> Specyfikacja dodatkowa. Wersja <1.0>

Nowinki technologiczne procesorów

Podstawy informatyki. System operacyjny. dr inż. Adam Klimowicz

Wstęp do programowania 2

Analiza efektywności przetwarzania współbieżnego. Wykład: Przetwarzanie Równoległe Politechnika Poznańska Rafał Walkowiak Grudzień 2015

Zagadnienia egzaminacyjne INFORMATYKA. stacjonarne. I-go stopnia. (INT) Inżynieria internetowa STOPIEŃ STUDIÓW TYP STUDIÓW SPECJALNOŚĆ

Komputery równoległe. Zbigniew Koza. Wrocław, 2012

Zał nr 4 do ZW. Dla grupy kursów zaznaczyć kurs końcowy. Liczba punktów ECTS charakterze praktycznym (P)

Nowinki technologiczne procesorów

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2010/2011

Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW)

Programowanie równoległe i rozproszone

Dydaktyka Informatyki budowa i zasady działania komputera

Systemy wbudowane. Uproszczone metody kosyntezy. Wykład 11: Metody kosyntezy systemów wbudowanych

Raport Hurtownie Danych

Transkrypt:

Programowanie współbieżne Wykład 1 Rafał Skinderowicz

Plan wykładu Historia, znaczenie i cele współbieżności w informatyce. Podstawowe pojęcia, prawo Moore a i bariery technologiczne. Sposoby realizacji współbieżnego wykonywania programów. Własności bezpieczeństwa i żywotności programów współbieżnych. Problem wzajemnego wykluczania i sposoby jego rozwiązania - programowe oraz sprzętowe. Algorytmy synchronizacyjne. Rozwiązania problemu wzajemnego wykluczania za pomocą semaforów. Monitory i ich zastosowanie do rozwiązywania typowych problemów wzajemnego wykluczania.

Plan wykładu cd. Wykonawcy oraz kolekcje synchronizowane w języku Java. Java memory model. Alternatywne modele współbieżności. Przestrzenie krotek, notacja Linda, pamięć transakcyjna. Modele obliczeń równoległych. Miary oceny algorytmów równoległych. Wprowadzenie do OpenMP Zastosowanie OpenMP do efektywnego zrównoleglania programów. Wprowadzenie do programowania równoległego za pomocą biblioteki MPI Programowanie współbieżne w środowisku rozproszonym.

Literatura w języku polskim 1 Ben-Ari M., Podstawy programowania współbieżnego i rozproszonego, WNT. 2 Herlihy M., Shavit N., Sztuka programowania wieloprocesorowego, PWN. 3 Czech Z., Wprowadzenie do obliczeń równoległych, PWN. 4 Goetz B. i inni, Java. Współbieżność dla praktyków, Helion. 5 Horstmann C. S., Cornell G., Java. Techniki zaawansowane, Helion.

Literatura w języku angielskim 1 Pacheco P., Parallel Programming with MPI, Morgan Kaufmann, 1996. 2 Quinn M. J., Parallel Programming in C with Mpi and OpenMP, McGraw-Hill Education, 2008.

Motywacje Kiedyś (lata 90 i wcześniej) większość komputerów typu desktop miała pojedynczy procesor Rysunek : Intel Pentium 100 MHz CPU. Autor Janne Karaste. Komputery wieloprocesorowe były drogie i niedostępne dla przeciętnego Kowalskiego wykorzystywane głównie przez duże instytucje, które mogły sobie na nie pozwolić

Motywacje Obecnie dzięki procesorom wielordzeniowym każdy ma dostęp do równoległości co więcej jesteśmy na nią skazani ze względu na bariery technologiczno / fizyczne Rysunek : Quad-Core AMD Opteron, 2008, Advanced Micro Devices, Inc. (AMD) Jednak pełne wykorzystanie możliwości nowych wielordzeniowych procesorów wymaga nowego oprogramowania

Nawet więcej Współcześnie możliwości wykonywania obliczeń równoległych nie ograniczają się tylko do CPU od kilku lat możliwe jest wykonywanie obliczeń na GPU Rysunek : Nvidia Tesla K40, moc 1.43TFLOPS, 2880 CUDA cores Dla porównania Core i7 975 (3.33GHz) ok. 52 GFLOPS

Cele programowania współbieżnego 1 Większa wydajność: jeżeli mamy do dyspozycji 4 rdzenie procesora, a program wykorzystuje jedynie jeden, to 75% mocy pozostaje niewykorzystane a co jeżeli mielibyśmy do dyspozycji komputer ze 100 procesorami? większa przepustowość we/wy jeżeli program jest jednowątkowy i korzysta z urządzeń we/wy, to często musi czekać bezczynnie, aż urządzenie prześle mu dane; program wielowątkowy może w tym czasie pobierać dane z wielu źródeł lub wykonywać inne operacje 2 Prostota modelowania niektóre problemy ze swojej natury możemy podzielić na podzadania, które mogą być wykonywane niezależnie od siebie i w tym samym czasie, np. serwer www może w tym samym czasie obsługiwać żądania z wielu źródeł.

Cele programowania współbieżnego c.d. 3 Większa responsywność (płynność) działania progamu wykonywanie intensywnych obliczeniowo zadań w osobnych wątkach, a nie w wątku GUI 4 Uproszczona obsługa asynchronicznych zdarzeń przykładowo komunikacja przez gniazdka sieciowe wymaga czekania na odpowiedź (ang. blocking I/O). W aplikacji wielowątkowej każde komunikacja może być obsługiwana w osobnych wątkach, po jednym na połączenie 5 Systemy operacyjne udostępniają również biblioteki do nieblokującej obsługi I/O (ang. nonblocking I/O), niemniej jednak zastosowanie wątków + blokującego I/O może być wygodniejsze

Program współbieżny a sekwencyjny Program zapis algorytmu, ciąg instrukcji do wykonania przez procesor: ma charakter statyczny opisuje sposób rozwiązania problemu obliczeniowego w komputerze przekształcenie danych wejściowych w wyjściowe Program sekwencyjny program przeznaczony do wykonania przez jeden procesor (rdzeń) pojedynczy przepływ sterowania Program współbieżny (ang. concurrent program) składa się ze zbioru programów sekwencyjnych lub zadań obliczeniowych (ang. task), które mogą być wykonywane równolegle.

Proces Proces program wykonywany na komputerze pod kontrolą systemu operacyjnego. ma charakter dynamiczny ma przydzielone zasoby: pamięć osobna przestrzeń adresowa, zwykle podzielona na: segment kodu instrukcje wykonywanego programu segment danych zmienne globalne programu stos - dla zmiennych automatycznych, wywoływania funkcji, przekazywania parametrów i zwracania wyników sterta dla zmiennych dynamicznych licznik programu urządzenia we/wy ma co najmniej jeden aktywny wątek

Proces a system operacyjny Proces jest w każdym momencie w jednym z możliwych stanów: nowy aktywny wykonywany przez procesor czekający np. na zajście zdarzenia gotowy czkający na przydzielenie procesora zakończony W systemie jednoprocesorowym nie ma prawdziwej równoległości procesy wykonywane są naprzemiennie metodą przeplotu. Podobnie w ramach jednego procesu może działać wiele wątków.

Wątek Wątek to część programu wykonywana jednocześnie w ramach jednego procesu. Wszystkie wątki w ramach procesu korzystają z tej samej przestrzeni adresowej, dzięki czemu komunikacja między nimi jest bardzo efektowna Tworzenie i zarządzanie wątkami jest mniej kosztowne od tworzenia i zarządzania procesami Wątki nazywane są często lekkimi procesami Konieczność synchronizacji dostępu do współdzielonych zasobów Wątki w ramach procesu wykonywane są współbieżnie

Równoległość a współbieżność Równoległość wykonanie programów przez komputer nakłada się w czasie Współbieżność wykonanie programów może, ale nie musi nakładać się w czasie z punktu widzenia obserwatora zewnętrznego programy wykonują się jednocześnie, nawet w przypadku systemu jednoprocesorowego

Sposoby wykonania programów sekwencyjne każda kolejna operacja wykonywana jest po zakończeniu poprzedniej równoległe więcej niż jedna operacja wykonywana jest w tym samym czasie wymaga więcej, niż jednego procesora przeplatane wykonanie programu odbywa się fragmentami na przemian z fragmentami innych uruchomionych programów współbieżne uogólnione pojęcie obejmujące zarówno wykonanie równoległe, jak i przeplatane

Historia Początki programowania współbieżnego to lata 60 XX wieku Pojawienie się kontrolerów dla urządzeń we/wy, które mogły wykonywać operacje równolegle do obliczeń wykonywanych przez CPU Komunikacja między urządzeniami we/wy a CPU za pomocą przerwań przestań wykonywać bieżący program i zacznij wykonywać inną sekwencję instrukcji wielozadaniowość Przerwania mogą zdarzyć się w dowolnym momencie Początek lat 70 pierwsze komputery wieloprocesorowe (D825 w 1962 r., 4-procesory)

Zastosowania komputerów równoległych Podstawowa motywacja dla powstania komputerów równoległych to: znaczne skrócenie czasu obliczeń rozwiązywanie problemów o większych rozmiarach danych Przykładowe zastosowania: symulacje reakcji chemicznych symulacje meteorologiczne prognozowanie pogody obronność symulacje zastosowania broni symulacje eksplozji jądrowych prognozowanie zmian klimatycznych analiza sekwencji DNA modelowanie struktur białek astrofizyka projektowanie leków wyszukiwarki internetowe (Google, Yahoo, Bing,...)

Miary wydajności komputerów Wydajność obliczeniową komputerów mierzy się w jednostkach liczby operacji wykonywanych w ciągu sekundy FLOPS liczba operacji zmiennoprzecinkowych wykonywanych w ciągu sekundy (FLoating point Operations Per Second) Wielokrotności: MFLOPS = 10 6 (lata 60) GFLOPS = 10 9 (Cray-2 1985 r.) TFLOPS = 10 12 (IntelASCIRed, 1997r.) PFLOPS = 10 15 (IBM Roadrunner, 2008 r.) EFLOPS = 10 18 (do 2020?) MIPS liczba milionów operacji stałoprzecinkowych wykonywanych w ciągu sekundy

TOP500 Projekt TOP500 (www.top500.org) od 1993 publikuje listę najszybszych superkomputerów na świecie na podstawie testów wykorzystujących m.in. oprogramowanie do obliczeń numerycznych z dziedziny algebry liniowej. Rysunek : Komputer Roadrunner, University of California, Los Alamos National Laboratory, USA

TOP500 cd. W listpadzie 2012 najszybszym komputerem był Titan wyprodukowany przez Cray i zainstalowany w DOE/SC/Oak Ridge National Laboratory. Ma moc 17.59 PFLOPS (17.59 10 15 ) Teoretycznie maks. 27 PFLOPS Architektura: 18,688 AMD Opteron 6274 16-core CPUs 18,688 Nvidia Tesla K20X GPUs Jego zużycie energii wynosi 8.2 MW. Koszt: 97 mln $ Powierzchnia 404 m 2 Dla porównania: Pierwszy komercyjny komputer, UNIVAC I (1952 r.), miał moc ok. 1 KFLOPS (10 3 ), czyli był ponad 10 16 razy wolniejszy Najszybszy komputer w 1993 r. był 276000 razy wolniejszy

TOP500 cd. W czerwcu 2013 roku najszybszym komputerem był Tianhe-2 (ang. Skyriver-2) - superkomputer stworzony dla potrzeb Uniwersytetu Technologii Obronnych w Chinach. Używany do symulacji, analiz dotyczących bezpieczeństwa Ma moc 33.86 PFLOPS (33.86 10 15 ) 16000 węzłów, 3120000 rdzeni - Intel Xeon E5-2692 12C 2.2 GHz Zapotrzebowanie na energię: 17,8 MW Pamięć 1024000 GB System: Kylin Linux

Prawo Moore a Prawo Moore a opisuje trend w historii rozwoju mocy obliczeniowej komputerów moc komputerów podwaja się co 18 miesięcy. Obserwacja ta została poczyniona przez założyciela firmy Intel G. E. Moore a, który przedstawił ją w 1965 r. Trend ten utrzymuje się już przez ponad pół wieku, jednak ze względu na bariery technologiczne szacuje się, że ulegnie on spowolnieniu.

Prawo Moore a cd. Liczba tranzystorów Data wprowadzenia Rysunek : Wzrost liczby tranzystorów w procesorach w latach 1971 2011

Prawo Moore a bariery Tranzystor nie może być mniejszy od atomu Prędkość światła jest ograniczona Przykładowo, procesor o mocy 1 TFLOPS może wykonywać 10 12 operacji na sek. pod warunkiem, że pobierze dane z pamięci. Zakładając, że słowo danych ma być dostarczane w każdym cyklu, to droga jaką może pokonać w tym czasie światło wynosi 3 10 8 [m/s] 10 12 [s] = 0, 0003m, czyli 0,3 mm! Procesor Pamięć (1 TFLOPS) 0,3 mm (1 TB) Problemem jest nie tylko upakowanie elementów, ale również dostarczenie odpowiedniej ilości energii oraz odprowadzenie wytworzonego ciepła z bardzo małej powierzchni.

Prawo Moore a c.d. Gdy nie można skrócić czasu trwania cyklu (zwiększyć taktowania procesora), pozostaje zwiększyć liczbę wykonywanych w tym samym czasie operacji zrównoleglenie. Równoległość na poziomie procesora: Szersze magistrale i liczba bitów w rejestrach procesora (8, 16, 32, 64 bity) równoległość na poziomie bitów Na poziomie instrukcji równoległe wykonywanie więcej, niż jednego rozkazu w tym samym czasie przetwarzanie potokowe. Procesory wielordzeniowe przetwarzanie wielu wątków w tym samym czasie Komputery równoległe wymagają programów równoległych

Postęp technologiczny a rozwój oprogramowania Postęp technologiczny stwarza nowe możliwości, ale i nowe problemy. To put it quite bluntly: as long as there were no machines, programming was no problem at all; when we had a few weak computers, programming became a mild problem, and now we have gigantic computers, programming has become an equally gigantic problem. E. Dijkstra, 1972 Turing Award Lecture

Lata 60 i 70 Programowanie w językach asemblerowych Wzrost mocy obliczeniowej powodował, że komputery mogły rozwiązywać bardziej złożone zadania konieczność zastosowania bardziej złożonego oprogramowania Problem z przenośnością oprogramowania potrzeba języków programowania o wyższym stopniu abstrakcji bez utraty wydajności Rozwiązanie: języki wysokiego poziomu, takie jak Fortran i C

Lata 80 i 90 Problem: trudność w tworzeniu i utrzymaniu złożonych aplikacji wymagających milionów linii kodu pisanych przez setki programistów Rozwój komputerów osobistych i ich mocy obliczeniowej dodatkowo zwiększył zapotrzebowanie na oprogramowanie Wydajność komputerów nie była problemem dzięki prawu Moore a Rozwiązanie: języki obiektowe takie jak C++, Java, C# Lepsze narzędzia: środowiska programistyczne, biblioteki Rozwój metodologii tworzenia oprogramowania: wzorce projektowe, odpowiednie dokumentowanie, testowanie (jednostkowe, integracyjne i inne)

Współcześnie Programiści mogą tworzyć oprogramowanie bez konieczności dogłębnej znajomości sprzętu, dostępne języki programowania i biblioteki zapewniają wysoki poziom abstrakcji Problem: wcześniej, by program działał szybciej wystarczyło poczekać na nowszy procesor o większej częstotliwości taktowania Obecnie uzyskania wydajności zgodnej z prawem Moore a wymaga wyjścia poza programowanie sekwencyjne wzrost taktowania procesorów uległ spowolnieniu rośnie liczba rdzeni w procesorach konieczność stworzenia oprogramowania korzystającego z większej liczby wątków w tym samym czasie

Przykładowe narzędzia i biblioteki C/C++ brak obsługi wielowątkowości w standardzie aż do C++0x z 2011 r. biblioteka POSIX Threads (pthreads) Windows Threads boost (Asio, Thread, Interprocess) Java obsługa wielowątkowości od początku, zdefiniowany model pamięci uwzględniający wykonanie wielowątkowe, bogata biblioteka standardowa MPI Message Passing Interface protokół komunikacyjny przesyłania komunikatów między procesami w programach równoległych najpopularniejszy standard na superkomputerach wysoka wydajność i skalowalność implementacja dla wielu języków programowania (C, C++, Ada, Fortran, C#) brak obsługi wielowątkowości niska wygoda użycia w porównaniu do np. OpenMP

Przykładowe narzędzia i biblioteki, c.d. OpenMP interfejs służący do tworzenia programów równoległych dla komputerów wieloprocesorowych z pamięcią wspólną dostępny dla C, C++, Fortran wygodniejszy w użyciu od MPI często stosowany łącznie z MPI MPI do komunikacji między węzłami klastra, OpenMP do komunikacji wewnątrz węzła

Alternatywy dla programów równoległych Uruchomienie wielu instancji tego samego programu dla różnych danych dobre, gdy dane wejściowe można podzielić na niezależne od siebie podzbiory uruchomienie wielu instancji, np. za pomocą skryptów powłoki s.o. (np. bash w linuxie)

Alternatywy dla programów równoległych cd. Wykorzystanie istniejącego oprogramowania równoległego do wykonania Np. zastosowanie baz danych z wbudowaną obsługą równoległości program odpowiedzialny za obsługę GUI, natomiast przetwarzanie danych (równoległe) po stronie DBMS

Alternatywy dla programów równoległych cd. Optymalizacja programu sekwencyjnego, tak by spełniał założenia odnośnie czasu działania Obecnie trudniejsze, ponieważ częstotliwość taktowania procesorów rośnie bardzo wolno, ale pojawiają się nowe rozkazy dla specyficznych zastosowań (SEE, MMX) Zastosowanie algorytmu o mniejszej złożoności obliczeniowej

Trudności programowania równoległego Pisanie poprawnych programów sekwencyjnych jest trudne, pisanie poprawnych programów współbieżnych jest o rząd wielkości trudniejsze.

Trudności programowania równoległego cd. Trudności: Podział pracy obliczenia należy podzielić na podzadania, które mogą być wykonywane jednocześnie nierówny podział bardzo negatywnie wpływa na wydajność (prawo Amdahla) przydział czasu procesora wątki o różnych priorytetach Dodatkowa logika programu niezbędna do obsługi komunikacji między wątkami Synchronizacja: realizowana sprzętowo programowo (bariery, sekcje krytyczne, operacje atomowe, semafory)

Trudności c.d. Wyścig dostępu do danych (ang. data races) sytuacje prowadzące do niepoprawnych wartości zmiennych wynikające z równoczesnego niekontrolowanego dostępu do współdzielonej pamięci Zaburzenia poprawnego wykonania: Zakleszczenia: pasywne (ang. deadlock) aktywne (ang. livelock) Zagłodzenie (ang. starvation) Trudniejsze debugowanie: program może działać poprawnie na jednym proc., ale niepoprawnie na większej liczbie błąd może się objawiać tylko w specyficznych sytuacjach, np. przy dużej liczbie wątków i tylko dla konkretnych danych wejściowych!