Programowanie współbieżne i równoległe

Podobne dokumenty
Programowanie współbieżne i równoległe. dr inż. Marcin Wilczewski 2013

Programowanie współbieżne i równoległe

Programowanie współbieżne i równoległe

4. Procesy pojęcia podstawowe

4. Procesy pojęcia podstawowe

Wprowadzenie do programowania współbieżnego

Przeplot. Synchronizacja procesów. Cel i metody synchronizacji procesów. Wątki współbieżne

4. Procesy pojęcia podstawowe

procesów Współbieżność i synchronizacja procesów Wykład prowadzą: Jerzy Brzeziński Dariusz Wawrzyniak

Systemy operacyjne III

Mechanizmy pracy równoległej. Jarosław Kuchta

Porządek dostępu do zasobu: procesory obszary pamięci cykle procesora pliki urządzenia we/wy

5. Model komunikujących się procesów, komunikaty

Programowanie współbieżne Wykład 2. Iwona Kochańska

Klasyczne problemy współbieżności. Problem producenta i konsumenta Problem czytelników i pisarzy Problem pięciu filozofów

Program jest więc strukturą statyczną zapisaną na jakimś nośniku. Natomiast proces jest wykonującym się programem.

Przetwarzanie wielowątkowe przetwarzanie współbieżne. Krzysztof Banaś Obliczenia równoległe 1

Modelowanie procesów współbieżnych

Systemy operacyjne. wykład 11- Zakleszczenia. dr Marcin Ziółkowski. Instytut Matematyki i Informatyki Akademia im. Jana Długosza w Częstochowie

Synchronizacja procesów i wątków

Zarządzanie procesami i wątkami

Programowanie współbieżne Wykład 7. Iwona Kochaoska

SYSTEMY OPERACYJNE WYKLAD 6 - procesy

Mogą pracować w środowisku: Scentralizowanym -mikrokontroler Rozproszonym sieć sterująca, systemy hierarchiczne. Komunikacja z syst.

Procesy, wątki i zasoby

Współczesne aplikacje sterowania i akwizycji danych są zbiorem komunikujących się wątków lub procesów współbieżnych.

Programowanie współbieżne i rozproszone

Programowanie równoległe i rozproszone. Monitory i zmienne warunku. Krzysztof Banaś Programowanie równoległe i rozproszone 1

1 Podstawowe definicje i pojęcia współbieżności

Nazwa Wydziału Nazwa jednostki prowadzącej moduł Nazwa modułu kształcenia Kod modułu Język kształcenia Efekty kształcenia dla modułu kształcenia

Stan globalny. Krzysztof Banaś Systemy rozproszone 1

Tworzenie programów równoległych cd. Krzysztof Banaś Obliczenia równoległe 1

Bazy danych w sterowaniu

Programowanie współbieżne Wykład 10 Synchronizacja dostępu do współdzielonych zasobów. Iwona Kochańska

Zaawansowane programowanie w C++ (PCP)

Projektowanie oprogramowania systemów PROCESY I ZARZĄDZANIE PROCESAMI

Współbieżność i równoległość w środowiskach obiektowych. Krzysztof Banaś Obliczenia równoległe 1

Systemy operacyjne III

Programowanie współbieŝne. Paweł Rogaliński Politechnika Wrocławska

Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

dr inż. Konrad Sobolewski Politechnika Warszawska Informatyka 1

Wykład 6. Planowanie (szeregowanie) procesów (ang. process scheduling) Wojciech Kwedlo, Wykład z Systemów Operacyjnych -1- Wydział Informatyki PB

Obliczenia równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Procesy, zasoby i wątki

Procesy, zasoby i wątki

Procesy i wątki. Blok kontrolny procesu. Proces. Proces - elementy. Stan procesu

Prezentacja systemu RTLinux

SYSTEMY OPERACYJNE WYKLAD 6 - wątki

1.1 Definicja procesu

Od uczestników szkolenia wymagana jest umiejętność programowania w języku C oraz podstawowa znajomość obsługi systemu Linux.

Programowanie wielowątkowe. Tomasz Borzyszkowski

Wielowątkowość mgr Tomasz Xięski, Instytut Informatyki, Uniwersytet Śląski Katowice, 2011

Procesy, zasoby i wątki

Równoległość i współbieżność

Równoległość i współbieżność

Obliczenia równoległe i rozproszone w JAVIE. Michał Kozłowski 30 listopada 2003

Zarządzanie procesorem

Proces y i y w i ąt ą ki

Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1

Semafory. // G - globalna dla wszystkich. // Wada - aktywne oczekiwanie Test_and_Set(Li); exit when Li = 0; end loop sekcja_krytyczna(i); G := 0;

Definicja systemu operacyjnego (1) Definicja systemu operacyjnego (2) Miejsce systemu operacyjnego w architekturze systemu komputerowego

Wątek - definicja. Wykorzystanie kilku rdzeni procesora jednocześnie Zrównoleglenie obliczeń Jednoczesna obsługa ekranu i procesu obliczeniowego

Klient-Serwer Komunikacja przy pomocy gniazd

Programowanie współbieżne Wykład 5. Rafał Skinderowicz

Programowanie równoległe i rozproszone. W1. Wielowątkowość. Krzysztof Banaś Programowanie równoległe i rozproszone 1

1. Liczby i w zapisie zmiennoprzecinkowym przedstawia się następująco

Koordynacja procesów w środowisku rozproszonym

Projektowanie oprogramowania cd. Projektowanie oprogramowania cd. 1/34

Podstawy informatyki. Izabela Szczęch. Politechnika Poznańska

Działanie systemu operacyjnego

Wstęp do programowania 2

Ingerencja w kod systemu operacyjnego (przerwania) Programowanie na niskim poziomie (instrukcje specjalne) Trudności implementacyjne (alg.

Planowanie przydziału procesora

UNIKANIE IMPASÓW W SYSTEMACH PROCESÓW WSPÓŁBIEŻNYCH

Planowanie przydziału procesora

Systemy operacyjne. Paweł Pełczyński

Wykład 4. Synchronizacja procesów (i wątków) cześć I. Wojciech Kwedlo, Wykład z Systemów Operacyjnych -1- Wydział Informatyki PB

Stworzenie klasy nie jest równoznaczne z wykorzystaniem wielowątkowości. Uzyskuje się ją dopiero poprzez inicjalizację wątku.

Programowanie komputerów

Języki i Techniki Programowania II. Wykład 7. Współbieżność 1

Od uczestników szkolenia wymagana jest umiejętność programowania w języku C oraz podstawowa znajomość obsługi systemu Windows.

1. Szeregowanie w systemach czasu rzeczywistego

Uniwersytet w Białymstoku Wydział Ekonomiczno-Informatyczny w Wilnie SYLLABUS na rok akademicki 2010/2011

Programowanie współbieżne Wykład 9 Synchronizacja dostępu do współdzielonych zasobów. Iwona Kochańska

Podstawy informatyki. System operacyjny. dr inż. Adam Klimowicz

Spis treści. Księgarnia PWN: Maurice Herlihy, Nir Shavit - Sztuka programowania wieloprocesorowego. Podziękowania Przedmowa...

Autor: dr inż. Zofia Kruczkiewicz, Programowanie aplikacji internetowych 1

Architektura komputerów

Urządzenia wejścia-wyjścia

SYSTEMY OPERACYJNE PROCESORÓW SYGNAŁOWYCH

Adresowanie obiektów. Adresowanie bitów. Adresowanie bajtów i słów. Adresowanie bajtów i słów. Adresowanie timerów i liczników. Adresowanie timerów

Wprowadzenie. Dariusz Wawrzyniak. Miejsce, rola i zadania systemu operacyjnego w oprogramowaniu komputera

Czas w systemach rozproszonych. Krzysztof Banaś Systemy rozproszone 1

Tworzenie programów równoległych. Krzysztof Banaś Obliczenia równoległe 1

Opis efektów kształcenia dla modułu zajęć

Wprowadzenie. Dariusz Wawrzyniak. Miejsce, rola i zadania systemu operacyjnego w oprogramowaniu komputera

ξ II.UWr Wprowadzenie do STM

Systemy Operacyjne. wykład 1. Adam Kolany. Październik, Instytut Techniczny Państwowa Wyższa Szkoła Zawodowa w Nowym Sączu

Struktura i funkcjonowanie komputera pamięć komputerowa, hierarchia pamięci pamięć podręczna. System operacyjny. Zarządzanie procesami

Transkrypt:

Programowanie współbieżne i równoległe dr inż. Marcin Wilczewski 2016/2017 1

Cel wykładu Przedstawienie zagadnień projektowania oraz programowania rozwiązań współbieżnych i równoległych Tematyka wykładu Wątki i procesy Systemy z pamięcią współdzieloną oraz systemy rozproszone Poprawność programów współbieżnych Przegląd klasycznych problemów współbieżności oraz ich rozwiązania Komunikacja i synchronizacja. Synchronizacja w systemach baz danych Programowanie współbieżne w Javie, C#, systemie Android. Techniki programowania współbieżnego 2

Organizacja zajęć Laboratorium: programowanie z biblioteką pthread, programowanie współbieżne w językach C#/JAVA, problemy współbieżności (producent konsument, czytelnicy pisarze, etc.) Zasady oceniania Ocenianie: z przedmiotu można otrzymać maksymalnie 40 punktów, w tym: maks. 30 punktów laboratorium + maks. 10 punktów wykład. Pisemne zaliczenie jest opcjonalne. Nie jest wymagane do zaliczenia przedmiotu (patrz skala ocen poniżej). Termin pisemnego zaliczenia przedmiotu: 27/01/2016 r. Skala punktacji + oceny: 20,5:22,0 3,0 22,5:27,0 3,5 27,5:32,0 4,0 32,5: 37,0 4,5 37,5: 40,0 5,0 3

Paradygmaty programowania Programowanie proceduralne Programowanie obiektowe Programowanie współbieżne obejmuje projektowanie i tworzenie programów, które w fazie wykonania składają się z co najmniej dwóch jednostek wykonywanych współbieżnie (każdy z nich niezależnie jest wykonywany sekwencyjnie). Wykonywanie współbieżne może wymagać zapewnienia komunikacji/synchronizacji pomiędzy jednostkami konkurującymi o dostęp do zasobów współdzielonych Programowanie równoległe Równoległość. Jednoczesność. Współbieżność Współbieżnie: jedna jednostka wykonania rozpoczyna swoją pracę zanim druga zakończy swoje działanie. Obliczenia współbieżne mogą być wykonywane w systemach jedno- i wieloprocesorowych Z czego wynika potrzeba współbieżności? Kiedy możliwe jest osiągnięcie przetwarzania równoległego? Nie wszystkie procesy współbieżne są równie ciekawe: procesy interakcyjne, procesy niezależne 4

Motywacja i korzyści programowania równoległego i współbieżnego Interakcyjność systemu / zdolność do reagowania: Wielowątkowość może umożliwiać interakcję z użytkownikiem mimo zablokowania części aplikacji lub wykonywania przez nią długich operacji. Przetwarzanie współbieżne (nawet w środowiskach jednoprocesorowych) pozwala na dekompozycję funkcjonalną zadań/programów (niezależne przetwarzanie danych, operacje IO, komunikacja z użytkownikiem, etc.). Przykład: edytory tekstu, aplikacje webowe, Przyspieszenie obliczeń: Przetwarzanie współbieżne/równoległe może zapewnić przyspieszenie obliczeń w stosunku do przetwarzania sekwencyjnego. Rosną wymagania dotyczące szybkości i liczby wykonywanych zadań/operacji. Model programowania wielowątkowego daje duże możliwości Wykorzystanie architektury wieloprocesorowej: Korzyści z wielowątkowości zwiększają się w architekturach wieloprocesorowych, gdzie każdy wątek może działać na odrębnym procesorze Intuicyjność modelowania: Model współbieżny rozwiązania pewnych problemów jest modelem najbardziej naturalnym i najbliższym rzeczywistemu problemowi (modelowanemu zjawisku). Wielka liczba procesów rzeczywistych ma naturę współbieżną/równoległą, np. procesy produkcyjne/operacyjne, procesy biologiczne 5 Ekonomia przetwarzania: podział na wątki oszczędza czas zarządzania aplikacją

Programowanie współbieżne vs programowanie równoległe Obliczenia współbieżne stanowią szerszą klasę niż obliczenia równoległe (mogą być wykonywane zarówno w systemach jedno- jak i wieloprocesorowych) Komputery współcześnie produkowane to maszyny wieloprocesorowe (wielordzeniowe). Programowanie równoległe i współbieżne zapewnia wykorzystanie mocy zapewnianej na poziomie sprzętowym (fizycznym) Nawet w przypadku architektur wieloprocesorowych, gdy liczba procesów gotowych do wykonania przekracza liczbę procesów wykonywane są one współbieżnie (pozornie równolegle), a nie faktycznie równolegle 6

Obszary wykorzystania programowania współbieżnego i równoległego Systemy operacyjne (wielozadaniowość) Systemy baz danych (wielozadaniowość, wielodostęp) Obliczenia naukowe Gry komputerowe Systemy wbudowane (urządzenia mobilne, urządzenia AGD) Systemy czasu rzeczywistego (systemy produkcyjne) 7

Programy współbieżne i przeplot (1) Program sekwencyjny składa się deklaracji zmiennych oraz instrukcji zapisanych w języku programowania. Podczas fazy wykonania porządek instrukcji programu sekwencyjnego dla tych samych danych wejściowych jest stały Program współbieżny jest zbiorem programów sekwencyjnych wykonywanych abstrakcyjnie współbieżnie Program sekwencyjny będący elementem programu współbieżnego jest nazywany procesem lub wątkiem W przypadku programów współbieżnych stwierdzenie o stałej kolejności wykonania instrukcji procesów (programów składowych) w ogólności nie jest prawdziwe. Każdy możliwy ciąg wykonań kolejnych akcji/instrukcji procesów sekwencyjnych programu współbieżnego stanowi przeplot 8

Programy współbieżne i przeplot (2) Projektując programy współbieżne nie można założyć, że pewne przeploty są niemożliwe do zrealizowania. Eliminacja możliwych, niepożądanych przeplotów powinna odbywać się na etapie projektowania rozwiązania i jest osiągana m. in. przez synchronizację procesów procesy będą wykonywane równolegle (w tym samym czasie) przez fizycznie odrębne procesory. Faktyczną równoległość można osiągnąć w systemach wieloprocesorowych. Efekt współbieżności w systemach jednoprocesorowych (lub systemach, gdzie liczba procesorów jest mniejsza niż liczba procesów) jest realizowana przez podział czasu procesorów. Systemy tego typu to systemy z podziałem czasu znana jest względna lub bezwzględna szybkość wykonywania procesów 1 2 A B 1 A B 2 możliwe przeploty procesy P1 instrukcje składowe 1 2 1 A 2 B A B 1 2 P2 A B A 1 2 B A 1 B 2 9

Problemy programowania współbieżnego Główne problemy programowania współbieżnego wynikają z konieczności zapewnienia odpowiedniej interakcji pomiędzy procesami oraz uporządkowania instrukcji atomowych wykonywanych przez poszczególne procesy (wykluczenie niepożądanych przeplotów) Interakcję pomiędzy współbieżnie wykonywanymi procesami realizuje się poprzez komunikację oraz w szczególności synchronizację (zapewnienie ustalonego porządku wykonywania operacji przez procesy) wykluczającą określone przeploty Analiza poprawności programu współbieżnego powinna zawierać analizę wszystkich możliwych przeplotów procesów. Dowodem wprost niepoprawności programu współbieżnego jest wykazanie możliwości wystąpienia niepożądanego przeplotu. Nie jest istotne prawdopodobieństwo wystąpienia takiego niepożądanego przeplotu W ogólności nie jest możliwe wskazanie liczby testów (wykonań programu współbieżnego) dowodzących poprawności programu 10

Procesy i wątki - pojęcia Program pojęcie statyczne obejmujące m. in. kod zapisany w określonym języku programowania Proces jednostka programowa w trakcie wykonywania wraz z przydzielanymi dynamicznie przez system zasobami. System operacyjny zapewnia wzajemną izolację procesów (bezpieczeństwo przetwarzania) W wielozadaniowych systemach operacyjnych możliwe jest współbieżne lub równoległe wykonywanie wielu procesów Każdy proces posiada kod, segment danych (zmienne globalne), stos (adresy powrotu z wywoływanych procedur) oraz zmienne lokalne oraz rejestry Wątki są jednostkami przetwarzania wydzielonymi w ramach procesu. Można je interpretować jako sekwencję instrukcji do wykonania, które mogą być wykonywane współbieżnie z innymi sekwencjami instrukcji należącymi do tego samego procesu Wątki posiadają wspólny kod oraz dane (współdzielą zmienne globalne), niezależne stosy (zmienne lokalne) i rejestry. Wątki mają dostęp do pamięci współdzielonej Każdy proces posiada co najmniej jeden wątek 11

Systemy scentralizowane i rozproszone Z punktu widzenia komunikacji można wyróżnić dwa podstawowe modele systemów: model systemów z pamięcią wspólną (systemy scentralizowane) oraz model z pamięcią lokalną (systemy rozproszone) W przypadku systemów scentralizowanych procesy mają dostęp do wspólnego obszaru pamięci, a komunikacja najczęściej przybiera postać synchronizowanego odczytu/zapisu zmiennych globalnych (współdzielonych) W przypadku systemów rozproszonych procesy mają dostęp wyłącznie do swojej pamięci lokalnej, a komunikacja odbywa się przez wymianę komunikatów lub zdalne wywoływanie procedur (RPC Remote Procedure Call). W takim przypadku czas komunikacji jest zdecydowanie dłuższy systemów scentralizowanych. Nakłada to na program rozproszony dodatkowe wymagania optymalizacji liczby operacji synchronizujących przebieg procesów Powyższe modele wymagają różnych mechanizmów komunikacji, chociaż mechanizmy właściwe dla systemów rozproszonych mogą być wykorzystywane w systemach scentralizowanych 12

Przetwarzanie w środowiskach z pamięcią wspólną (1) W systemach z pamięcią wspólną zasób pamięci jest współdzielony przez wszystkie procesory (w szczególności przez jeden procesor) Konieczne jest zapewnienie ochrony pamięci wspólnej przez niepożądanymi interakcjami różnych procesów. Dlaczego? Bezpieczeństwo zapewnia odpowiednia organizacja jednostek przetwarzania (procesy, wątki) w systemie operacyjnym oraz mechanizmy synchronizacji (kontroli dostępu do danych) W systemach z pamięcią wspólną poszczególne zadania realizowane są przez procesy i wątki funkcjonujące w ramach jednego procesu 13

Przetwarzanie w środowiskach z pamięcią wspólną (2) Wspólny segment danych wątków jednego procesu wykorzystywany jest do zapewnienia komunikacji (wymiany danych) pomiędzy wątkami Gdy tworzony jest proces domyślnie tworzony jest wątek główny, z którego ciała możliwe jest utworzenie innych wątków. Proces kończy swoje działanie, gdy działanie kończy ostatni z jego wątków Stany procesu: new, running, waiting, ready, terminate Wątki bywają niekiedy nazywane lekkimi procesami, ponieważ obciążają system w mniejszym stopniu niż procesy: utworzenie wątku zajmuje mniej czasu niż utworzenie procesu wątki są mniej pamięciożerne przełączanie kontekstu wątku zajmuje mniej czasu niż przełączanie procesora pomiędzy procesami (zapisy w PCB) 14

Przetwarzanie w środowiskach z pamięcią wspólną (3) Przełączanie kontekstu wymaga zapisu i odczytu danych z bloku kontrolnego procesu (Process Control Block PCB) PCB jest strukturą utrzymywaną w pamięci operacyjnej przez system operacyjny i stanowi reprezentację procesu PCB zawiera m. in. następujące informacje identyfikator procesu (Process ID PID) stan procesu licznik instrukcji konieczny do przywrócenia właściwego działania procesu po jego przerwaniu informacje przeznaczone dla schedulera: priorytet procesu, wykorzystany czas procesora, itd. Przełączanie kontekstu zachodzi wyłącznie w systemach z wywłaszczaniem (z podziałem czasu). 15

Przetwarzanie w środowiskach z pamięcią lokalną (1) Zgodnie z definicją systemy z pamięcią lokalną (systemy rozproszone) to systemy, w których wykonywane procesy posiadają własne, niezależne przestrzenie adresowe W takich przypadkach nie istnieje pojęcie pamięci współdzielonej. Tym samym nie ma możliwości synchronizacji procesów za pomocą mechanizmów takich jak semafory, monitory, zamki, których celem jest ochrona zasobu pamięci przed niepożądanymi interakcjami różnych procesów W systemach rozproszonych synchronizacja współpracujących lub konkurujących procesów jest realizowana przez mechanizm komunikatów lub zdalne wywoływanie procedur (RPC). Komunikaty mogą zawierać informacje sterujące, ale również dane (np. parametry, dane wejściowe do przetwarzania) Programowanie dla systemów z pamięcią lokalną nazywane jest programowaniem rozproszonym Pojęcie programowania rozproszonego nie ogranicza się wyłącznie do systemów, w których przestrzenie adresowe poszczególnych procesorów są fizycznie separowane. Programowanie rozproszone odnosi się również do programowania układów scentralizowanych, w których procesy z pewnych powodów nie 16 wymieniają informacji za pomocą zmiennych współdzielonych

Przetwarzanie w środowiskach z pamięcią lokalną (2) Wymiana komunikatów jest wspierana przez systemy operacyjne (potoki, łącza nazwane/nienazwane, gniazdka, itd.) Ze względu na związki czasowe pomiędzy procesami wzajemnie się komunikującymi mechanizmy komunikacji można podzielić na synchroniczne wymiana informacji następuje w trakcie spotkania, tzn. proces wysyłający komunikat jest wstrzymywany tak długo, jak długo proces odbierający nie jest gotowy do odbioru komunikatu (i na odwrót) asynchroniczne spotkanie nie jest konieczne; wysłanie komunikatu może nastąpić w dowolnej chwili (gdy spełnione są pewne dodatkowe warunki, które nie obejmują jednak gotowości odbiorcy). Wykorzystywana jest w tym przypadku strona trzecia (pośrednicząca) w postaci np. bufora, kolejki buforującej blokujące wykonanie instrukcji następującej po instrukcji odbioru/wysłania danych jest możliwe dopiero po zakończeniu procesu odbioru/wysyłania nieblokujące przejście do kolejnej instrukcji następuje bez oczekiwania na zakończenie wysyłania/odbierania komunikatu 17

Przetwarzanie w środowiskach z pamięcią lokalną (3) W modelu rozproszonym w zależności od sposobu współpracy procesów komunikaty mogą być przekazywane na różne sposoby: komunikat przeznaczony dla konkretnego procesu komunikat przeznaczony dla pierwszego odbiorcy (wysyłający nie musi wiedzieć, który proces konkretnie odbierze komunikat) komunikat przeznaczony do wszystkich (broadcast) Komunikaty są wykorzystywane do bezpośredniego przekazywania danych pomiędzy procesami i/lub do jawnej synchronizacji. Synchronizacja może być realizowana np. w modelu z pojedynczym tokenem. W takim przypadku wykonanie pewnych operacji (sekcja krytyczna, bufor) jest możliwe przez ten proces, który jest aktualnie w posiadaniu tokenu Problemy komunikacji: zaginięcie komunikatu od serwera, zaginięcie odpowiedzi od serwera, awaria klienta/serwera po wysłaniu/otrzymaniu zamówienia 18

Synchronizacja i komunikacja pomiędzy procesami i wątkami Komunikacja przesyłanie komunikatów (tokenów?) pomiędzy współpracującymi/współzawodniczącymi wątkami lub procesami. Komunikacja synchroniczna i asynchroniczna. Synchronizacja zapewnienie pożądanych zależności czasowych wykonujących się procesów lub wątków. Synchronizacja = uporządkowanie w czasie Kiedy synchronizacja jest niezbędna? Gdy procesy współdzielą wspólne struktury danych (np. zmienne globalne) lub współzawodniczą w dostępnie do wspólnego zasobu/struktury. Dlaczego synchronizacja jest w takich przypadkach konieczna? Pewne procesy dostarczają dane dla innych procesów. Uwaga 1: Programowanie współbieżne obejmuje również (właściwie przede wszystkim) zaprojektowanie i implementację komunikacji i/lub synchronizacji procesów lub wątków Uwaga 2: W ogólności programista nie może zakładać określonej kolejności 19 wykonania się procesów/wątków. Należy zakładać losowość lub określić kolejność

Wzajemne wykluczanie (1) Jedną z metod synchronizacji procesów w systemach scentralizowanych jest wzajemne wykluczanie (mutual exclusion mutex) Sekcja krytyczna fragment kodu (fragment procesu), w którym następuje korzystanie z zasobu współdzielonego (fragment wykonywany w sposób wyłączny) Zasób współdzielony zasób, który może być w sposób wyłączny wykorzystywany przez wiele współzawodniczących procesów (w danej chwili z zasobu może korzystać jeden lub ograniczona liczba wątków/procesów) Problem: należy zapewnić, by w danej chwili z zasobu mógł korzystać tylko jeden proces (lub ograniczona od góry ich liczba), a pozostałe, które chcą uzyskać do niego dostęp powinny czekać na jego zwolnienie. Równoważnie: wykonanie sekcji krytycznej jednego procesu nie może przeplatać się z wykonaniem sekcji krytycznej dowolnego innego procesu Wzajemne wykluczanie stanowi abstrakcję problemu przydziału dostępu do zasobu współdzielonego (np. kanału komunikacyjnego, pamięci). Problem pojawia się gdy liczba chętnych do skorzystania z zasobu przekracza liczbę obiektów, które z zasobu mogą korzystać 20

Wzajemne wykluczanie (2) Problem oczekiwania aktywnego i pasywnego Warunki poprawnego rozwiązania problemu wzajemnego wykluczania: 1. W danym punkcie czasu tylko jeden proces może być w trakcie wykonywania sekcji krytycznej (sekcje krytyczne różnych procesów nie mogą być przeplatane) 2. Nie wolno dokonywać jakichkolwiek założeń dotyczących względnych lub bezwzględnych szybkości wykonywania procesów 3. Proces nie może wykonywać swojej sekcji krytycznej nieskończenie długo (powinien wykonywać ją tak krótko jak to możliwe; patrz transakcje w DBMS) 4. W procesie nie może wystąpić nieobsłużony błąd w trakcie wykonywania sekcji krytycznej 5. Zachowanie procesów poza sekcją krytyczną nie może być w jakikolwiek sposób ograniczane (procesy powinny być luźno powiązane) 6. Wybór procesu wchodzącego do sekcji krytycznej powinien odbywać się w skończonym czasie 7. Proces nie może być wywłaszczany z przyznanego zasobu współdzielonego 8. Procesy nie mogą mieć przypisanych żadnych statycznych priorytetów 21

Wzajemne wykluczanie (3) Wzajemne wykluczanie realizuje się przez wykorzystanie instrukcji specjalnych przed wejściem do sekcji krytycznej i po wyjściu z niej (protokoły wstępny i końcowy) Przykład: while true begin przetwarzanie lokalne protokół wstępny strefa krytyczna protokół końcowy end Sekcja krytyczna jest otoczona specjalnymi blokami kodu Sekcje lokalne mogą być wykonywane współbieżnie przez wiele różnych procesów Warunek bezpieczeństwa jest realizowany przez zagwarantowanie, że dwa procesy/wątki nigdy nie znajdą się współbieżnie w swoich sekcjach krytycznych Wzajemne wykluczanie jest wymagane zarówno w systemach scentralizowanych jak i rozproszonych. Realizuje się je różnymi metodami (np. muteksy - w systemach scentralizowanych, tokeny - w systemach rozproszonych) 22

Poprawność programów sekwencyjnych W przypadku programów sekwencyjnych definicja poprawności wymaga spełnienia dwóch warunków: warunku stopu oraz tego, że dla dowolnych poprawnych danych wejściowych program/algorytm po zatrzymaniu da poprawne wyniki Poprawność programów współbieżnych Istnieją dwa warunki poprawności programów współbieżnych Bezpieczeństwo niedopuszczalność do sytuacji niepożądanej (wykluczenie stanu niepożądanego; wykluczenie niepożądanych przeplotów) Żywotność każdy proces w końcu wykona swoją pracę (w szczególności: otrzyma dostęp do współdzielonego zasobu) Przejawy braku żywotności Zakleszczenie (deadlock) globalny brak żywotności; dotyczy blokady całego systemu współbieżnego (zakleszczają się co najmniej dwa procesy/wątki). Jest łatwiejsze do wykrycia (ze względu na swój globalny charakter) Zagłodzenie (wykluczenie, lockout, starvation) lokalny brak żywotności. W jakich warunkach może dojść do zagłodzenia i jak eliminować takie warunki? 23

Poprawność programów współbieżnych W ogólności klasyczne testowanie programów nie daje dowodu na to, że dany program współbieżny jest poprawny Program współbieżny jest poprawny pod warunkiem jednoczesnego spełnienia obu warunków poprawności. Spełnienie jednego z warunków nie daje poprawnego rozwiązania Przykład: program współbieżny, w którym co najmniej jeden z procesów nie uzyska dostępu do zasobu współdzielonego może spełniać warunek bezpieczeństwa, ale nie jest to program poprawny, ponieważ nie spełnia warunku żywotności (zagłodzenie) 24

Zagłodzenie procesów Zagłodzenie procesu to stan programu współbieżnego, w którym dany proces jest wstrzymywany pomimo spełnienia warunków wznowienia Przykład 1: do zagłodzenia może dojść w sytuacji, gdy decyzja o przyznaniu zasobów jest oparta na priorytecie danego procesu oraz w puli procesów oczekujących na wznowienie zawsze istnieje proces o niższym priorytecie niż pozostałe. W takim przypadku prawdopodobieństwo zagłodzenia procesu zwiększa się wraz ze wzrostem częstotliwości zgłaszania żądań dostępu do zasobu Przykład 2: do zagłodzenia może dojść w przypadku losowego rozstrzygania o przyznaniu zasobów dla danego procesu. Przykład: Niech program współbieżny składa się z 3 procesów współzawodniczących o dostęp do zasobu współdzielonego 1. P1 uzyskuje dostęp do zasobu 2. P2 i P3 zgłaszają żądanie dostępu do zasobu 3. P1 zwalnia zasób, P2 i P3 konkurują 4. P2 wygrywa rywalizację i otrzymuje zasób, P3 oczekuje 5. P1 zgłasza żądanie dostępu do zasobu 6. P2 zwalnia zasób, P1 i P3 konkurują 7. P1 wygrywa rywalizację i otrzymuje zasób, P3 oczekuje 8. P2 zgłasza żądanie dostępu do zasobu 9. P1 zwalnia zasób, P2 i P3 konkurują 10. P2 wygrywa rywalizację i otrzymuje zasób, P3 oczekuje, 25

Zakleszczenie 3 4 1 2 26

Zakleszczenie. Warunki konieczne (niewystarczające) Wzajemne wykluczanie istnieje co najmniej jeden zasób, który w danym czasie może być wykorzystywany tylko przez jeden proces Brak wywłaszczania zasoby nie podlegają wywłaszczeniu, tzn. zasób nie może zostać odebrany zajmującemu go procesowi podczas wykorzystania zasobu Przetrzymywanie zasobu i oczekiwanie na inny Cykl w grafie oczekiwania na zasoby istnieje zamknięty łańcuch procesów (cykl), w którym każdy proces oczekuje na zasoby przetrzymywane przez proces poprzedzający, np. P1 zajmuje Z1, P2 zajmuje Z2, P1 oczekuje na Z2, P2 oczekuje na Z1 Uwaga: powyższe 4 warunki nie są niezależne 27

Strategie obsługi zakleszczeń (1) Zapobieganie (preventing) zapewnienie, że co najmniej jeden z powyższych warunków koniecznych jest niespełniony 1. Wzajemne wykluczanie rezygnacja z tego warunku w praktyce nie jest możliwa. Jest to jeden z podstawowych warunków poprawnego działania systemów współbieżnych 2. Brak wywłaszczania - wprowadzanie możliwości wywłaszczania, np. poprzez odbieranie udostępnionych zasobów procesowi, który żąda dostępu do zasobu zajętego przez inny proces. Problemy: Niskie wykorzystanie zasobów i ryzyko zagłodzenia procesów wykorzystujących dużą liczbę zasobów (małe prawdopodobieństwo skompletowania zestawu wymaganych zasobów). Narzut czasowy: wywłaszczenie procesu jest równoważne wycofaniu wszystkich operacji wykonanych dotychczas przez proces w sekcji krytycznej sekcja krytyczna jest traktowana jak operacja atomowa (wszystko albo nic) i przywrócenie stanu sprzed rozpoczęcia sekcji. Niepożądane szczególnie w przypadku systemów z dużym prawdopodobieństwem wystąpienia zakleszczenia 28

Strategie obsługi zakleszczeń (2) 3. Cykl w grafie oczekiwania na zasoby zanegowanie istnienia tego warunku wymaga takiego zarządzania przydziałem zasobów, by nie powstał cykl w grafie przydziału. Klasycznym rozwiązaniem jest algorytm Havendera, w którym każdy zasób posiada swój unikalny identyfikator liczbowy. Przydział zasobów danemu procesowi realizowany jest tak by numery zasobów tworzyły ciąg monotoniczny. Rozwiązanie wpływa na sposób zamawiania zasobów 4. Przetrzymywanie zasobu i oczekiwanie na inny - rezygnacja z przetrzymywania i oczekiwania na inny zasób może się sprowadzać do wymagania by proces otrzymywał komplet wymaganych zasobów (wszystko albo nic: proces otrzymuje komplet zasobów lub nie otrzymuje żadnego). Prowadzi to do problemów jak w punkcie wyżej. Biblioteki programistyczne udostępniają metody (np. trylock()), które gwarantują niedopuszczalność sytuacji zajęcia jednego zasobu i oczekiwania na inny. W takich przypadkach zasób jest zajmowany wyłącznie, gdy jest wolny. W takim przypadku wejście do sekcji krytycznej jest możliwe tylko wówczas, gdy wszystkie zasoby, które będą wykorzystywane w sekcji krytycznej są wolne. Rozwiązanie wpływa na sposób zamawiania zasobów 29

Strategie obsługi zakleszczeń (3) Unikanie (avoiding) - niedopuszczanie do sytuacji zakleszczenia poprzez proaktywne (z wyprzedzeniem) badanie żądań dostępu do zasobów. System może nie dopuścić do zakleszczenie przez badania aktualnie dostępnych zasobów, zasobów aktualnie przydzielonych do procesów oraz przyszłych żądań oraz zwolnień zasobów Wykrywanie i likwidacja. W przypadku, gdy system nie korzysta ani z algorytmu zapobiegania zakleszczeniom, ani z algorytmu ich unikania, to zakleszczenie może się pojawić. Wykrywanie i likwidacja zakleszczeń polega na cyklicznym monitorowaniu stanu systemu pod kątem istnienia zakleszczenia (np. cykl w grafie oczekiwania). Po zidentyfikowaniu zakleszczenia uruchamiany jest algorytm likwidacji zakleszczenia sprowadzający się do wywłaszczania kolejnych procesów aż do momentu, gdy zakleszczenie zostanie zlikwidowane. Procesy wywłaszczone nazywane są ofiarami zakleszczenia. Wskazanie ofiar pozwala funkcjonować pozostałym procesom systemu. Strategia wykrywania i likwidacji wiąże się z narzutem czasowym wynikającym m. in. z: czasu wykonania algorytmu wykrycia i likwidacji, interwału czasu pomiędzy wystąpieniem stanu zakleszczenia do momentu jego wykrycia. 30

Szeregowanie wątków lub procesów Procedury systemu operacyjnego (scheduler, dispatcher, planista) odpowiadają za szeregowanie wątków lub procesów do wykonania. Wybór dokonywany jest z puli wątków gotowych do wykonania (inne możliwe stany wątków: nowy, aktywny, gotowy do wykonania, czekający, zakończony) Procedury szeregujące mogą stosować różne strategie szeregowania i uwzględniać różne atrybuty wątków (priorytet, stan wątku, kolejność zgłaszania żądania dostępu do zasobu, szacowanego czasu do zakończenia wykonywania, etc.) Zadaniem schedulera jest zapewnienie optymalnego wykorzystania zasobów w systemach wielowątkowych (wieloprogramowych) Możliwe jest planowanie z wywłaszczaniem i bez wywłaszczania Planowanie bez wywłaszczania po przejściu wątku do stanu aktywnego planista pozostaje bezczynny aż do zakończenia fazy wykonywania wątku Planowanie wywłaszczaniem po przejściu wątku do stanu aktywnego wątkowi mogą być odebrane zasoby po zajściu odpowiedniego zdarzenia w systemie. Wówczas zasób oddawany jest innemu wątkowi z puli wątków gotowych do wykonania Strategie planowania: FCFS, SJF, priorytetowe, etc. 31

Synchronizacja niskopoziomowa. Algorytm Dekkera (1) Algorytm Dekkera jest algorytmem synchronizacji dwóch procesów/wątków współbieżnych bez konieczności odwoływania się do gotowych narzędzi synchronizacyjnych Algorytm Dekkera sprowadza się do odpowiedniego zakodowania sekcji wejściowej i wyjściowej chroniących sekcję krytyczną Przy założeniu dwóch procesów wymaga 3 zmiennych współdzielonych - czyja_kolej = {1,2}. Zmienna pełni rolę arbitra rozstrzygającego, który proces może wejść do sekcji krytycznej. Ustawienie inicjalne wartości zmiennej łamie symetrię pomiędzy procesami/wątkami i określa kolejność w jakiej będą one wykonywane - dwuelementowa tablica flag k. Każdy z procesów ma dostęp do jednego pola tablicy. Pole jest ustawiane na true, gdy dany proces chce wejść do sekcji krytycznej. Inicjalnie flagi ustawione są na false Każdy z procesów posiada swój identyfikator (np. identyfikator liczbowy) 32

Synchronizacja niskopoziomowa. Algorytm Dekkera (2) protokół wejściowy. P jest identyfikatorem procesu; przyjmuje wartości 1 lub 2 protokół wyjściowy 33

Synchronizacja niskopoziomowa. Algorytm Dekkera (3) Podana wersja algorytmu jest poprawna dla dwóch procesów/wątków. Algorytm można uogólnić do N procesów/wątków i wówczas wymaga 2N-1 zmiennych. Liczba procesów/wątków musi być znana z góry (niepraktyczne!) Poważnym problemem jest aktywne czekanie (busy waiting; proces oczekuje na udostępnienie zasobu wykonując pętlę sprawdzającą jego dostępność). Dlaczego aktywne czekanie jest problemem? Ponieważ proces oczekujący na wejście do swojej sekcji krytycznej jest wykonywany pożytkując czas procesora na wykonywanie pustych przebiegów pętli W ogólności mechanizm aktywnego czekania powinien być eliminowany z rozwiązań współbieżnych. Aktywne czekanie można zastąpić mechanizmem wstrzymywania wątków/procesów Czy w przypadku, gdy tylko jeden proces chce korzystać z sekcji krytycznej uzyskuje dostęp bez ograniczeń? Procesy korzystają z sekcji krytycznej naprzemiennie (wymuszone przez ustawianie zmiennej czyja_kolej). W przypadku, gdy jeden z procesów przerwie swoje działanie z błędem drugi z procesów jest blokowany 34

Algorytm Petersona. Podejście 1 Rozpatrzmy poniższy sposób synchronizacji za pomocą jednej zmiennej globalnej. Niech zmienna czyja_kolej jest inicjalnie ustawiona na wartość 1. Przykład: Pytanie: co dzieje się w sytuacji, gdy tylko jeden proces chce wchodzić do sekcji krytycznej? Można pokazać, że taki sposób rozwiązania posiada własność bezpieczeństwa, tzn. tylko jeden proces w danym momencie może przebywać w sekcji krytycznej Problem faworyzacji procesu na który wskazuje inicjalna wartość zmiennej czyja_kolej. Na czym polega faworyzowanie procesu? 35

Algorytm Petersona. Podejście 1 c.d. Algorytm nie spełnia warunku żywotności. Dany proces, teoretycznie, może dowolnie długo wykonywać swoją sekcję lokalną - w szczególności nieskończenie długo. W takim przypadku drugi z procesów nie wejdzie do sekcji krytycznej zostanie zagłodzony. Wynika to z naprzemienności wykonywania procesów Procesy są ściśle ze sobą powiązane: wykonują się w sekwencji 1,2,1,2,1,2, etc. Jako pierwszy wykona się zawsze wątek/proces wskazywany przez inicjalne ustawienie zmiennej czyja_kolej. Nie jest możliwe wykonanie procesów w sekwencji,1, 1,. lub, 2, 2, Powyższe jest problemem szczególnie w sytuacji, gdy czas wykonania sekcji lokalnych dwóch procesów znacznie się różni. W takiej sytuacji proces szybszy jest spowalniany przez proces wolniejszy (czeka na zakończenie jego pracy) Problem pojawia się w przypadku scenariusza, w którym tylko jeden z procesów chce uzyskiwać dostęp do sekcji krytycznej 36

Algorytm Petersona. Podejście 2 Rozpatrzmy próbę synchronizacji przy wykorzystaniu dwóch zmiennych logicznych (np. tablica o dwóch elementach), gdzie każdy z wątków/procesów ustawia odpowiednie pole tablicy na wartość true w przypadku, gdy jest w sekcji krytycznej. Inicjalnie obie zmienne (pola tablicy) są ustawione na false. W tym przypadku wątki/procesy nie są ze sobą ściśle powiązane, tzn. nie muszą się wykonywać w sekwencji - wątek który nie chce lub nie może wejść do sekcji nie blokuje drugiego z wątków Problem: występuje złamanie warunku bezpieczeństwa w danej chwili do sekcji krytycznej mogą wejść oba wątki 37

Algorytm Petersona. Podejście 2 c.d. Przykład przeplotu obu wątków prowadzący do naruszenia warunku bezpieczeństwa algorytmu: Wniosek: nie jest to poprawny algorytm synchronizacyjny ponieważ do sekcji krytycznej mogą wejść oba procesy nie spełnia warunku bezpieczeństwa 38

Algorytm Petersona. Podejście 3 W miejsce zmiennych logicznych reprezentujących fakt obecności (wejścia) wątku/procesu do sekcji wprowadźmy zmienne logiczne reprezentujące chęć wejścia wątku/procesu do sekcji krytycznej. Obie zmienne inicjalnie są ustawione na wartość false. Przykład: Wątek, który jako jedyny chce wykonywać sekcję krytyczną może tego dokonywać bez przeszkód (wątki nie są ze sobą powiązane) Algorytm daje program bezpieczny (spełniony jest warunek bezpieczeństwa) Algorytm narusza warunek żywotności prowadzi do zakleszczeń 39

Algorytm Petersona. Podejście 3 c.d. Przykład przeplotu prowadzącego do zakleszczenia W przypadku powyższego przeplotu nigdy nie zostanie zrealizowany warunek wyjścia z pętli aktywnego czekania procesów 1 i 2. Zakleszczenie Wniosek: nie jest to poprawny algorytm synchronizacyjny nie spełnia warunku żywotności 40

Algorytm Petersona. Ostateczna postać Algorytm Petersona Algorytm gwarantuje bezpieczeństwo i żywotność Algorytm posiada wszystkie wady algorytmu Dekkera: wymaga aktywnego czekania oraz chociaż można go uogólnić na dowolne N wątków/procesów, to wymaga w takim przypadku 2N-1 zmiennych, gdzie N musi być znane a priori 41

Algorytm Petersona. Ostateczna postać c.d. Przeanalizujmy przykład Wszystko jest OK. 42