Jak wygląda praca na klastrze
|
|
- Mateusz Przybylski
- 8 lat temu
- Przeglądów:
Transkrypt
1 Jak wygląda praca na klastrze Upraszczając nieco sprawę można powiedzieć, że klaster to dużo niezależnych komputerów (jednostek) połączonych mniej lub bardziej sprawną siecią. Często poszczególne jednostki połączone są (po kilka, kilkanaście...) w węzły. Komunikacja przez sieć między jednostkami z jednego węzła jest szybsza niż między jednostkami z różnych węzłów. Każda jednostka jest pełnym komputerem posiadającym swoją własną pamięć wewnętrzną i pełne możliwości samodzielnej pracy. Często pamięć dyskowa jest wspólna. Klastry które znam, należą do ICM na UW. Pracowałem na starym HALO, na nowszym HALO2, na NOTO- SIE (Blue Gene) i próbowałem na BOREASZU - trochę innym. 1
2 Wszystkie te maszyny są wyposażone w LINUX lub inny system operacyjny linuxo-podobny oraz w komplet najważniejszych kompilatorów (Fortran, C,...). Ja piszę programy w moim ulubionym, (lekko podrasowanym) Fortranie 77. Zwykle do wszystkich jednostek ładuje się ten sam program, który sam musi wiedzieć co ma w której jednostce robić. Do wszystkich udostepnionych maszyn użytkownik dostaje się poprzez maszynę DELTA. Wejście na każdy stopień wymaga podania hasła. Najwygodniej pracuje się poprzez ssh i sftp, z dowolnego komputera podłączonego do publicznej sieci. W ten sposób nasz komputer staje się terminalem wybranej maszyny. 2
3 Gdy mamy już skompilowany nasz program, aby uruchomić go na klastrze, musimy program wstawić do kolejki, gdzie czeka on na moment gdy zostanie wpuszczony do klastra i uruchomiony. Kolejka ma swoje dobre strony: gdy program jest w kolejce możemy, na przykład, pójść na spacer. Warto jednak, co pewien czas sprawdzać co w kolejce się dzieje. Przed wstawieniem programu do kolejki, trzeba przygotować dla niego odpowiedni script, to jest coś w rodzaju metryczki podającej różne niezbędne informacje o naszym programie. Taki script to rodzaj kilkulinijkowego formularza, który trzeba wypełnić i nadać mu nazwę, przy pomocy której nasz program jest identyfikowany. Przydział konkretnych procesorów następuje po odczytaniu przez system naszego scriptu. 3
4 Do komunikacji między procesorami (jednostkami) służy system podprogramów MPI (Message Passing Interface). Te podprogramy są wywoływalne w sposób standardowy z programów pisanych w Fortranie i C. Podprogramy MPI uruchamiają operacje potrzebne przy komunikacji międzyprocesorowej. Przytoczę tu te najważniejsze, w wersji dla Fortranu, wywoływane komendą call.... 4
5 Najczęściej korzysta się z buforowanego systemu przesyłania danych między procesorami. Bufor - to zarezerwowane miejsca pamięci służące do chwilowego przechowywania przesyłanych danych. Bufor trzeba zadeklarować na poczatku programu, przewidując dla niego dostatecznie dużą liczbę miejsc. Używając bufora unikamy ewentualnego zablokowania programu, spowodowanego kolizją przy przesyłaniu. Poniżej podaję tylko buforowe komendy MPI dotyczące przesyłania. 5
6 1. MPI Init(ierr) otwiera środowisko MPI. Zmienna całkowita ierr zawiera informacje, czy operacja się powiodła 2. MPI Comm Size(MPI Common World, size, ierr) zmienna całkowita size podaje liczbę procesorów które chcemy użyć; MPI Common World oznacza, że chcemy wybierać procesory z zasobu wszystkich dostępnych 3. MPI Comm Rank(MPI Common World, rank, ierr); komenda ustala, że zmienna całkowita rank będzie oznaczac numer procesora, liczony od 0 do size 1 4. MPI Finalize(ierr) zamyka środowisko MPI 6
7 5. MPI Buffer Attach(buffer,size,ierr), MPI Buffer Detach(buffer,size,ierr) dołączanie i odłączanie bufora buffer. 7
8 6. MPI Bsend(buf, count, datatype, dest, tag, Comm) buf oznacza wysyłany zbiór, count oznacza liczbę wysyłanych słów danych, datatype: MPI REAL, lub MPI REAL8, lub MPI Integer,... dest, to numer procesora dla którego przesyłka jest przeznaczona, zmienna naturalna tag, - to znacznik identyfikujący przesyłkę, Comm, - to użyty tu skrót dla MPI Common World 8
9 7. MPI Recv(buf, count, datatype, source, tag, Comm, status, ierr) buf oznacza zbiór do którego przyjmuje się przesyłkę, status i ierr - te zamienne całkowite zawierają informacje na temat aktualnego stanu operacji przesyłania i odbierania 9
10 8. MPI Barrier(Comm, ierr) każdy z wykonywanych procesów, czeka aż pozostałe procesy dotrą do tego miejsca 9. MPI Gather(sendbuf, sendcnt, sendtype, recvbuf, recvcnt, recvtype, root, Comm, ierr) zbieranie ze wszystkich procesów; sendbuf - zbiór wysyłany, recvbuf - zbiór do którego się zbiera, root numer procesora w którym wszystko się zbiera 10. MPI Allgather(sendbuf, sendcnt, sendtype, recvbuf, recvcnt, recvtype, Comm, info) to samo, co MPI Gather(), tylko zbieranie we wszystkich procesorach będących w uzyciu 10
11 11. MPI Reduce(sendbuf, recvbuf, count, datatype, op, root, Comm, ierr) przesyłanie sendbuf ze wszystkich procesów, do recvbuf w procesorze root i wykonywanie operacji op. Operacja op : MPI SUM, MPI PROD, MPI MIN, MPI MAX i wiele różnych operacji logicznych i innych 12. MPI Allreduce(sendbuf, recvbuf, count, datatype, op, Comm, ierr) to samo co MPI Reduce, tylko przesyłanie do wszystkich używanych procesorów 11
12 Kazda z maszyn ma nieco inny język scriptów, inny język porozumiewania sie w sprawie kolejki, sprawdzania stanu kolejki, wyciągania programów z kolejki itp. Więcej informacji niż wyżej podane na temat MPI - patrz przeglądarka Google. 12
Tryby komunikacji między procesami w standardzie Message Passing Interface. Piotr Stasiak Krzysztof Materla
Tryby komunikacji między procesami w standardzie Message Passing Interface Piotr Stasiak 171011 Krzysztof Materla 171065 Wstęp MPI to standard przesyłania wiadomości (komunikatów) pomiędzy procesami programów
Weryfikacja oprogramowania, korzystajacego z MPI
Weryfikacja oprogramowania, korzystajacego z MPI Krzysztof Nozderko kn201076@students.mimuw.edu.pl 23 maja 2005 Wprowadzenie Równoległe obliczenia olbiczenia naukowców sa często bardzo kosztowne obliczeniowo
51. Metody komunikacji nieblokującej.
51. Metody komunikacji nieblokującej. Funkcje nieblokujace różnia sie od wersji blokujacych przedrostkiem I (immediate) w nazwie oraz jednym dodatkowym argumentem: request, który jest używany do sprawdzenia,
Programowanie Równoległe Wykład 5. MPI - Message Passing Interface. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe Wykład 5 MPI - Message Passing Interface Maciej Matyka Instytut Fizyki Teoretycznej Dorobiliśmy się strony WWW www.ift.uni.wroc.pl/~koma/pr/index.html MPI, wykład 2. Plan: - komunikacja
Programowanie Równoległe Wykład 4. MPI - Message Passing Interface. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe Wykład 4 MPI - Message Passing Interface Maciej Matyka Instytut Fizyki Teoretycznej Jak używać w MPI? Donald Knuth: We should forget about small efficiencies, say about 97% of
Architektura sieci połączeń między procesorami, sterowanie komunikacjami, biblioteki komunikacyjne
Wykład 4 Architektura sieci połączeń między procesorami, sterowanie komunikacjami, biblioteki komunikacyjne Spis treści: 1. Statyczne sieci połączeń w systemach równoległych 2. Dynamiczne sieci połączeń
Programowanie współbieżne... (4) Andrzej Baran 2010/11
Programowanie współbieżne... (4) Andrzej Baran 2010/11 LINK: http://kft.umcs.lublin.pl/baran/prir/index.html Przykład Zaczniemy od znanego już przykładu: Iloczyn skalarny różne modele Programowanie współbieżne...
Modele programowania równoległego. Programowanie z przekazywaniem komunikatów Message-Passing Programming Rafał Walkowiak dla PR PP
Modele programowania równoległego Programowanie z przekazywaniem komunikatów Message-Passing Programming Rafał Walkowiak dla PR PP MPP - Cechy charakterystyczne 1 Prywatna, wyłączna przestrzeń adresowa.
Modele programowania równoległego. Programowanie z przekazywaniem komunikatów Message-Passing Programming Rafał Walkowiak
Modele programowania równoległego Programowanie z przekazywaniem komunikatów Message-Passing Programming Rafał Walkowiak MPP - Cechy charakterystyczne 1 Prywatna - wyłączna przestrzeń adresowa. Równoległość
WST P DO PROGRAMOWANIA RÓWNOLEGŠEGO 1. KLASTER
WST P DO PROGRAMOWANIA RÓWNOLEGŠEGO 1. KLASTER Klaster jest zespoªem pewnej liczby samodzielnych komputerów (procesorów). Ka»dy z nich posiada swoj pami wewn trzn do jego prywatnego u»ytku. Procesory pogrupowane
Operacje kolektywne MPI
Operacje kolektywne MPI 1 Operacje kolektywne Do tej pory w operacje przesyłania komunikatu miały charakter punkt-punkt (najczęściej pomiędzy nadawcą i odbiorcą). W operacjach grupowych udział biorą wszystkie
Operacje grupowego przesyłania komunikatów
Operacje grupowego przesyłania komunikatów 1 Operacje grupowego przesyłania komunikatów Operacje, w ramach których ten sam komunikat lub zbiór komunikatów przesyłany jest pomiędzy więcej niż dwoma procesami
Programowanie współbieżne Wykład 11 Wprowdzenie do MPI. Rafał Skinderowicz
Programowanie współbieżne Wykład 11 Wprowdzenie do MPI Rafał Skinderowicz Programowanie dla modelu z rozproszoną pamiecią Niezależne strumienie instrukcji wykonywane na (być może) oddalonych fizycznie
Programowanie współbieżne Wykład 12 MPI c.d. Rafał Skinderowicz
Programowanie współbieżne MPI c.d. Rafał Skinderowicz Komunikacja grupowa Poprzednio rozważaliśmy komunikację między parami procesów synchroniczna (blokująca) np. MPI Recv, MPI Send asynchroniczna (nieblokująca)
Miary Wydajności. Efektywność programu równoległego (E) jest definiowana jako stosunek przyśpieszenia do liczby procesorów
Miary Wydajności Czas wykonania równoległego (Tpar) jest czasem pomiędzy momentem rozpoczęcia obliczeń do momentu gdy ostatni procesor zakończy obliczenia Przyspieszenie (S) jest definiowane jako stosunek
Programowanie w modelu przesyłania komunikatów specyfikacja MPI. Krzysztof Banaś Obliczenia równoległe 1
Programowanie w modelu przesyłania komunikatów specyfikacja MPI Krzysztof Banaś Obliczenia równoległe 1 Model przesyłania komunikatów Paradygmat send receive wysyłanie komunikatu: send( cel, identyfikator_komunikatu,
Operacje grupowego przesyłania komunikatów. Krzysztof Banaś Obliczenia równoległe 1
Operacje grupowego przesyłania komunikatów Krzysztof Banaś Obliczenia równoległe 1 Operacje grupowego przesyłania komunikatów Operacje, w ramach których ten sam komunikat lub zbiór komunikatów przesyłany
Podstawy programowania komputerów
Podstawy programowania komputerów Wykład 14: Programowanie współbieżne w C Definicja programowania współbieżnego Programowanie współbieżne jest tworzeniem programów, których wykonanie powoduje uruchomienie
Spis treści. Opis urządzenia. Pierwsze użycie
Spis treści Opis urządzenia... 1 Pierwsze użycie... 1 Podstawowa obsługa urządzenia... 2 Opis diod LED... 2 Przygotowania do odczytu danych z urządzenia... 2 Proces instalacji... 3 Zmiana domyślnego sterownika
O superkomputerach. Marek Grabowski
O superkomputerach Marek Grabowski Superkomputery dziś Klastry obliczeniowe Szafy (od zawsze) Bo komputery są duże Półki i blade'y (od pewnego czasu) Większe upakowanie mocy obliczeniowej na m^2 Łatwiejsze
Działanie systemu operacyjnego
Budowa systemu komputerowego Działanie systemu operacyjnego Jednostka centralna dysku Szyna systemowa (magistrala danych) drukarki pamięci operacyjnej I NIC sieci Pamięć operacyjna Przerwania Przerwania
61 Topologie wirtualne
61 Topologie wirtualne pozwalają opisać dystrybucję procesów w przestrzeni z uwzględnieniem struktury komunikowania się procesów aplikacji między sobą, umożliwiają łatwą odpowiedź na pytanie: kto jest
Optymalizacja komunikacji w systemach rozproszonych i równoległych
Optymalizacja komunikacji w systemach rozproszonych i równoległych Szkolenie PCSS, 16.12.2001 literatura W. Gropp, E. Lusk, An Introduction to MPI, ANL P.S. Pacheco, A User s Guide to MPI, 1998 Ian Foster,
Kopiowanie plików. 1. Z sieci wewnętrznej PK. System Windows
Kopiowanie plików Podczas przesyłania lub pobierania plików zalecane jest używanie protokołu scp lub sftp Klaster Mustang działa w tym samym systemie NIS co Perszeron dlatego pliki skopiowane na macierz
Programowanie w modelu przesyłania komunikatów specyfikacja MPI, cd. Krzysztof Banaś Obliczenia równoległe 1
Programowanie w modelu przesyłania komunikatów specyfikacja MPI, cd. Krzysztof Banaś Obliczenia równoległe 1 Środowisko przesyłania komunikatów MPI Rodzaje procedur: blokujące nieblokujące Tryby przesyłania
Jak ujarzmić hydrę czyli programowanie równoległe w Javie. dr hab. Piotr Bała, prof. UW ICM Uniwersytet Warszawski
Jak ujarzmić hydrę czyli programowanie równoległe w Javie dr hab. Piotr Bała, prof. UW ICM Uniwersytet Warszawski Prawo Moore a Ekonomicznie optymalna liczba tranzystorów w układzie scalonym zwiększa się
Wstęp 5 Rozdział 1. SUSE od ręki 13
Wstęp 5 Rozdział 1. SUSE od ręki 13 KDE czy GNOME? 13 Jak uruchomić SUSE Live-CD z interfejsem GNOME? 14 Jak uruchomić SUSE Live-CD z interfejsem KDE? 15 Jak zmienić rozdzielczość ekranu? 16 Jak wyświetlić
Obliczenia rozproszone MPI
Obliczenia rozproszone MPI 1. Informacje ogólne MPI (Message Passing Interface) nazwa standardu biblioteki przesyłania komunikatów dla potrzeb programowania równoległego w sieciach rozproszonych. Aktualna
Programowanie w standardzie MPI
Programowanie w standardzie MPI 1 2 Podstawy programowania z przesyłaniem komunikatów Model systemu równoległego w postaci p procesów, każdy z nich z własną przestrzenią adresową, nie współdzieloną z innymi
Procesy i wątki. Blok kontrolny procesu. Proces. Proces - elementy. Stan procesu
Proces Procesy i wątki Proces jest wykonywanym programem. Wykonanie procesu musi przebiegać w sposób sekwencyjny ( w dowolnej chwili na zamówienie naszego procesu może być wykonany co najwyżej jeden rozkaz
Pracownia Technik Obliczeniowych
Pracownia Technik Obliczeniowych SLURM Paweł Daniluk Wydział Fizyki Wiosna 2016 P. Daniluk(Wydział Fizyki) PTO VIII Wiosna 2016 1 / 17 Przetwarzanie wsadowe Zasoby superkomputera z reguły dzielone są pomiędzy
Działanie systemu operacyjnego
Działanie systemu operacyjnego Budowa systemu komputerowego I NIC Jednostka centralna Sterownik dysku Sterownik drukarki Sterownik sieci Szyna systemowa (magistrala danych) Sterownik pamięci operacyjnej
Wstęp do programowania 2
Wstęp do programowania 2 wykład 10 Zadania Agata Półrola Wydział Matematyki UŁ 2005/2006 http://www.math.uni.lodz.pl/~polrola Współbieżność dotychczasowe programy wykonywały akcje sekwencyjnie Ada umożliwia
Proces y i y w i ąt ą ki
Procesy i wątki Proces Proces jest wykonywanym programem. Wykonanie procesu musi przebiegać w sposób sekwencyjny ( w dowolnej chwili na zamówienie naszego procesu może być wykonany co najwyżej jeden rozkaz
Kolejki FIFO (łącza nazwane)
Kolejki FIFO (łącza nazwane) Systemy Operacyjne 2 laboratorium Mateusz Hołenko 6 listopada 2011 Plan zajęć 1 Łącza w systemie Linux kolejki FIFO vs. potoki specyfika łączy nazwanych schemat komunikacji
Logowanie z zewnątrz. Np. Program PUTTY, SSH
Logowanie z zewnątrz Np. Program PUTTY, SSH ssh login@wizard.igf.fuw.edu.pl Jestem na wizardzie w sieci IGFu, mam dostęp do swoich katalogów $HOME, widzę terminal linuxa (bash) mogę zalogować się do wszystkich
Działanie systemu operacyjnego
Działanie systemu operacyjnego Budowa systemu komputerowego Jednostka centralna Sterownik dysku Sterownik drukarki Sterownik sieci Szyna systemowa (magistrala danych) Sterownik pamięci operacyjnej Pamięć
Praca z programami SAS poza lokalną siecią komputerową UZ. Zestawienie tunelu SSH oraz konfiguracja serwera proxy w przeglądarce WWW
Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Praca z programami SAS poza lokalną siecią komputerową UZ. Zestawienie tunelu SSH oraz konfiguracja serwera proxy w przeglądarce
Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.
Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.pl Cele prezentacji Zapoznanie potencjalnych użytkowników z
BF20 JTAG dla ARM ów z interfejsem USB Instrukcja obsługi
BF20 JTAG dla ARM ów z interfejsem USB Instrukcja obsługi Copyright (c) 2007 2008 Boff Spis treści 1. Opis urządzenia...3 2. Instalacja oprogramowania w Windows...4 3. Instalacja oprogramowania w UBUNTU
Działanie systemu operacyjnego
Budowa systemu komputerowego Działanie systemu operacyjnego Jednostka centralna dysku Szyna systemowa (magistrala danych) drukarki pamięci operacyjnej sieci Pamięć operacyjna Przerwania Przerwania Przerwanie
Mechanizmy z grupy IPC
Mechanizmy z grupy IPC Podobnie jak łącza, IPC (Inter Process Communication) jest grupą mechanizmów komunikacji i synchronizacji procesów działających w ramach tego samego systemu operacyjnego. W skład
Struktura i funkcjonowanie komputera pamięć komputerowa, hierarchia pamięci pamięć podręczna. System operacyjny. Zarządzanie procesami
Rok akademicki 2015/2016, Wykład nr 6 2/21 Plan wykładu nr 6 Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia niestacjonarne I stopnia Rok akademicki 2015/2016
SYSTEMY OPERACYJNE: STRUKTURY I FUNKCJE (opracowano na podstawie skryptu PP: Królikowski Z., Sajkowski M. 1992: Użytkowanie systemu operacyjnego UNIX)
(opracowano na podstawie skryptu PP: Królikowski Z., Sajkowski M. 1992: Użytkowanie systemu operacyjnego UNIX) W informatyce występują ściśle obok siebie dwa pojęcia: sprzęt (ang. hardware) i oprogramowanie
Model sieci OSI, protokoły sieciowe, adresy IP
Model sieci OSI, protokoły sieciowe, adresy IP Podstawę działania internetu stanowi zestaw protokołów komunikacyjnych TCP/IP. Wiele z używanych obecnie protokołów zostało opartych na czterowarstwowym modelu
Integracja ORPPD z uczelnianymi systemami antyplagiatowymi
Integracja ORPPD z uczelnianymi systemami antyplagiatowymi Jarosław Protasiewicz Ośrodek Przetwarzania Informacji - Państwowy Instytut Badawczy Europejskie Forum Antyplagiatowe - EFA 2015 Warszawa, 19
Wprowadzenie do MPI. Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.
Wprowadzenie do MPI Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl Maciej Cytowski m.cytowski@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl
Architektura komputerów
Architektura komputerów Tydzień 11 Wejście - wyjście Urządzenia zewnętrzne Wyjściowe monitor drukarka Wejściowe klawiatura, mysz dyski, skanery Komunikacyjne karta sieciowa, modem Urządzenie zewnętrzne
Interfejs MPI. Maciej Kasperski, Rafał Kozik. 16 kwietnia 2008
16 kwietnia 2008 Wprowadzenie Co to jest MPI? Plan prezentacji: co to jest MPI? komunikatory i grupy procesów; przesyłanie komunikatów; komunikacja kolektywna; wirtualne topologie;. Co to jest MPI? Wstęp
5. Model komunikujących się procesów, komunikaty
Jędrzej Ułasiewicz str. 1 5. Model komunikujących się procesów, komunikaty Obecnie stosuje się następujące modele przetwarzania: Model procesów i komunikatów Model procesów komunikujących się poprzez pamięć
(BSS) Bezpieczeństwo w sieciach WiFi szyfrowanie WEP.
Do wykonania ćwiczenia będą potrzebne dwa komputery wyposażone w bezprzewodowe karty sieciową oraz jeden Access Point. 1. Do interfejsu sieciowego komputera, z uruchomionym systemem Windows XP podłącz
Proces obsługi deklaracji Intrastat w systemie Celina WebCel
Proces obsługi deklaracji Intrastat w systemie Celina WebCel Jednym ze sposobów przesłania deklaracji INTRASTAT do Polskiej Administracji Celnej jest skorzystanie z serwisu Celina Webcel, który służy przekazywaniu
Ćwiczenie nr: 9 Obliczenia rozproszone MPI
Ćwiczenie nr: 9 Temat: Obliczenia rozproszone MPI 1. Informacje ogólne MPI (Message Passing Interface) nazwa standardu biblioteki przesyłania komunikatów dla potrzeb programowania równoległego w sieciach
Instrukcja krok po kroku instalacji Windows Vista w nowym komputerze
Instrukcja krok po kroku instalacji Windows Vista w nowym komputerze Dostajemy wiele sygnałów od użytkowników portalu VISTA.PL w sprawie instalacji Windows Vista krok po kroku. W tym FAQ zajmę się przypadkiem
Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Programowanie równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 23 października 2009 Spis treści Przedmowa...................................................
2009-03-21. Paweł Skrobanek. C-3, pok. 321 e-mail: pawel.skrobanek@pwr.wroc.pl http://pawel.skrobanek.staff.iiar.pwr.wroc.pl
Wrocław 2007-09 SYSTEMY OPERACYJNE WYKLAD 2 Paweł Skrobanek C-3, pok. 321 e-mail: pawel.skrobanek@pwr.wroc.pl http://pawel.skrobanek.staff.iiar.pwr.wroc.pl 1 PLAN: 2. Usługi 3. Funkcje systemowe 4. Programy
Programowanie współbieżne i rozproszone
Programowanie współbieżne i rozproszone WYKŁAD 2 Jan Kazimirski 1 MPI 1/2 2 Dlaczego klastry komputerowe? Wzrost mocy obliczeniowej jednego jest coraz trudniejszy do uzyskania. Koszt dodatkowej mocy obliczeniowej
Procesy i wątki. Blok kontrolny procesu. Proces. Proces - elementy. Stan procesu. Blok kontrolny procesu
Proces Procesy i wątki Proces jest wykonywanym programem. Wykonanie procesu musi przebiegać w sposób sekwencyjny ( w dowolnej chwili na zamówienie naszego procesu może być wykonany co najwyżej jeden rozkaz
Stan procesu. gotowy - czeka na przydział procesora, zakończony - zakończył działanie.
Procesy i wątki Proces Proces jest wykonywanym programem. Wykonanie procesu musi przebiegać w sposób sekwencyjny ( w dowolnej chwili na zamówienie naszego procesu może być wykonany co najwyżej jeden rozkaz
Praca zdalna z poziomu systemu Linux
Praca zdalna z poziomu systemu Linux Nawiązanie połączenie ze zdalną maszyną w systemach Linux możliwe jest poprzez wykorzystanie protokołów ssh oraz sshfs. Protokół ssh wykorzystywany jest do terminalowego
Praca z programami SAS poza lokalną siecią komputerową UZ. Zestawienie tunelu SSH oraz konfiguracja serwera proxy w przeglądarce WWW
Instytut Sterowania i Systemów Informatycznych Uniwersytet Zielonogórski Praca z programami SAS poza lokalną siecią komputerową UZ. Zestawienie tunelu SSH oraz konfiguracja serwera proxy w przeglądarce
Komunikacja w sterownikach Horner APG w sieci CsCAN
Komunikacja w sterownikach Horner APG w sieci CsCAN Sieć CsCAN dostępna we wszystkich sterownikach firmy Horner APG może zostać wykorzystana do przesyłania danych pomiędzy sterownikami oraz do programowana
Wprowadzenie. Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra.
N Wprowadzenie Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra. Wprowadzenie (podział ze względu na przeznaczenie) Wysokiej dostępności 1)backup głównego
Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4
Wykład 4 p. 1/14 Obliczenia równoległe w zagadnieniach inżynierskich Wykład 4 Dr inż. Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Klastry Wykład
Działanie komputera i sieci komputerowej.
Działanie komputera i sieci komputerowej. Gdy włączymy komputer wykonuje on kilka czynności, niezbędnych do rozpoczęcia właściwej pracy. Gdy włączamy komputer 1. Włączenie zasilania 2. Uruchamia
Instrukcja do laboratorium Systemów Operacyjnych (semestr drugi)
Instrukcja do laboratorium Systemów Operacyjnych (semestr drugi) wiczenie trzecie Temat: Potoki i ł cza nazwane w Linuksie. Opracowanie: mgr in ż. Arkadiusz Chrobot Wprowadzenie 1. Komunikacja z wykorzystaniem
Message Passing Interface
Message Passing Interface Interfejs programowania definiujący powiązania z językami C, C++, Fortran Standaryzacja (de facto) i rozszerzenie wcześniejszych rozwiązań dla programowania z przesyłaniem komunikatów
Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang.
Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang. Klaster Perszeron pracuje pod kontrolą systemu SuSE Linux Enterprise Server 10 w wersji 64bitowej i wyposażony jest w zestaw standardowych
Obliczenia rozproszone MPI
Obliczenia rozproszone MPI 1. Informacje ogólne MPI (Message Passing Interface) nazwa standardu biblioteki przesyłania komunikatów dla potrzeb programowania równoległego w sieciach rozproszonych. Aktualna
Konfiguracja komunikacji w sterownikach Horner APG w sieci CsCAN
INFORMATOR TECHNICZNY HORNER Informator techniczny nr 13 -- grudzień 2008 Konfiguracja komunikacji w sterownikach Horner APG w sieci CsCAN Sieć CsCAN dostępna we wszystkich sterownikach firmy Horner APG
Algorytmy i Struktury Danych
POLITECHNIKA KRAKOWSKA - WIEiK KATEDRA AUTOMATYKI i TECHNIK INFORMACYJNYCH Algorytmy i Struktury Danych www.pk.edu.pl/~zk/aisd_hp.html Wykładowca: dr inż. Zbigniew Kokosiński zk@pk.edu.pl Wykład 12: Wstęp
Programowanie Współbieżne
Programowanie Współbieżne MPI ( główne źródło http://pl.wikipedia.org/wiki/mpi) 1 Historia Początkowo (lata 80) różne środowiska przesyłania komunikatów dla potrzeb programowania równoległego. Niektóre
System komputerowy. Sprzęt. System komputerowy. Oprogramowanie
System komputerowy System komputerowy (ang. computer system) to układ współdziałaniadwóch składowych: sprzętu komputerowegooraz oprogramowania, działających coraz częściej również w ramach sieci komputerowej.
ZAKŁAD SYSTEMÓW ROZPROSZONYCH. Politechnika Rzeszowska BEZPIECZEŃSTWO I OCHRONA INFORAMCJI
ZAKŁAD SYSTEMÓW ROZPROSZONYCH Politechnika Rzeszowska BEZPIECZEŃSTWO I OCHRONA INFORAMCJI Laboratorium 9: ARP spoofing 1. Wstęp teoretyczny ARP spoofing ARP spoofing jest bardzo efektywnym sposobem na
Organizacja typowego mikroprocesora
Organizacja typowego mikroprocesora 1 Architektura procesora 8086 2 Architektura współczesnego procesora 3 Schemat blokowy procesora AVR Mega o architekturze harwardzkiej Wszystkie mikroprocesory zawierają
Obliczenia rozproszone z wykorzystaniem MPI
Obliczenia rozproszone z wykorzystaniem Zarys wst u do podstaw :) Zak lad Metod Obliczeniowych Chemii UJ 8 sierpnia 2005 1 e konkretniej Jak szybko, i czemu tak wolno? 2 e szczegó lów 3 Dyspozytor Macierz
Materiały dodatkowe. Raspberry Pi
Katedra Inżynierii Systemów Sterowania Materiały dodatkowe Raspberry Pi Opracowali: mgr inż. Tomasz Karla Data: Listopad, 2016 r. Dodatkowe informacje Materiały dodatkowe mają charakter ogólny i służą
IV - INSTRUKCJE SIECIOWE SPIS TREŚCI: 1. Charakterystyka protokołu komunikacyjnego PPI...2. 2. Charakterystyka interfejsu MPI...5
SPIS TREŚCI: 1. Charakterystyka protokołu komunikacyjnego PPI...2 2. Charakterystyka interfejsu MPI...5 3. Parametry magistrali sieciowej wykorzystującej protokół PPI...6 4. Charakterystyka instrukcji
Dariusz Kozak ZESTAW URUCHOMIENIOWY MIKROKOMPUTERÓW JEDNOUKŁADOWYCH MCS-51 ZUX51. Loader LX51 INSTRUKCJA OBSŁUGI. 2012 DK Wszystkie prawa zastrzeżone
Dariusz Kozak ZESTAW URUCHOMIENIOWY MIKROKOMPUTERÓW JEDNOUKŁADOWYCH MCS-51 ZUX51 Loader LX51 INSTRUKCJA OBSŁUGI 2012 DK Wszystkie prawa zastrzeżone Kopiowanie, powielanie i rozpowszechnianie jest dozwolone
Telnet. Telnet jest najstarszą i najbardziej elementarną usługą internetową.
Telnet Telnet jest najstarszą i najbardziej elementarną usługą internetową. Telnet standard protokołu komunikacyjnego używanego w sieciach komputerowych do obsługi odległego terminala w architekturze klient-serwer.
Optymalizacja programów Open Source. Profilery wysokiego poziomu część 2. Krzysztof Lichota
Optymalizacja programów Open Source Profilery wysokiego poziomu część 2 Krzysztof Lichota lichota@mimuw.edu.pl gprof gprof Pomiar działa na zasadzie instrumentacji kompilowanego kodu (wejścia i wyjścia
Wykład 3. Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy
Wykład 3 Złożoność i realizowalność algorytmów Elementarne struktury danych: stosy, kolejki, listy Dynamiczne struktury danych Lista jest to liniowo uporządkowany zbiór elementów, z których dowolny element
Materiały dodatkowe. Simulink Real-Time
Katedra Inżynierii Systemów Sterowania Materiały dodatkowe Simulink Real-Time Opracowali: mgr inż. Tomasz Karla Data: Listopad, 2016 r. Wstęp Simulink Real-Time jest środowiskiem pozwalającym na tworzenie
WAŻNE! PRZECZYTAJ KONIECZNIE!
Pl_Omicron Addendum.fm Page 68 Wednesday, September 17, 2003 12:23 PM WAŻNE! PRZECZYTAJ KONIECZNIE! W przypadku każdego urządzenia magazynującego, które wykorzystuje nośniki cyfrowe, należy regularnie
SPIS TREŚCI: 1. Charakterystyka protokołu komunikacyjnego PPI... 2 str. 2. Charakterystyka interfejsu MPI... 4 str.
SPIS TREŚCI: 1. Charakterystyka protokołu komunikacyjnego PPI... 2 str. 2. Charakterystyka interfejsu MPI... 4 str. 3. Parametry magistrali sieciowej wykorzystującej protokół PPI... 5 str. 4. Charakterystyka
Instrukcja pobrania i instalacji. certyfikatu niekwalifikowanego na komputerze lub karcie kryptograficznej wersja 1.2
Instrukcja pobrania i instalacji certyfikatu niekwalifikowanego na komputerze lub karcie kryptograficznej wersja 1.2 Spis treści 1. NIEZBĘDNE ELEMENTY DO WGRANIA CERTYFIKATU NIEKWALIFIKOWANEGO NA KARTĘ
Wprowadzenie do MPI. Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski
Wprowadzenie do MPI Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl Maciej Cytowski m.cytowski@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl
Kolejne funkcje MPI 1
Kolejne funkcje MPI 1 Przypomnienie: sieci typu mesh (Grama i wsp.) 2 Topologie MPI Standard MPI abstrahuje od topologii systemu wieloprocesorowego. Sposób uruchamiania aplikacji (mpirun) nie jest częścią
1. Instalacja modułu w systemie Windows.
1. Instalacja modułu w systemie Windows. W urządzeniach dołączanych do sieci lokalnej LAN zastosowano moduły firmy DIGI. Sterowniki dostarczone przez producenta tworzą w systemie Windows wirtualny port
Zarządzanie użytkownikami w
Zarządzanie użytkownikami w systemie Linux Konta użytkowników Konto to wszystkie pliki, zasoby i informacje należące do użytkownika. Każdy użytkownik jest identyfikowany przez unikatową liczbę całkowitą
1. Pierwszy program. Kompilator ignoruje komentarze; zadaniem komentarza jest bowiem wyjaśnienie programu człowiekowi.
1. Pierwszy program // mój pierwszy program w C++ #include using namespace std; cout
Systemy zarządzania produkcją - MES
Systemy zarządzania produkcją - MES Laboratorium 1: Instalacja i konfiguracja środowiska Qcadoo MES 2014 Instalacja środowiska Qcadoo MES Najprostszym sposobem instalacji środowiska Qcadoo MES jest pobranie
Programowanie Równoległe Wykład 5. MPI - Message Passing Interface (część 3) Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe Wykład 5 MPI - Message Passing Interface (część 3) Maciej Matyka Instytut Fizyki Teoretycznej MPI, wykład 3. Plan: - wirtualne topologie - badanie skalowanie czasu rozwiązania
Tytuł: Instrukcja obsługi Modułu Komunikacji internetowej MKi-sm TK / 3001 / 016 / 002. Wersja wykonania : wersja oprogramowania v.1.
Zakład Elektronicznych Urządzeń Pomiarowych POZYTON sp. z o. o. 42-200 Częstochowa ul. Staszica 8 p o z y t o n tel. : (034) 361-38-32, 366-44-95, 364-88-82, 364-87-50, 364-87-82, 364-87-62 tel./fax: (034)
Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>
Architektura, oprogramowanie i uytkowanie klastra PCSS Marek Zawadzki Plan prezentacji: klastry krótkie wprowadzenie klaster PCSS budowa jak otrzyma konto na klastrze sposób dostpu
ABA-X3 PXES v. 1.5.0 Podręczna instrukcja administratora. FUNKCJE SIECIOWE Licencja FDL (bez prawa wprowadzania zmian)
Grupa Ustawienia Sieciowe umożliwia skonfigurowanie podstawowych parametrów terminala: Interfejs ETH0 Umożliwia wybór ustawień podstawowego interfejsu sieciowego. W przypadku wyboru DHCP adres oraz inne
Technologie informacyjne (2) Zdzisław Szyjewski
Technologie informacyjne (2) Zdzisław Szyjewski Technologie informacyjne Technologie pracy z komputerem Funkcje systemu operacyjnego Przykłady systemów operacyjnych Zarządzanie pamięcią Zarządzanie danymi
ZASADY PROGRAMOWANIA KOMPUTERÓW
POLITECHNIKA WARSZAWSKA Instytut Automatyki i i Robotyki ZASADY PROGRAMOWANIA KOMPUTERÓW Język Język programowania: C/C++ Środowisko programistyczne: C++Builder 6 Wykład 9.. Wskaźniki i i zmienne dynamiczne.
SYSTEMY OPERACYJNE WYKLAD 6 - procesy
Wrocław 2007 SYSTEMY OPERACYJNE WYKLAD 6 - procesy Paweł Skrobanek C-3, pok. 323 e-mail: pawel.skrobanek@pwr.wroc.pl www.equus.wroc.pl/studia.html 1 Zasoby: PROCES wykonujący się program ; instancja programu
System Rozproszone Komunikator Dokumentacja. Maciej Muszkowski Jakub Narloch
System Rozproszone Komunikator Dokumentacja Maciej Muszkowski Jakub Narloch Wymagania Zgodnie ze wstępnymi założeniami komunikator musi, realizowad następujące funkcje: 1. Jest oparty o model Peer2Peer,