Migracja obliczeń na system Hydra

Wielkość: px
Rozpocząć pokaz od strony:

Download "Migracja obliczeń na system Hydra"

Transkrypt

1 Migracja obliczeń na system Hydra Uniwersytet Warszawski Matematycznego i Komputerowego Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl

2 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

3

4 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

5 Login.icm.edu.pl Logowanie do sieci ICM Używamy protokołu SSH Putty (Windows), ssh (Linux, Mac) Łączenie poprzez serwer dostępowy (kolejkowy) login.icm.edu.pl (hpc.icm.edu.pl) Zastępuje dostęp przez delta/gw/atol

6 Organizacja zasobów Serwer login posiada dostęp do wszystkich ważniejszych zasobów dyskowych z różnych maszyn Aktualnie z wyjątkiem: Boreasz-a (Power775) Nie ma potrzeby podwójnego transferowania danych z przesiadką na delcie Możliwość zlecania zadań bezpośrednio na systemy: Hydra, Halo2, Grom W przygotowaniu: Nostromo (BlueGene/Q) Nie dotyczy: Notos(BlueGene/P),Boreasz (Power775)

7 Organizacja zasobów cd. Kompilacje wykonujemy na docelowej maszynie (Nostromo) lub na węzłach obliczeniowych (Hydra, Halo2, Grom) Kompilacja w trybie cross-compilation nie dostępna na serwerze kolejkowym (login)

8 Organizacja zasobów (schemat) Internet (Dom, Instytut) ssh login.icm.edu.pl /icm/* ssh boreasz notos nostromo /icm/nostromo/home hydra/grom /icm/hydra/home /icm/hydra/software /icm/hydra/* halo2 /icm/halo2/home slurm /icm/home /icm/tmp

9 Dostępne informacje Strona wiki centrum obliczeniowego ICM UW

10 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

11 O Hydrze Hydra to klaster serwerów HP i Supermicro ogólnego przeznaczenia, wyposażony w procesory AMD i Intel. System dostępny jest dla wszystkich posiadających konta w infrastrukturze PL-Grid, dla użytkowników KDM, dla członków organizacji związanych z CERN. Dostęp do klastra możliwy jest poprzez ssh, podobnie, jak w przypadku innych maszyn ICM, przy pomocy narzędzi takich, jak: UNICORE, QosCosGrid czy glite. Systemy zainstalowane na klastrze to Scientific Linux, SLURM, Lustre.

12 Hydra specyficzne własności Własności węzłów (constraint) Model CPU Liczba CPU x rdzeni RAM Roboczy system plików(scratch) Interconnect Liczba węzłów AMD2435,ib,noht AMD Opteron x 6 32 GB 250 GB Infiniband DDR + 1Gb Ethernet 96 intelx5660,ib,noht Intel(R) Xeon(R) X x 6 24 GB 188 GB Infiniband QDR + 1Gb Ethernet 120 magnycours,noht AMD Opteron x GB 188 GB 10Gb Ethernet 30 interlagos,noht AMD Opteron x GB 188 GB 10Gb Ethernet 16 Pełna wersja tabeli:

13 Hydra specyficzne własności cd. Lokalizacja Zmienna środowiskowa Przeznaczenie Całkowita przestrzeń Współdzielona? Intensywny zapis/odczyt? Kopie zapasowe (backup)? Quota (limit miejsca) /icm/home/ $HOME Przestrzeń przechowywania wyników obliczeń. 130TB Tak (wszystkie wezły klastra i submit host) Nie Nie 100GB /mnt/software - Zainstalowane aplikacje dla węzłów z SL6 20T Tak (Wszystkie węzły klastra) Nie Tak - $TMPDIR Lokalny scratch obliczeniowy (katalog tymczasowy) <1TB Nie Tak Nie - $TMPSHARED Współdzielony pomiędzy węzłami scratch obliczeniowy 108 TB Tak (Wszystkie węzły klastra) Tak Nie 10TB. Automatyczn e kasowanie Pełna wersja tabeli:

14 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

15 Gdzie są moje pliki Katalog domowy: /icm/home/login Pliki z Halo2: /icm/halo2/home/users/login Pliki z workspace: /icm/delta/workspace/login Pliki z nostromo: /icm/nostromo/home/users/login

16 Migracja danych Kopiowanie plików z Halo2 będąc na Hydrze: cp -p /icm/halo2/home/users/login/plik. Kopiowanie katalogów: cp rp /icm/halo2/home/users/login/plik. -p: zachowuje oryginalną datę stworzenia pliku

17 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

18 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

19 System SLURM Menadżer zasobów (system kolejkowy) dla klastrów obliczeniowych na licencji GNU Funkcjonalność Alokacja określonych zasobów (węzłów obliczeniowych) na wyłączne użycie lub bez wyłączności Uruchamianie i zarządzenie zadaniami równoległymi na przydzielonych zasobach Kolejkowanie zadań

20 Terminologia SLURM Węzeł (node) - pojedynczy węzeł klastra na którym można alokować zasoby Partycja (partition) zbiór węzłów na którym kolejkowane są zadania (odpowiednik kolejki w innych systemach) Zadanie (job, job step) zestaw programów użytkownika wraz z zasobami i potencjalnymi zależnościami Proces (task) program uruchamiany na pojedynczym procesorze Własności (constraint) funkcjonalności węzła zdefiniowane przez administratora

21 SLURM komendy (szybki start) salloc - alokuje węzły i inne zasoby dla zadania użytkownika sbatch - wstawia skrypt zadania wsadowego do kolejki sbatch n4 moje_zadanie.sl scancel - wysyła sygnał / przerywa wykonanie zadania scancel --signal=sigkill 1234 scontrol- podgląd i modyfikacje zadań, partycji, rezerwacji sinfo - wyświetla informacje o węzłach i partycjach squeue - wyświetla stan kolejki zadań srun - uruchamia zadanie (równoległe) srun n4 --exclusive moj_program.exe

22 Tryb interaktywny W trybie interaktywnym system przydziela nam określone zasoby i pozwala pracować na nich z poziomu konsoli Obliczenia wykonujemy wydając kolejne komendy Możliwość interakcji z programem Możliwość pracy z programami graficznymi (okienkowe GUI, trudne do obsługi w windows) srun --pty bash -l Z użyciem rezerwacji srun --pty -reservation=rez_szk bash -l srun --pty A=GrantID bash -l

23 Tryb wsadowy W trybie wsadowym system przydziela określone zasoby oraz uruchamia sekwencję komend opisaną w skrypcie Skrypt musi posiadać odpowiednią strukturę Brak interakcji z uruchomionym programem Komendy SLURM zamiennie jako opcje sbatch lub na początku skryptu w linii #SBATCH sbatch moje_zadanie.sl #!/bin/sh #SBATCH --time=1 #SBATCH N4 srun hostname sort moje_zadanie.sl

24 Struktura skryptu wsadowego #!/bin/bash -l #SBATCH -J MojeZadanie #SBATCH -N 1 #SBATCH --tasks-per-node 12 #SBATCH --mem 5000 #SBATCH --time=20:00:00 #SBATCH -A G01-77 Nagłówek skryptu Blok dyrektyw SLURM Linie rozpoczynające się od: #SBATCH --nazwa opcji sbatch/srun (pojedynczy minus - dla jednoliterowej nazwy opcji) wartość opcji #SBATCH -C intelx5660 #SBATCH -p hydra #SBATCH --output= job.out #SBATCH -error= job.err mpiexec my_program -argument arg_value Komendy uruchamiające program(y) / aplikację

25 Organizacja środowiska: SLURM i moduły Narzędzie Modules służy do wyboru środowiska: docelowej architektury oraz dostępu do wymaganych aplikacji Typowy schemat pracy 1. W pierwszej kolejności wybór architektury, np.: 2. Alokacja zasobów SLURM poprzez salloc / sbatch / srun, np.: 3. Następnie w ramach zadania wybór aplikacji, np.: 4. Podobnie dostęp do kompilatorów, bibliotek, np.: UWAGA: Kolejność operacji ma znaczenie module load hydra-sl6 srun --pty p hydra bash -l module load vasp module load compilers/intel

26 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

27 Komendy SLURM vs PBS salloc sbatch srun scancel scontrol sinfo squeue qsub qdel qalter qstat qrun

28 Skrypt SLURM Skrypt PBS SLURM #!/bin/csh #SBATCH -J MojeZadanie #SBATCH -N 1 #SBATCH --tasks-per-node 12 #SBATCH --mem 5000 #SBATCH --time=20:00:00 #SBATCH -A G01-77 #SBATCH -C intelx5660 #SBATCH -p hydra #SBATCH --output= job.out #SBATCH -error= job.err PBS #!/bin/csh #PBS -N MojeZadanie #PBS -l nodes=1:ppn=12 #PBS -l mem=5000mb #PBS -l walltime=20:00:00 #PBS -A G01-77 #PBS -q test #PBS o job.out #PBS e job.err sbatch job.slurm qsub job.pbs

29 Hydra (własności) Hydra Istanbul (AMD2435) 12 rdzenie AMD 2435 (2.6 GHz) 32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Interlagos (interlagos) 64 rdzenie AMD Opteron 6272 (2.2 GHz) 521 GB Halo2 (kolejki) Halo2 Zwykły węzeł (halo2) 16 rdzenie AMD Opteron ( GHz) 16/32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Gruby węzeł (bigmem) 64 rdzenie AMD Opteron 6272 (2.1 GHz) 512 GB

30 Hydra (constraint -C) Halo2 (queue -q) Hydra Istanbul (AMD2435) 12 rdzenie AMD 2435 (2.6 GHz) 32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Interlagos (interlagos) 64 rdzenie AMD Opteron 6272 (2.2 GHz) 521 GB Halo2 Zwykły węzeł (halo2) 16 rdzenie AMD Opteron ( GHz) 16/32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Gruby węzeł (bigmem) 64 rdzenie AMD Opteron 6272 (2.1 GHz) 512 GB

31 Zmiana parametrów zadania scontrol pozwala użytkownikowi na zmianę parametrów jego zadań, np. scontrol update JobId=<id> TimeLimit=+10 Dodaje do pierwotnego limitu czasu zadania 10 min. Format zmiany czasu to: = (nadpisanie), =+ (dodanie) lub =- (odjęcie) minuty, minuty:sekundy, godziny:minuty:sekundy, dni-godziny, dnigodziny:minuty <id> to numer zadania w SLURM, widoczny np. przez squeue

32 Zmienne środowiskowe SLURM W ramach zadania kontrolowanego przez SLURM dostęp do zmiennych środowiskowych SLURM_XXX SLURM_JOB_ID Zawiera identyfikator zadania SLURM_NODELIST Pozwala listować węzły na których działą zadanie SLURM_NTASKS Pozwala sprawdzić liczbę wszystkich procesów w ramach zadania SLURM_TASKS_PER_NODE Pokazuje rozkład przydzielonych procesów na węzłach Inne

33 PRZYKŁADY

34 Zadanie: aproksymacja pi Całkowanie metodą prostokątów następującego wzoru: 1 n h 2 1 x xi i ( ) n 1,2 1 Wartość liczby pi przybliżamy poprzez całkowanie funkcji f na przedziale [0,1] za pomocą kwadratury prostokątów 0,8 0,6 f ( x) 1 1 x 2 0,4 0, ,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0, Wprowadzenie do MPI 37

35 Przykład 1: praca z programem okienkowym Praca interaktywna z trybem graficznym: MATLAB 1. ssh Y login.icm.edu.pl 2. module load hydra-sl6 3. srun --pty p hydra bash l 4. module load matlab 5. matlab Rozwiązujemy zadanie za pomocą kwadratury >> f + x.^2); >> mypi = integral(f, 0, 1); >> mypi

36 Przykład 2: obliczenia w NWChem i wizualizacja wyników krok po kroku Optymalizacja geometrii i wizualizacja molekuły 1. Przekopiować pliki i zalogowanie na węzeł cp /icm/hydra/lustre/temp/memar/szkol2014/input. module load hydra-sl6 srun --pty N 1 --tasks-per-node 4 bash -l 2. Wykonać symulację module load nwchem/6.3 mpirun -np 4 nwchem input > out 3. Wizualizacja module load jmol jmol.sh

37 Job array Funkcjonalność pozwalająca na tworzenie wielu zadań o identycznych ustawieniach Dodatkowa zmienna środowiskowa SLURM_ARRAY_TASK_ID pozwala parametryzować zadania z grupy Dostępne tylko dla zadań wsadowych uruchamianych przez sbatch, dodatkowo z opcją array sbatch --array=0,7 N1 moje_zadanie.sl sbatch --array=1,2,5,7 N1 moje_zadanie.sl sbatch --array=1-8:2 N1 moje_zadanie.sl

38 Zależności pomiędzy zadaniami Używamy sbatch / srun z opcją --dependency= <dependency_list> after:job_id[:jobid...] Start po rozpoczęciu określonego zadania / zadań afterany:job_id[:jobid...] Start po zakończeniu (jakimkolwiek) określonych zadań afternotok:job_id[:jobid...] Start po zakończeniu z błędem określonych zadań afterok:job_id[:jobid...] Start po poprawnym zakończeniu expand:job_id Zadanie ma wystartować jako rozszerzenie określonego zadania w tej samej partycji singleton Start po zakończeniu wszystkich innych zadań tego samego użytkownika

39 Przykład 3: Kompilacja i uruchomienie własnego programu Implementacja kwadratury w C: kompilator intela 1. Alokacja węzła na hydrze module load hydra-sl6 srun --pty p hydra bash -l 2. Kompilacja na węźle export EXAMPLES=/icm/hydra/software/icm/examples/slurm cp $EXAMPLES/my_pi.c. module load compilers/intel icc o my_pi my_pi.c 3. Uruchomienie programu./my_pi

40 Przykład 4: uruchomienie własnego zadania z parametrem (job array) 1. Przygotowanie programu na węźle cp $EXAMPLES/my_pi_arg.c. module load compilers/intel icc o my_pi_arg my_pi_arg.c 2. Przygotowanie plików sterujących (input) 3. Utworzenie skryptu kolejkowego my_pi_arr.sl #!/bin/bash -l #SBATCH -N 1 #SBATCH -n 1 #SBATCH -J my_pi export EXAMPLES=/icm/hydra/software/icm/examples/slurm srun my_pi_arg $EXAMPLES/my_pi_${SLURM_ARRAY_TASK_ID}.inp 4. Wstawienie do kolejki macierzy zadań sbatch --array=1-4 my_pi_arr.sl

41 Przykład 5: Kompilacja i uruchomienie własnego programu równoległego Wersja równoległa implementacji kwadratury z MPI 1. Przygotowanie programu na węźle cp $EXAMPLES/my_pi_mpi.c. module load compilers/intel module load mpi/mpich mpicc o my_pi_mpi my_pi_mpi.c 2. Utworzenie skryptu kolejkowego #!/bin/bash l #SBATCH A szkolenia my_pi_mpi.sl module load compilers/intel mpi/mpich mpiexec./my_pi_mpi 3. Wstawienie zadania równoległego do kolejki sbatch N1 n4 Sekcja Algorytmiki my_pi_mpi.sl Nowych Generacji Architektur

42 Przykład 6: obliczenia na GPU Obliczanie liczb pierwszych w CUDA + kompilator CUDA 1. Przekopiowaćć pliki i zalogowanie na węzeł z GPU (grom) cp /icm/hydra/lustre/temp/memar/szkol2014/cuda.cu. module load hydra-sl6 srun --pty p hydra --gres=gpu:1 bash -l 2. Przygotowanie programu dla GPU module load compilers/cuda/ nvcc arch=sm_20 o cuda cuda.cu 3. Uruchomienie programu./cuda

43 Strigger i notification SLURM może informować nas o konkretnych zdarzeniach Poprzez tzw. triggery strigger --set --jobid= time \ --offset= program=mój_program Ustawia trigger (set), który uruchomi program mój_program na 10 (offset 600) minut przed przekroczeniem limitu czasu (time) przez dane zadanie (id=1234) Poprzez komunikaty wysyłane em, sterowane opcjami srun / sbatch --mail-user=<user> --mail-type=<type> Powiadomienie o stanie zadania (type): BEGIN, END, FAIL, REQUEUE, ALL

44 Przydatne opcje srun --propagate=stack=unlimited --exclusive --dependency=expand:<jobid>

45 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Tryby pracy w SLURM Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM

46 Profiling SLURM wspiera profiling zadań Sprawdzanie profilu zakończonego zadania sh5util -j <jobid> w lokalnym katalogu utworzony zostanie plik opisujący zadanie w formacie hdf5, np.: hpc$ sh5util -j sh5util: Merging node-step files into./job_13526.h5 Zawartość pliku otwieramy narzędziem graficznym hdfview module load tools/hdfview hdfview

47 Profiling cd. Przykładowy profil otwarty w programie hdfview

48 Przykład VAMPIR Ortogonalizacja wektorow 1. Przekopiować pliki i zalogowanie na węzeł cp /icm/hydra/lustre/temp/memar/szkol2014/vamp.c. module load hydra-sl6 srun --pty N 1 --tasks-per-node 4 bash -l 2. Przygotowanie programu dla GPU module load mpi/openmpi/1.6.5-intel module load vampir/8.2.0 mpicc-vt g vamp.c 3. Uruchomienie programu./a.out vampir

49 VAMPIR c.d.

50 sreport cluster AccountUtilizationByUser user=mstol start=01/09/13 end=12/10/13 format=accounts,cluster,cpucount,login,proper,used Accounting SLURM pozwala na sprawdzanie zużytych zasobów (w minutach procesora) Dla pojedynczego zadania przy użyciu sacct sacct j <jobid> -S <start zadania> \ -E <koniec zaadnia> \ -o JobID,AveRSS,MaxRSS,CPUTime,AllocCPUS,State Dla zadań użytkownika w określonym przedziale czasu przy użyciu sreport sreport cluster \ AccountUtilizationByUser user=<userid> \ start=01/09/13 end=12/10/13 \ format=accounts,cluster,cpucount,login,proper,used

51 Dziękujemy za uwagę!

Podstawy systemu kolejkowego SLURM

Podstawy systemu kolejkowego SLURM Podstawy systemu kolejkowego SLURM Uniwersytet Warszawski Matematycznego i Komputerowego http:// Marcin Stolarek m.stolarek@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Plan szkolenia Organizacja

Bardziej szczegółowo

Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych

Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych Maciej Czuchry, Klemens Noga ACK Cyfronet AGH ACK Cyfronet AGH, 23 marca 2015 Plan szkolenia Rejestracja Dostęp do klastra Przeprowadzanie

Bardziej szczegółowo

Wprowadzenie do obsługi systemów obliczeniowych PCSS

Wprowadzenie do obsługi systemów obliczeniowych PCSS Wprowadzenie do obsługi systemów obliczeniowych PCSS Marcin Pospieszny Poznańskie Centrum Superkomputerowo-Sieciowe 17 listopada 2011 Plan prezentacji 1 Architektura maszyn 2 Linux: podstawy 3 PBS 4 Aplikacje

Bardziej szczegółowo

Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga

Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender Maciej Czuchry, Klemens Noga WFiIS AGH, Kraków, 18 grudnia 2014 Plan szkolenia 2 Rejestracja Dostęp do klastra Przeprowadzanie

Bardziej szczegółowo

Użytkowanie systemów obliczeniowych PCSS Artur Trojanowski

Użytkowanie systemów obliczeniowych PCSS Artur Trojanowski Użytkowanie systemów obliczeniowych PCSS 13.01.2016 Artur Trojanowski Plan prezentacji Architektura maszyn Zwiedzanie serwerowni Opis systemów kolejkowych Dostęp do maszyn Prowadzenie obliczeń Narzędzia

Bardziej szczegółowo

Pracownia Technik Obliczeniowych

Pracownia Technik Obliczeniowych Pracownia Technik Obliczeniowych SLURM Paweł Daniluk Wydział Fizyki Wiosna 2016 P. Daniluk(Wydział Fizyki) PTO VIII Wiosna 2016 1 / 17 Przetwarzanie wsadowe Zasoby superkomputera z reguły dzielone są pomiędzy

Bardziej szczegółowo

Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.

Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok. Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.pl Cele prezentacji Zapoznanie potencjalnych użytkowników z

Bardziej szczegółowo

Skrócony Poradnik Użytkownika

Skrócony Poradnik Użytkownika Skrócony Poradnik Użytkownika Opracowano na podstawie zawartości bazy wiedzy Grida GRAFEN, dostępnej pod adresem http://info.grafen.ippt.gov.pl oraz materiałów dostarczonych przez firmę WASKO, wykonawcę

Bardziej szczegółowo

Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4

Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4 Wykład 4 p. 1/14 Obliczenia równoległe w zagadnieniach inżynierskich Wykład 4 Dr inż. Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Klastry Wykład

Bardziej szczegółowo

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń

Bardziej szczegółowo

Klaster obliczeniowy

Klaster obliczeniowy Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana

Bardziej szczegółowo

Bartosz Bosak Piotr Kopta Tomasz Piontek

Bartosz Bosak Piotr Kopta Tomasz Piontek Dostęp do infrastruktury PL-Grid z wykorzystaniem usług i narzędzi QosCosGrid oraz gridu dziedzinowego Chamia Kwantowa Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda Wstęp Specyfikacja zasobów Zadania

Bardziej szczegółowo

Wprowadzenie do obliczeń na komputerach ICM

Wprowadzenie do obliczeń na komputerach ICM Wprowadzenie do obliczeń na komputerach ICM Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Uniwersytet Warszawski Interdyscyplinarne Centrum Modelowania Matematycznego

Bardziej szczegółowo

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Mateusz Tykierko WCSS 20 stycznia 2012 Mateusz Tykierko (WCSS) 20 stycznia 2012 1 / 16 Supernova moc obliczeniowa: 67,54 TFLOPS liczba

Bardziej szczegółowo

Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS

Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS Radosław Januszewski, Marcin Pospieszny, Piotr Brona, Bartłomiej Burba, Maciej Brzeźniak Poznańskie Centrum Superkomputerowo-Sieciowe Zasoby HPC:

Bardziej szczegółowo

Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>

Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl> Architektura, oprogramowanie i uytkowanie klastra PCSS Marek Zawadzki Plan prezentacji: klastry krótkie wprowadzenie klaster PCSS budowa jak otrzyma konto na klastrze sposób dostpu

Bardziej szczegółowo

Podstawy pracy w ICM

Podstawy pracy w ICM Podstawy pracy w ICM Zespół KDM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwerystet Warszawski Szkolenie KDM (Kontakt: pomoc@icm.edu.pl) Podstawy pracy w ICM Szkolenie KDM

Bardziej szczegółowo

Infrastruktura PL-Grid - usługi dla chemii obliczeniowej

Infrastruktura PL-Grid - usługi dla chemii obliczeniowej 1 Infrastruktura PL-Grid - usługi dla chemii obliczeniowej Klemens Noga, Maciej Czuchry ACK Cyfronet AGH Kraków, 15, 22 oraz 29 XI 2013 Plan szkolenia 2! Czym jest ACK CYFRONET AGH?! Zasoby PL-Gridu! rejestracja

Bardziej szczegółowo

Usługi i narzędzia QCG

Usługi i narzędzia QCG Usługi i narzędzia QCG wygodny dostęp dla użytkowników do infrastruktury komputerów dużej mocy Tomasz Piontek, Bartosz Bosak, Piotr Kopta, Maciej Tronowski, Krzysztof Kurowski Poznańskie Centrum Superkomputerowo

Bardziej szczegółowo

Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang.

Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang. Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang. Klaster Perszeron pracuje pod kontrolą systemu SuSE Linux Enterprise Server 10 w wersji 64bitowej i wyposażony jest w zestaw standardowych

Bardziej szczegółowo

Wrocławskie Centrum Sieciowo-Superkomputerowe

Wrocławskie Centrum Sieciowo-Superkomputerowe Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 26 czerwca 2012 Mateusz Tykierko (WCSS) 26 czerwca 2012 1 / 23 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca

Bardziej szczegółowo

Wprowadzenie do obliczeń na komputerach ICM

Wprowadzenie do obliczeń na komputerach ICM 2013-02-20 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl

Bardziej szczegółowo

Logowanie z zewnątrz. Np. Program PUTTY, SSH

Logowanie z zewnątrz. Np. Program PUTTY, SSH Logowanie z zewnątrz Np. Program PUTTY, SSH ssh login@wizard.igf.fuw.edu.pl Jestem na wizardzie w sieci IGFu, mam dostęp do swoich katalogów $HOME, widzę terminal linuxa (bash) mogę zalogować się do wszystkich

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Maciej Czuchry, Klemens Noga ACK Cyfronet AGH Seminarium Katedry Informatyki Stosowanej, AGH, Kraków 2015 Agenda ACK Cyfronet

Bardziej szczegółowo

Materiały dodatkowe. Simulink Real-Time

Materiały dodatkowe. Simulink Real-Time Katedra Inżynierii Systemów Sterowania Materiały dodatkowe Simulink Real-Time Opracowali: mgr inż. Tomasz Karla Data: Listopad, 2016 r. Wstęp Simulink Real-Time jest środowiskiem pozwalającym na tworzenie

Bardziej szczegółowo

wiczenia MPI-2 Mirosław Kupczyk PCSS,

wiczenia MPI-2 Mirosław Kupczyk PCSS, wiczenia MPI-2 Mirosław Kupczyk Miroslaw.Kupczyk@man.poznan.pl PCSS, 12.06.2006 http://szkolenia.man.poznan.pl Kompilacja i uruchomienie Origin 3800, Irix 6.5.25f MPT 1.9 Z linii komend: > cc -64 prog.c

Bardziej szczegółowo

Infrastruktura PLGrid dla młodych naukowców

Infrastruktura PLGrid dla młodych naukowców Infrastruktura PLGrid dla młodych naukowców Mariola Czuchry ACK Cyfronet AGH Koło Naukowe Geodetów Dahlta, AGH, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura PLGrid PLGrid to Struktura

Bardziej szczegółowo

Instalacja aplikacji

Instalacja aplikacji 1 Instalacja aplikacji SERTUM... 2 1.1 Pobranie programu z Internetu... 2 1.2 Instalacja programu... 2 1.3 Logowanie... 3 2 Instalacja aplikacji RaportNet... 4 2.1 Pobranie programu z Internetu... 4 2.2

Bardziej szczegółowo

Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz

Programowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz Programowanie równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 23 października 2009 Spis treści Przedmowa...................................................

Bardziej szczegółowo

Infrastruktura PLGrid (nie tylko) dla młodych naukowców

Infrastruktura PLGrid (nie tylko) dla młodych naukowców Infrastruktura PLGrid (nie tylko) dla młodych naukowców Mariola Czuchry, Mariusz Sterzel ACK Cyfronet AGH Wydział Mechaniczny, PK, Kraków 16 XI 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka

Bardziej szczegółowo

PROCEDURA BACKUP & RECOVER Dokument opisuje procedurę backup u i odtwarzania dla bazy Oracle 11gR2

PROCEDURA BACKUP & RECOVER Dokument opisuje procedurę backup u i odtwarzania dla bazy Oracle 11gR2 2012 PROCEDURA BACKUP & RECOVER Dokument opisuje procedurę backup u i odtwarzania dla bazy Oracle 11gR2 ORA- 600 Kamil Stawiarski Spis treści Pełny backup serwera Oracle... 3 Backup wykonywany z jednego

Bardziej szczegółowo

Cyfronet w CTA. Andrzej Oziębło DKDM

Cyfronet w CTA. Andrzej Oziębło DKDM Cyfronet w CTA Andrzej Oziębło DKDM ACK CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie ul. Nawojki 11 30-950 Kraków 61 tel. centrali:

Bardziej szczegółowo

Infrastruktura PLGrid dla młodych polskich naukowców

Infrastruktura PLGrid dla młodych polskich naukowców Infrastruktura PLGrid dla młodych polskich naukowców Mariola Czuchry ACK Cyfronet AGH WFiIS, AGH, Kraków 5 X 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka Struktura Oferta Dostęp do

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek, Mariusz Sterzel ACK Cyfronet AGH Katedra Katedra Fizykochemii i Modelowania Procesów WIMiC, AGH,

Bardziej szczegółowo

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń

Bardziej szczegółowo

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009 High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych

Bardziej szczegółowo

https://portal.clusterix.pl:8443 trainxx tramxx

https://portal.clusterix.pl:8443 trainxx tramxx Logowanie 1. Otworzyć w oknie przeglądarki adres: https://portal.clusterix.pl:8443 2. Zalogować się używając konta, użytkownik: trainxx, hasło: tramxx Delegacja certyfikatu proxy 1. Zalogować poprzez ssh

Bardziej szczegółowo

Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS

Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS Logowanie 1. Logujemy się poprzez ssh na serwer dostępowy na konto studentxx, które zostało przydzielone w użytkownikowi

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Robotyki i Mechatroniki, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje

Bardziej szczegółowo

Win Admin Replikator Instrukcja Obsługi

Win Admin Replikator Instrukcja Obsługi Win Admin Replikator Instrukcja Obsługi Monitoring Kopie danych (backup) E-mail Harmonogram lokalne i zewnętrzne repozytorium Logi Pamięć Procesor HDD Administracja sprzętem i oprogramowaniem (automatyzacja

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Wydział Fizyki, Astronomii i Informatyki Stosowanej, Kraków 2015 Agenda ACK Cyfronet

Bardziej szczegółowo

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań zespół PCSS/MIC: Jacek Kochan, Jerzy Mikołajczak, Marek Zawadzki 4. Konferencja MIC Nowoczesne technologie bliżej nas Poznań, 04.03.2010

Bardziej szczegółowo

Tworzenie i obsługa wirtualnego laboratorium komputerowego

Tworzenie i obsługa wirtualnego laboratorium komputerowego Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Michał Ochociński nr albumu: 236401 Praca magisterska na kierunku informatyka stosowana Tworzenie i obsługa wirtualnego

Bardziej szczegółowo

Spis treści. I. Skuteczne. Od autora... Obliczenia inżynierskie i naukowe... Ostrzeżenia...XVII

Spis treści. I. Skuteczne. Od autora... Obliczenia inżynierskie i naukowe... Ostrzeżenia...XVII Spis treści Od autora..................................................... Obliczenia inżynierskie i naukowe.................................. X XII Ostrzeżenia...................................................XVII

Bardziej szczegółowo

INSTRUKCJA INSTALACJI I PIERWSZEGO URUCHOMIENIA APLIKACJI Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy

INSTRUKCJA INSTALACJI I PIERWSZEGO URUCHOMIENIA APLIKACJI Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy INSTRUKCJA INSTALACJI I PIERWSZEGO URUCHOMIENIA APLIKACJI Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy Instalacja systemu Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy System Rodzajowa Ewidencja

Bardziej szczegółowo

Systemy operacyjne i sieci komputerowe Szymon Wilk Konsola MMC 1

Systemy operacyjne i sieci komputerowe Szymon Wilk Konsola MMC 1 i sieci komputerowe Szymon Wilk Konsola MMC 1 1. Wprowadzenie Aby efektywniej zarządzać swoim komputerem Microsoft stworzył narzędzie o wiele bardziej zaawansowane Panel Sterowania. Narzędziem tym jest

Bardziej szczegółowo

Powłoka I. Popularne implementacje. W stylu sh (powłoki zdefiniowanej w POSIX) W stylu csh. bash (najpopularniejsza) zsh ksh mksh.

Powłoka I. Popularne implementacje. W stylu sh (powłoki zdefiniowanej w POSIX) W stylu csh. bash (najpopularniejsza) zsh ksh mksh. Powłoka I Popularne implementacje W stylu sh (powłoki zdefiniowanej w POSIX) bash (najpopularniejsza) zsh ksh mksh W stylu csh csh tcsh 12 października 2018 1 / 16 Powłoka II Zachęta Komunikuje się z użytkownikiem

Bardziej szczegółowo

Konwersja maszyny fizycznej na wirtualną.

Konwersja maszyny fizycznej na wirtualną. 1 (Pobrane z slow7.pl) W końcu, kto Nam zabroni aby stworzyć maszyny wirtualne, które będą pracować pod kontrolą różnych systemów z rodziny Windows bądź Linux. Praca w oparciu o maszyny wirtualne pozwala

Bardziej szczegółowo

MESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra

MESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra MESco Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075 Stanisław Wowra swowra@mesco.com.pl Lider w dziedzinie symulacji na rynku od 1994 roku. MESco

Bardziej szczegółowo

Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER

Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Prof. Roman Wyrzykowski, Politechnika Częstochowska Rafał Mikołajczak, Marek Zawadzki Poznańskie

Bardziej szczegółowo

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek Wprowadzenie do użytkowania infrastruktury PL Grid Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda WSTĘP (PL-GRID) Konsorcjum PL-Grid Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej

Bardziej szczegółowo

Postępowanie WCh.2420.18.2014.AB Wrocław, 12 lutego 2014 r.

Postępowanie WCh.2420.18.2014.AB Wrocław, 12 lutego 2014 r. Postępowanie WCh.2420.18.2014.AB Wrocław, 12 lutego 2014 r. Uczestnicy postępowania Dotyczy: postępowania o udzielenie zamówienia publicznego na dostawę komputerów osobistych, komputerów przenośnych, macierzy

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Biochemii i Neurobiologii, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje

Bardziej szczegółowo

Zespól Szkół Ponadgimnazjalnych Nr 17 im. Jana Nowaka - Jeziorańskiego Al. Politechniki 37 Windows Serwer 2003 Instalacja

Zespól Szkół Ponadgimnazjalnych Nr 17 im. Jana Nowaka - Jeziorańskiego Al. Politechniki 37 Windows Serwer 2003 Instalacja 7 Windows Serwer 2003 Instalacja Łódź, styczeń 2012r. SPIS TREŚCI Strona Wstęp... 3 INSTALOWANIE SYSTEMU WINDOWS SERWER 2003 Przygotowanie instalacji serwera..4 1.1. Minimalne wymagania sprzętowe......4

Bardziej szczegółowo

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Rafał Tylman 1, Bogusław Śmiech 1, Marcin Wichorowski 2, Jacek Wyrwiński 2 1 CI TASK Politechnika Gdańska,

Bardziej szczegółowo

1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3

1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3 dla użytkowników Działu Komputerów Dużej Mocy Wrocławskiego Centrum Sieciowo- Superkomputerowego Politechniki Wrocławskiej Załącznik nr 4 do SIWZ znak: ZP/BZP/148/2017 1. Wprowadzenie... 3 2. Opis sytuacyjny....

Bardziej szczegółowo

System. Instalacja bazy danych MySQL. Autor : Piotr Zielonka tel Piotrków Tryb., sierpień 2018r.

System. Instalacja bazy danych MySQL. Autor : Piotr Zielonka tel Piotrków Tryb., sierpień 2018r. System FOKUS Instalacja bazy danych MySQL Autor : Piotr Zielonka tel. 601 99-73-79 pomoc@zielonka.info.pl Piotrków Tryb., sierpień 2018r. W wersji 2018.7.0 systemu FoKus wprowadzono funkcje umożliwiające

Bardziej szczegółowo

Instalacja środowiska MPI w systemie operacyjnym Linux

Instalacja środowiska MPI w systemie operacyjnym Linux Instalacja środowiska MPI w systemie operacyjnym Linux Zakres ćwiczenia W tym ćwiczeniu dowiesz się, w jaki sposób dokonać instalacji środowiska MPI w systemie operacyjnym Linux. Do instalacji wybrano

Bardziej szczegółowo

WZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy:

WZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy: WZÓR UMOWY Zawarta w Białymstoku, w dniu.. pomiędzy: Województwem Podlaskim, z siedzibą w Białymstoku przy ul. Kardynała Stefana Wyszyńskiego 1, w imieniu którego działa, na podstawie upoważnienia udzielonego

Bardziej szczegółowo

Dział Dopuszczający Dostateczny Dobry Bardzo dobry Celujący

Dział Dopuszczający Dostateczny Dobry Bardzo dobry Celujący Przedmiotowy system oceniania Zawód: Technik Informatyk Nr programu: 312[ 01] /T,SP/MENiS/ 2004.06.14 Przedmiot: Systemy Operacyjne i Sieci Komputerowe Klasa: pierwsza Dział Dopuszczający Dostateczny Dobry

Bardziej szczegółowo

Tekla Structures 20 Instalacja

Tekla Structures 20 Instalacja Tekla Structures 20 Instalacja Plan prezentacji: - Wymagania sprzętowe - Instalacja TS20.0 - Instalacja środowisk - Instalacja i konfiguracja bibliotek CS - Struktura katalogów - Flexnet serwer licencyjny

Bardziej szczegółowo

Podstawy Programowania 2

Podstawy Programowania 2 Podstawy Programowania 2 Laboratorium 7 Instrukcja 6 Object Pascal Opracował: mgr inż. Leszek Ciopiński Wstęp: Programowanie obiektowe a programowanie strukturalne. W programowaniu strukturalnym, któremu

Bardziej szczegółowo

Migracja Comarch ERP Altum Business Intelligence do wersji

Migracja Comarch ERP Altum Business Intelligence do wersji Migracja Comarch ERP Altum Business Intelligence do wersji 2016.5 Wersja 2016.5 2 Comarch ERP Altum Wersja 2016.5 Copyright 2016 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości

Bardziej szczegółowo

Spis treści. Rozdział 3. Podstawowe operacje na plikach...49 System plików... 49 Konsola... 49 Zapisanie rezultatu do pliku... 50

Spis treści. Rozdział 3. Podstawowe operacje na plikach...49 System plików... 49 Konsola... 49 Zapisanie rezultatu do pliku... 50 Spis treści Rozdział 1. Instalacja systemu Aurox...5 Wymagania sprzętowe... 5 Rozpoczynamy instalację... 6 Wykrywanie i instalacja urządzeń... 7 Zarządzanie partycjami... 10 Konfiguracja sieci i boot loadera...

Bardziej szczegółowo

X P.I.W.O. Portowanie Tizena na nowe architektury na przykładzie ARMv6. Maciej Wereski Samsung R&D Institute Poland. 17 Maj 2014 - Poznań, Polska

X P.I.W.O. Portowanie Tizena na nowe architektury na przykładzie ARMv6. Maciej Wereski Samsung R&D Institute Poland. 17 Maj 2014 - Poznań, Polska X PIWO 17 Maj 2014 - Poznań, Polska Portowanie Tizena na nowe architektury na przykładzie ARMv6 Maciej Wereski Samsung R&D Institute Poland Plan prezentacji Środowisko budowania Tizena Infrastruktura GBS

Bardziej szczegółowo

Monitorowanie i zarządzanie urządzeniami sieciowymi przy pomocy narzędzi Net-SNMP

Monitorowanie i zarządzanie urządzeniami sieciowymi przy pomocy narzędzi Net-SNMP Uniwersytet Mikołaja Kopernika w Toruniu Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Szymon Klimuk Nr albumu: 187408 Praca magisterska na kierunku Informatyka Monitorowanie

Bardziej szczegółowo

Wprowadzenie do obliczeń na komputerach ICM

Wprowadzenie do obliczeń na komputerach ICM 2012-10-3 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl

Bardziej szczegółowo

ZADANIE nr 4 Sprawdzian z informatyki

ZADANIE nr 4 Sprawdzian z informatyki Rafał Siczek Uniwersytet Wrocławski Studia Podyplomowe z Informatyki dla Nauczycieli SPI51 ZADANIE nr 4 Sprawdzian z informatyki Tematyka sprawdzianu: Systemy operacyjne Czas sprawdzianu: 25 min SPI51

Bardziej szczegółowo

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej 30 maj 2011, Kraków 1 z 22 POWIEW Program Obliczeń Wielkich Wyzwań Nauki i Techniki Celem jest udostepnienie w polskich

Bardziej szczegółowo

Instrukcja konfiguracji programu KS-ASW do pracy w trybie wielopodmiotowym

Instrukcja konfiguracji programu KS-ASW do pracy w trybie wielopodmiotowym Instrukcja konfiguracji programu KS-ASW do pracy Strona 1 z 9 Spis treści 1. Wstęp... 3 2. Zasada działania wielopodmiotowości... 3 3. Uruchamianie trybu wielopodmiotowości... 3 4. Dodawanie nowej firmy...

Bardziej szczegółowo

Pracownia komputerowa. Dariusz wardecki, wyk II

Pracownia komputerowa. Dariusz wardecki, wyk II Pracownia komputerowa Dariusz wardecki, wyk II Systemy operacyjne Desktopowe Mobilne Systemy operacyjne Systemy Unixowe Windows! Windows 8 Windows 7 Windows Vista Windows XP... Linux Mac OS X Mountain

Bardziej szczegółowo

VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis

VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis Historia @ WIL PW 2 ~2005 pierwszy wannabe-klaster z MPI i kolejkowaniem 2010 pierwszy prawdziwy klaster HPC, RDMA, Infiniband, LustreFS

Bardziej szczegółowo

Systemy operacyjne. Instrukcja laboratoryjna. Ćwiczenie 1: Polecenia systemu UNIX/LINUX. Opracował: dr inż. Piotr Szpryngier

Systemy operacyjne. Instrukcja laboratoryjna. Ćwiczenie 1: Polecenia systemu UNIX/LINUX. Opracował: dr inż. Piotr Szpryngier Systemy operacyjne Instrukcja laboratoryjna Ćwiczenie 1: Polecenia systemu UNIX/LINUX Opracował: dr inż. Piotr Szpryngier Olsztyn 2009 1 Wprowadzenie. Cel zajęć praktycznych. Wymagania stawiane studentom

Bardziej szczegółowo

PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA

PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA Przewodnik konfiguracji i zarządzania Siemens 4YourSafety Konfiguracja Siemens 4YourSafety w zakresie systemu operacyjnego i supportu urządzenia może odbywać się w

Bardziej szczegółowo

Enterprise, czyli instytutowy klaster obliczeniowy

Enterprise, czyli instytutowy klaster obliczeniowy Enterprise, czyli instytutowy klaster obliczeniowy Janusz Szwabiński szwabin@ift.uni.wroc.pl Enterprise, czyli instytutowy klaster obliczeniowy p.1/28 Plan wykładu Klastry komputerowe Enterprise od podszewki

Bardziej szczegółowo

Instalacja Ubuntu 12.12

Instalacja Ubuntu 12.12 Instalacja Ubuntu 12.12 Instalację systemu operacyjnego zaczynamy jak zawsze od stworzenia (jeśli nie posiadamy oryginalnego) odpowiedniego nośnika. Można użyć płyty lub innego odpowiednio przygotowanego

Bardziej szczegółowo

Windows Serwer 2008 R2. Moduł 8. Mechanizmy kopii zapasowych

Windows Serwer 2008 R2. Moduł 8. Mechanizmy kopii zapasowych Windows Serwer 2008 R2 Moduł 8. Mechanizmy kopii zapasowych Co nowego w narzędziu Kopia zapasowa? 1. Większa elastyczność w zakresie możliwości wykonywania kopii zapasowych 2. Automatyczne zarządzanie

Bardziej szczegółowo

Wykaz zmian w programie WinAdmin Replikator

Wykaz zmian w programie WinAdmin Replikator Wykaz zmian w programie WinAdmin Replikator Pierwsza wersja programu 1.0.0.1 powstała w czerwcu 2010. kod źródłowy programu zawiera ponad 6 900 wierszy. Modyfikacje/zmiany w wersji 1.0.4.0 (październik

Bardziej szczegółowo

Spis treści. Dzień 1. I Konfiguracja sterownika (wersja 1410) II Edycja programu (wersja 1406) III Środowisko TIA Portal (wersja 1410)

Spis treści. Dzień 1. I Konfiguracja sterownika (wersja 1410) II Edycja programu (wersja 1406) III Środowisko TIA Portal (wersja 1410) Spis treści Dzień 1 I Konfiguracja sterownika (wersja 1410) I-3 Zadanie Tworzenie konfiguracji sprzętowej I-4 Co jest potrzebne by zacząć? I-5 TIA Portal ekran startowy I-6 Tworzenie nowego projektu I-7

Bardziej szczegółowo

VinCent Administrator

VinCent Administrator VinCent Administrator Moduł Zarządzania podatnikami Krótka instrukcja obsługi ver. 1.01 Zielona Góra, grudzień 2005 1. Przeznaczenie programu Program VinCent Administrator przeznaczony jest dla administratorów

Bardziej szczegółowo

- 1 Laboratorium fotografii cyfrowej Foto Video Hennig

- 1 Laboratorium fotografii cyfrowej Foto Video Hennig Foto Video Hennig, ul. Krótka 20,83-110 Tczew tel. 58 531 79 24,, kontakt@foto-hennig.pl Instalacja i użytkowanie programu FotoSender 3.0 Pobieranie i instalacja: 1. Pobieranie i instalacja Fotosendera

Bardziej szczegółowo

Mazowiecki Elektroniczny Wniosek Aplikacyjny

Mazowiecki Elektroniczny Wniosek Aplikacyjny Mazowiecki Elektroniczny Wniosek Aplikacyjny Generator Offline Instrukcja użytkownika Problemy z aplikacją można zgłaszad pod adresem: zgloszenie@mazowia.eu SPIS TREŚCI Zawartość 1 Instalacja Generatora

Bardziej szczegółowo

GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie. Bogdan Ludwiczak bogdanl@man.poznan.pl

GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie. Bogdan Ludwiczak bogdanl@man.poznan.pl GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie Bogdan Ludwiczak bogdanl@man.poznan.pl GRMS co to jest / do czego to służy? GRMS jest systemem szeregowania zadań dla dużych,

Bardziej szczegółowo

PR P E R Z E E Z N E T N A T C A JA C JA KO K RP R O P RA R C A Y C JN Y A JN ACTINA DATA MANAGER

PR P E R Z E E Z N E T N A T C A JA C JA KO K RP R O P RA R C A Y C JN Y A JN ACTINA DATA MANAGER PREZENTACJA KORPORACYJNA ACTINA DATA MANAGER Oprogramowanie Actina Data Manager (ADM) Podstawowe zagadnienia: 1. Zastosowanie 2. Grupa docelowych uŝytkowników 3. Bezpieczeństwo 4. Środowisko pracy 5. MoŜliwości

Bardziej szczegółowo

Wykaz zmian w programie WinAdmin Replikator

Wykaz zmian w programie WinAdmin Replikator Wykaz zmian w programie WinAdmin Replikator Pierwsza wersja programu 1.0.0.1 powstała w czerwcu 2010. kod źródłowy programu zawiera ponad 6 900 wierszy. Modyfikacje/zmiany w wersji 1.0.4.0 (październik

Bardziej szczegółowo

Narzędzia klienta usługi archiwizacji

Narzędzia klienta usługi archiwizacji Narzędzia klienta usługi archiwizacji Warsztaty Usługa powszechnej archiwizacji Michał Białoskórski, CI TASK Bartłomiej Balcerek, WCSS Narzędzia klienta Dostęp przez stronę www: Interfejs www użytkownika

Bardziej szczegółowo

Sieciowa instalacja Sekafi 3 SQL

Sieciowa instalacja Sekafi 3 SQL Sieciowa instalacja Sekafi 3 SQL Niniejsza instrukcja opisuje instalację Sekafi 3 SQL w wersji sieciowej, z zewnętrznym serwerem bazy danych. Jeśli wymagana jest praca jednostanowiskowa, należy postępować

Bardziej szczegółowo

str. 1 Informacja o zmianie treści specyfikacji istotnych warunków zamówienia Oświęcim, dnia r.

str. 1 Informacja o zmianie treści specyfikacji istotnych warunków zamówienia Oświęcim, dnia r. Oświęcim, dnia 16.07. 2015 r. Państwowe Muzeum Auschwitz-Birkenau w Oświęcimiu ul. Więźniów Oświęcimia 20 32-603 Oświęcim Informacja o zmianie treści specyfikacji istotnych warunków zamówienia Modyfikacja

Bardziej szczegółowo

AE/ZP-27-16/14. Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi

AE/ZP-27-16/14. Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi AE/ZP-27-16/14 Załącznik B Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi Wykonywanie kopii zapasowych Oprogramowanie do archiwizacji musi współpracować z infrastrukturą

Bardziej szczegółowo

KOMPUTEROWY SYSTEM WSPOMAGANIA OBSŁUGI JEDNOSTEK SŁUŻBY ZDROWIA KS-SOMED

KOMPUTEROWY SYSTEM WSPOMAGANIA OBSŁUGI JEDNOSTEK SŁUŻBY ZDROWIA KS-SOMED KOMPUTEROWY SYSTEM WSPOMAGANIA OBSŁUGI JEDNOSTEK SŁUŻBY ZDROWIA KS-SOMED Podręcznik użytkownika Katowice 2010 Producent programu: KAMSOFT S.A. ul. 1 Maja 133 40-235 Katowice Telefon: (0-32) 209-07-05 Fax:

Bardziej szczegółowo

Synchronizator plików (SSC) - dokumentacja

Synchronizator plików (SSC) - dokumentacja SZARP http://www.szarp.org Synchronizator plików (SSC) - dokumentacja Wersja pliku: $Id: ssc.sgml 4420 2007-09-18 11:19:02Z schylek$ > 1. Witamy w programie SSC Synchronizator plików (SZARP Sync Client,

Bardziej szczegółowo

epuap Archiwizacja w Osobistym Składzie Dokumentów

epuap Archiwizacja w Osobistym Składzie Dokumentów epuap Archiwizacja w Osobistym Składzie Dokumentów Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka SPIS TREŚCI SPIS

Bardziej szczegółowo

weblsp Wybór przeglądarki i jej ustawienia Instrukcja ADH-Soft sp. z o.o., ul. 17 Stycznia 74, Warszawa

weblsp Wybór przeglądarki i jej ustawienia Instrukcja ADH-Soft sp. z o.o., ul. 17 Stycznia 74, Warszawa weblsp Wybór przeglądarki i jej ustawienia Instrukcja ADH-Soft sp. z o.o., ul. 17 Stycznia 74, 02-146 Warszawa www.adh.com.pl Spis treści 1. Wydajność aplikacji po stronie klienta... 3 2. Wybór przeglądarki

Bardziej szczegółowo

MODELOWANIE MATERIAŁÓW I PROCESÓW

MODELOWANIE MATERIAŁÓW I PROCESÓW MODELOWANIE MATERIAŁÓW I PROCESÓW 2010/2011 putty + winscp Pracownia komputerowa mwt_101 M#wT1_01 mwt_102 M#wT1_02 MODELOWANIE MATERIAŁÓW I PROCESÓW http://hpc-adm.uci.umk.pl/ IP=158.75.1.113 software:

Bardziej szczegółowo

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 23 X 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura

Bardziej szczegółowo

Migracja Business Intelligence do wersji

Migracja Business Intelligence do wersji Migracja Business Intelligence do wersji 2016.1 Copyright 2015 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest

Bardziej szczegółowo

WEBCON BPS Instalacja Standalone

WEBCON BPS Instalacja Standalone WEBCON BPS Instalacja Standalone 1. Wymagania wstępne... 2 1.1. Software... 2 1.2. Hardware... 2 1.2.1. Scenariusze sprzętowe konfiguracji... 2 1.2.2. Instalacja minimalna all-in-one installation... 2

Bardziej szczegółowo

61 Topologie wirtualne

61 Topologie wirtualne 61 Topologie wirtualne pozwalają opisać dystrybucję procesów w przestrzeni z uwzględnieniem struktury komunikowania się procesów aplikacji między sobą, umożliwiają łatwą odpowiedź na pytanie: kto jest

Bardziej szczegółowo

Instrukcja korzystania z Virtual Box-a i SQLPLUS-a

Instrukcja korzystania z Virtual Box-a i SQLPLUS-a Instrukcja korzystania z Virtual Box-a i SQLPLUS-a Wstęp W tej instrukcji zawarte są procedury dotyczące użytkowania VirtualBox-a i SQLPLUS-a w zakresie: 1. Virtual Box a. podłączanie zewnętrznych współdzielonych

Bardziej szczegółowo

Instrukcja instalacji usługi Sygnity Service

Instrukcja instalacji usługi Sygnity  Service Instrukcja instalacji usługi Sygnity EmailService Usługa Sygnity EmailService jest przeznaczona do wysyłania wiadomości pocztą elektroniczną do klientów zarejestrowanych w Systemach Dziedzinowych Sygnity

Bardziej szczegółowo