Migracja obliczeń na system Hydra
|
|
- Ignacy Piasecki
- 8 lat temu
- Przeglądów:
Transkrypt
1 Migracja obliczeń na system Hydra Uniwersytet Warszawski Matematycznego i Komputerowego Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl
2 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
3
4 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
5 Login.icm.edu.pl Logowanie do sieci ICM Używamy protokołu SSH Putty (Windows), ssh (Linux, Mac) Łączenie poprzez serwer dostępowy (kolejkowy) login.icm.edu.pl (hpc.icm.edu.pl) Zastępuje dostęp przez delta/gw/atol
6 Organizacja zasobów Serwer login posiada dostęp do wszystkich ważniejszych zasobów dyskowych z różnych maszyn Aktualnie z wyjątkiem: Boreasz-a (Power775) Nie ma potrzeby podwójnego transferowania danych z przesiadką na delcie Możliwość zlecania zadań bezpośrednio na systemy: Hydra, Halo2, Grom W przygotowaniu: Nostromo (BlueGene/Q) Nie dotyczy: Notos(BlueGene/P),Boreasz (Power775)
7 Organizacja zasobów cd. Kompilacje wykonujemy na docelowej maszynie (Nostromo) lub na węzłach obliczeniowych (Hydra, Halo2, Grom) Kompilacja w trybie cross-compilation nie dostępna na serwerze kolejkowym (login)
8 Organizacja zasobów (schemat) Internet (Dom, Instytut) ssh login.icm.edu.pl /icm/* ssh boreasz notos nostromo /icm/nostromo/home hydra/grom /icm/hydra/home /icm/hydra/software /icm/hydra/* halo2 /icm/halo2/home slurm /icm/home /icm/tmp
9 Dostępne informacje Strona wiki centrum obliczeniowego ICM UW
10 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
11 O Hydrze Hydra to klaster serwerów HP i Supermicro ogólnego przeznaczenia, wyposażony w procesory AMD i Intel. System dostępny jest dla wszystkich posiadających konta w infrastrukturze PL-Grid, dla użytkowników KDM, dla członków organizacji związanych z CERN. Dostęp do klastra możliwy jest poprzez ssh, podobnie, jak w przypadku innych maszyn ICM, przy pomocy narzędzi takich, jak: UNICORE, QosCosGrid czy glite. Systemy zainstalowane na klastrze to Scientific Linux, SLURM, Lustre.
12 Hydra specyficzne własności Własności węzłów (constraint) Model CPU Liczba CPU x rdzeni RAM Roboczy system plików(scratch) Interconnect Liczba węzłów AMD2435,ib,noht AMD Opteron x 6 32 GB 250 GB Infiniband DDR + 1Gb Ethernet 96 intelx5660,ib,noht Intel(R) Xeon(R) X x 6 24 GB 188 GB Infiniband QDR + 1Gb Ethernet 120 magnycours,noht AMD Opteron x GB 188 GB 10Gb Ethernet 30 interlagos,noht AMD Opteron x GB 188 GB 10Gb Ethernet 16 Pełna wersja tabeli:
13 Hydra specyficzne własności cd. Lokalizacja Zmienna środowiskowa Przeznaczenie Całkowita przestrzeń Współdzielona? Intensywny zapis/odczyt? Kopie zapasowe (backup)? Quota (limit miejsca) /icm/home/ $HOME Przestrzeń przechowywania wyników obliczeń. 130TB Tak (wszystkie wezły klastra i submit host) Nie Nie 100GB /mnt/software - Zainstalowane aplikacje dla węzłów z SL6 20T Tak (Wszystkie węzły klastra) Nie Tak - $TMPDIR Lokalny scratch obliczeniowy (katalog tymczasowy) <1TB Nie Tak Nie - $TMPSHARED Współdzielony pomiędzy węzłami scratch obliczeniowy 108 TB Tak (Wszystkie węzły klastra) Tak Nie 10TB. Automatyczn e kasowanie Pełna wersja tabeli:
14 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
15 Gdzie są moje pliki Katalog domowy: /icm/home/login Pliki z Halo2: /icm/halo2/home/users/login Pliki z workspace: /icm/delta/workspace/login Pliki z nostromo: /icm/nostromo/home/users/login
16 Migracja danych Kopiowanie plików z Halo2 będąc na Hydrze: cp -p /icm/halo2/home/users/login/plik. Kopiowanie katalogów: cp rp /icm/halo2/home/users/login/plik. -p: zachowuje oryginalną datę stworzenia pliku
17 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
18 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
19 System SLURM Menadżer zasobów (system kolejkowy) dla klastrów obliczeniowych na licencji GNU Funkcjonalność Alokacja określonych zasobów (węzłów obliczeniowych) na wyłączne użycie lub bez wyłączności Uruchamianie i zarządzenie zadaniami równoległymi na przydzielonych zasobach Kolejkowanie zadań
20 Terminologia SLURM Węzeł (node) - pojedynczy węzeł klastra na którym można alokować zasoby Partycja (partition) zbiór węzłów na którym kolejkowane są zadania (odpowiednik kolejki w innych systemach) Zadanie (job, job step) zestaw programów użytkownika wraz z zasobami i potencjalnymi zależnościami Proces (task) program uruchamiany na pojedynczym procesorze Własności (constraint) funkcjonalności węzła zdefiniowane przez administratora
21 SLURM komendy (szybki start) salloc - alokuje węzły i inne zasoby dla zadania użytkownika sbatch - wstawia skrypt zadania wsadowego do kolejki sbatch n4 moje_zadanie.sl scancel - wysyła sygnał / przerywa wykonanie zadania scancel --signal=sigkill 1234 scontrol- podgląd i modyfikacje zadań, partycji, rezerwacji sinfo - wyświetla informacje o węzłach i partycjach squeue - wyświetla stan kolejki zadań srun - uruchamia zadanie (równoległe) srun n4 --exclusive moj_program.exe
22 Tryb interaktywny W trybie interaktywnym system przydziela nam określone zasoby i pozwala pracować na nich z poziomu konsoli Obliczenia wykonujemy wydając kolejne komendy Możliwość interakcji z programem Możliwość pracy z programami graficznymi (okienkowe GUI, trudne do obsługi w windows) srun --pty bash -l Z użyciem rezerwacji srun --pty -reservation=rez_szk bash -l srun --pty A=GrantID bash -l
23 Tryb wsadowy W trybie wsadowym system przydziela określone zasoby oraz uruchamia sekwencję komend opisaną w skrypcie Skrypt musi posiadać odpowiednią strukturę Brak interakcji z uruchomionym programem Komendy SLURM zamiennie jako opcje sbatch lub na początku skryptu w linii #SBATCH sbatch moje_zadanie.sl #!/bin/sh #SBATCH --time=1 #SBATCH N4 srun hostname sort moje_zadanie.sl
24 Struktura skryptu wsadowego #!/bin/bash -l #SBATCH -J MojeZadanie #SBATCH -N 1 #SBATCH --tasks-per-node 12 #SBATCH --mem 5000 #SBATCH --time=20:00:00 #SBATCH -A G01-77 Nagłówek skryptu Blok dyrektyw SLURM Linie rozpoczynające się od: #SBATCH --nazwa opcji sbatch/srun (pojedynczy minus - dla jednoliterowej nazwy opcji) wartość opcji #SBATCH -C intelx5660 #SBATCH -p hydra #SBATCH --output= job.out #SBATCH -error= job.err mpiexec my_program -argument arg_value Komendy uruchamiające program(y) / aplikację
25 Organizacja środowiska: SLURM i moduły Narzędzie Modules służy do wyboru środowiska: docelowej architektury oraz dostępu do wymaganych aplikacji Typowy schemat pracy 1. W pierwszej kolejności wybór architektury, np.: 2. Alokacja zasobów SLURM poprzez salloc / sbatch / srun, np.: 3. Następnie w ramach zadania wybór aplikacji, np.: 4. Podobnie dostęp do kompilatorów, bibliotek, np.: UWAGA: Kolejność operacji ma znaczenie module load hydra-sl6 srun --pty p hydra bash -l module load vasp module load compilers/intel
26 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
27 Komendy SLURM vs PBS salloc sbatch srun scancel scontrol sinfo squeue qsub qdel qalter qstat qrun
28 Skrypt SLURM Skrypt PBS SLURM #!/bin/csh #SBATCH -J MojeZadanie #SBATCH -N 1 #SBATCH --tasks-per-node 12 #SBATCH --mem 5000 #SBATCH --time=20:00:00 #SBATCH -A G01-77 #SBATCH -C intelx5660 #SBATCH -p hydra #SBATCH --output= job.out #SBATCH -error= job.err PBS #!/bin/csh #PBS -N MojeZadanie #PBS -l nodes=1:ppn=12 #PBS -l mem=5000mb #PBS -l walltime=20:00:00 #PBS -A G01-77 #PBS -q test #PBS o job.out #PBS e job.err sbatch job.slurm qsub job.pbs
29 Hydra (własności) Hydra Istanbul (AMD2435) 12 rdzenie AMD 2435 (2.6 GHz) 32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Interlagos (interlagos) 64 rdzenie AMD Opteron 6272 (2.2 GHz) 521 GB Halo2 (kolejki) Halo2 Zwykły węzeł (halo2) 16 rdzenie AMD Opteron ( GHz) 16/32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Gruby węzeł (bigmem) 64 rdzenie AMD Opteron 6272 (2.1 GHz) 512 GB
30 Hydra (constraint -C) Halo2 (queue -q) Hydra Istanbul (AMD2435) 12 rdzenie AMD 2435 (2.6 GHz) 32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Interlagos (interlagos) 64 rdzenie AMD Opteron 6272 (2.2 GHz) 521 GB Halo2 Zwykły węzeł (halo2) 16 rdzenie AMD Opteron ( GHz) 16/32 GB Westmere (intelx5660) 12 rdzenie Intel Xeon X5660 (2.8 GHz) 24 GB Magnycours (magnycours) 48 rdzenie AMD Opteron 6174 (2.2 GHz) 256 GB Gruby węzeł (bigmem) 64 rdzenie AMD Opteron 6272 (2.1 GHz) 512 GB
31 Zmiana parametrów zadania scontrol pozwala użytkownikowi na zmianę parametrów jego zadań, np. scontrol update JobId=<id> TimeLimit=+10 Dodaje do pierwotnego limitu czasu zadania 10 min. Format zmiany czasu to: = (nadpisanie), =+ (dodanie) lub =- (odjęcie) minuty, minuty:sekundy, godziny:minuty:sekundy, dni-godziny, dnigodziny:minuty <id> to numer zadania w SLURM, widoczny np. przez squeue
32 Zmienne środowiskowe SLURM W ramach zadania kontrolowanego przez SLURM dostęp do zmiennych środowiskowych SLURM_XXX SLURM_JOB_ID Zawiera identyfikator zadania SLURM_NODELIST Pozwala listować węzły na których działą zadanie SLURM_NTASKS Pozwala sprawdzić liczbę wszystkich procesów w ramach zadania SLURM_TASKS_PER_NODE Pokazuje rozkład przydzielonych procesów na węzłach Inne
33 PRZYKŁADY
34 Zadanie: aproksymacja pi Całkowanie metodą prostokątów następującego wzoru: 1 n h 2 1 x xi i ( ) n 1,2 1 Wartość liczby pi przybliżamy poprzez całkowanie funkcji f na przedziale [0,1] za pomocą kwadratury prostokątów 0,8 0,6 f ( x) 1 1 x 2 0,4 0, ,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0, Wprowadzenie do MPI 37
35 Przykład 1: praca z programem okienkowym Praca interaktywna z trybem graficznym: MATLAB 1. ssh Y login.icm.edu.pl 2. module load hydra-sl6 3. srun --pty p hydra bash l 4. module load matlab 5. matlab Rozwiązujemy zadanie za pomocą kwadratury >> f + x.^2); >> mypi = integral(f, 0, 1); >> mypi
36 Przykład 2: obliczenia w NWChem i wizualizacja wyników krok po kroku Optymalizacja geometrii i wizualizacja molekuły 1. Przekopiować pliki i zalogowanie na węzeł cp /icm/hydra/lustre/temp/memar/szkol2014/input. module load hydra-sl6 srun --pty N 1 --tasks-per-node 4 bash -l 2. Wykonać symulację module load nwchem/6.3 mpirun -np 4 nwchem input > out 3. Wizualizacja module load jmol jmol.sh
37 Job array Funkcjonalność pozwalająca na tworzenie wielu zadań o identycznych ustawieniach Dodatkowa zmienna środowiskowa SLURM_ARRAY_TASK_ID pozwala parametryzować zadania z grupy Dostępne tylko dla zadań wsadowych uruchamianych przez sbatch, dodatkowo z opcją array sbatch --array=0,7 N1 moje_zadanie.sl sbatch --array=1,2,5,7 N1 moje_zadanie.sl sbatch --array=1-8:2 N1 moje_zadanie.sl
38 Zależności pomiędzy zadaniami Używamy sbatch / srun z opcją --dependency= <dependency_list> after:job_id[:jobid...] Start po rozpoczęciu określonego zadania / zadań afterany:job_id[:jobid...] Start po zakończeniu (jakimkolwiek) określonych zadań afternotok:job_id[:jobid...] Start po zakończeniu z błędem określonych zadań afterok:job_id[:jobid...] Start po poprawnym zakończeniu expand:job_id Zadanie ma wystartować jako rozszerzenie określonego zadania w tej samej partycji singleton Start po zakończeniu wszystkich innych zadań tego samego użytkownika
39 Przykład 3: Kompilacja i uruchomienie własnego programu Implementacja kwadratury w C: kompilator intela 1. Alokacja węzła na hydrze module load hydra-sl6 srun --pty p hydra bash -l 2. Kompilacja na węźle export EXAMPLES=/icm/hydra/software/icm/examples/slurm cp $EXAMPLES/my_pi.c. module load compilers/intel icc o my_pi my_pi.c 3. Uruchomienie programu./my_pi
40 Przykład 4: uruchomienie własnego zadania z parametrem (job array) 1. Przygotowanie programu na węźle cp $EXAMPLES/my_pi_arg.c. module load compilers/intel icc o my_pi_arg my_pi_arg.c 2. Przygotowanie plików sterujących (input) 3. Utworzenie skryptu kolejkowego my_pi_arr.sl #!/bin/bash -l #SBATCH -N 1 #SBATCH -n 1 #SBATCH -J my_pi export EXAMPLES=/icm/hydra/software/icm/examples/slurm srun my_pi_arg $EXAMPLES/my_pi_${SLURM_ARRAY_TASK_ID}.inp 4. Wstawienie do kolejki macierzy zadań sbatch --array=1-4 my_pi_arr.sl
41 Przykład 5: Kompilacja i uruchomienie własnego programu równoległego Wersja równoległa implementacji kwadratury z MPI 1. Przygotowanie programu na węźle cp $EXAMPLES/my_pi_mpi.c. module load compilers/intel module load mpi/mpich mpicc o my_pi_mpi my_pi_mpi.c 2. Utworzenie skryptu kolejkowego #!/bin/bash l #SBATCH A szkolenia my_pi_mpi.sl module load compilers/intel mpi/mpich mpiexec./my_pi_mpi 3. Wstawienie zadania równoległego do kolejki sbatch N1 n4 Sekcja Algorytmiki my_pi_mpi.sl Nowych Generacji Architektur
42 Przykład 6: obliczenia na GPU Obliczanie liczb pierwszych w CUDA + kompilator CUDA 1. Przekopiowaćć pliki i zalogowanie na węzeł z GPU (grom) cp /icm/hydra/lustre/temp/memar/szkol2014/cuda.cu. module load hydra-sl6 srun --pty p hydra --gres=gpu:1 bash -l 2. Przygotowanie programu dla GPU module load compilers/cuda/ nvcc arch=sm_20 o cuda cuda.cu 3. Uruchomienie programu./cuda
43 Strigger i notification SLURM może informować nas o konkretnych zdarzeniach Poprzez tzw. triggery strigger --set --jobid= time \ --offset= program=mój_program Ustawia trigger (set), który uruchomi program mój_program na 10 (offset 600) minut przed przekroczeniem limitu czasu (time) przez dane zadanie (id=1234) Poprzez komunikaty wysyłane em, sterowane opcjami srun / sbatch --mail-user=<user> --mail-type=<type> Powiadomienie o stanie zadania (type): BEGIN, END, FAIL, REQUEUE, ALL
44 Przydatne opcje srun --propagate=stack=unlimited --exclusive --dependency=expand:<jobid>
45 Plan szkolenia Organizacja i dostęp do zasobów ICM Prezentacja Hydry Migracja danych Wprowadzenie do PLGrid Podstawowe informacje o SLURM SLURM kontra PBS Tryby pracy w SLURM Przykład 1 praca w trybie graficznym Przykład 2 uruchamianie aplikacji i wizualizacja Przykład 3, 4 kompilacja i uruchamianie programów Przykład 5 obliczenia na kartach GPU Dodatkowe funkcjonalności SLURM
46 Profiling SLURM wspiera profiling zadań Sprawdzanie profilu zakończonego zadania sh5util -j <jobid> w lokalnym katalogu utworzony zostanie plik opisujący zadanie w formacie hdf5, np.: hpc$ sh5util -j sh5util: Merging node-step files into./job_13526.h5 Zawartość pliku otwieramy narzędziem graficznym hdfview module load tools/hdfview hdfview
47 Profiling cd. Przykładowy profil otwarty w programie hdfview
48 Przykład VAMPIR Ortogonalizacja wektorow 1. Przekopiować pliki i zalogowanie na węzeł cp /icm/hydra/lustre/temp/memar/szkol2014/vamp.c. module load hydra-sl6 srun --pty N 1 --tasks-per-node 4 bash -l 2. Przygotowanie programu dla GPU module load mpi/openmpi/1.6.5-intel module load vampir/8.2.0 mpicc-vt g vamp.c 3. Uruchomienie programu./a.out vampir
49 VAMPIR c.d.
50 sreport cluster AccountUtilizationByUser user=mstol start=01/09/13 end=12/10/13 format=accounts,cluster,cpucount,login,proper,used Accounting SLURM pozwala na sprawdzanie zużytych zasobów (w minutach procesora) Dla pojedynczego zadania przy użyciu sacct sacct j <jobid> -S <start zadania> \ -E <koniec zaadnia> \ -o JobID,AveRSS,MaxRSS,CPUTime,AllocCPUS,State Dla zadań użytkownika w określonym przedziale czasu przy użyciu sreport sreport cluster \ AccountUtilizationByUser user=<userid> \ start=01/09/13 end=12/10/13 \ format=accounts,cluster,cpucount,login,proper,used
51 Dziękujemy za uwagę!
Podstawy systemu kolejkowego SLURM
Podstawy systemu kolejkowego SLURM Uniwersytet Warszawski Matematycznego i Komputerowego http:// Marcin Stolarek m.stolarek@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Plan szkolenia Organizacja
Bardziej szczegółowoEfektywne wykorzystanie klastra Zeus w obliczeniach naukowych
Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych Maciej Czuchry, Klemens Noga ACK Cyfronet AGH ACK Cyfronet AGH, 23 marca 2015 Plan szkolenia Rejestracja Dostęp do klastra Przeprowadzanie
Bardziej szczegółowoWprowadzenie do obsługi systemów obliczeniowych PCSS
Wprowadzenie do obsługi systemów obliczeniowych PCSS Marcin Pospieszny Poznańskie Centrum Superkomputerowo-Sieciowe 17 listopada 2011 Plan prezentacji 1 Architektura maszyn 2 Linux: podstawy 3 PBS 4 Aplikacje
Bardziej szczegółowoEfektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga
Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender Maciej Czuchry, Klemens Noga WFiIS AGH, Kraków, 18 grudnia 2014 Plan szkolenia 2 Rejestracja Dostęp do klastra Przeprowadzanie
Bardziej szczegółowoUżytkowanie systemów obliczeniowych PCSS Artur Trojanowski
Użytkowanie systemów obliczeniowych PCSS 13.01.2016 Artur Trojanowski Plan prezentacji Architektura maszyn Zwiedzanie serwerowni Opis systemów kolejkowych Dostęp do maszyn Prowadzenie obliczeń Narzędzia
Bardziej szczegółowoPracownia Technik Obliczeniowych
Pracownia Technik Obliczeniowych SLURM Paweł Daniluk Wydział Fizyki Wiosna 2016 P. Daniluk(Wydział Fizyki) PTO VIII Wiosna 2016 1 / 17 Przetwarzanie wsadowe Zasoby superkomputera z reguły dzielone są pomiędzy
Bardziej szczegółowoWykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.
Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.pl Cele prezentacji Zapoznanie potencjalnych użytkowników z
Bardziej szczegółowoSkrócony Poradnik Użytkownika
Skrócony Poradnik Użytkownika Opracowano na podstawie zawartości bazy wiedzy Grida GRAFEN, dostępnej pod adresem http://info.grafen.ippt.gov.pl oraz materiałów dostarczonych przez firmę WASKO, wykonawcę
Bardziej szczegółowoObliczenia równoległe w zagadnieniach inżynierskich. Wykład 4
Wykład 4 p. 1/14 Obliczenia równoległe w zagadnieniach inżynierskich Wykład 4 Dr inż. Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Klastry Wykład
Bardziej szczegółowoKomputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś
Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń
Bardziej szczegółowoKlaster obliczeniowy
Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana
Bardziej szczegółowoBartosz Bosak Piotr Kopta Tomasz Piontek
Dostęp do infrastruktury PL-Grid z wykorzystaniem usług i narzędzi QosCosGrid oraz gridu dziedzinowego Chamia Kwantowa Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda Wstęp Specyfikacja zasobów Zadania
Bardziej szczegółowoWprowadzenie do obliczeń na komputerach ICM
Wprowadzenie do obliczeń na komputerach ICM Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Uniwersytet Warszawski Interdyscyplinarne Centrum Modelowania Matematycznego
Bardziej szczegółowoZasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego
Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Mateusz Tykierko WCSS 20 stycznia 2012 Mateusz Tykierko (WCSS) 20 stycznia 2012 1 / 16 Supernova moc obliczeniowa: 67,54 TFLOPS liczba
Bardziej szczegółowoEfektywne wykorzystanie zasobów obliczeniowych KDM w PCSS
Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS Radosław Januszewski, Marcin Pospieszny, Piotr Brona, Bartłomiej Burba, Maciej Brzeźniak Poznańskie Centrum Superkomputerowo-Sieciowe Zasoby HPC:
Bardziej szczegółowoArchitektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>
Architektura, oprogramowanie i uytkowanie klastra PCSS Marek Zawadzki Plan prezentacji: klastry krótkie wprowadzenie klaster PCSS budowa jak otrzyma konto na klastrze sposób dostpu
Bardziej szczegółowoPodstawy pracy w ICM
Podstawy pracy w ICM Zespół KDM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwerystet Warszawski Szkolenie KDM (Kontakt: pomoc@icm.edu.pl) Podstawy pracy w ICM Szkolenie KDM
Bardziej szczegółowoInfrastruktura PL-Grid - usługi dla chemii obliczeniowej
1 Infrastruktura PL-Grid - usługi dla chemii obliczeniowej Klemens Noga, Maciej Czuchry ACK Cyfronet AGH Kraków, 15, 22 oraz 29 XI 2013 Plan szkolenia 2! Czym jest ACK CYFRONET AGH?! Zasoby PL-Gridu! rejestracja
Bardziej szczegółowoUsługi i narzędzia QCG
Usługi i narzędzia QCG wygodny dostęp dla użytkowników do infrastruktury komputerów dużej mocy Tomasz Piontek, Bartosz Bosak, Piotr Kopta, Maciej Tronowski, Krzysztof Kurowski Poznańskie Centrum Superkomputerowo
Bardziej szczegółowoKompilacja i uruchamianie zadań na klastrach Perszeron i Mustang.
Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang. Klaster Perszeron pracuje pod kontrolą systemu SuSE Linux Enterprise Server 10 w wersji 64bitowej i wyposażony jest w zestaw standardowych
Bardziej szczegółowoWrocławskie Centrum Sieciowo-Superkomputerowe
Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 26 czerwca 2012 Mateusz Tykierko (WCSS) 26 czerwca 2012 1 / 23 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca
Bardziej szczegółowoWprowadzenie do obliczeń na komputerach ICM
2013-02-20 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl
Bardziej szczegółowoLogowanie z zewnątrz. Np. Program PUTTY, SSH
Logowanie z zewnątrz Np. Program PUTTY, SSH ssh login@wizard.igf.fuw.edu.pl Jestem na wizardzie w sieci IGFu, mam dostęp do swoich katalogów $HOME, widzę terminal linuxa (bash) mogę zalogować się do wszystkich
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Maciej Czuchry, Klemens Noga ACK Cyfronet AGH Seminarium Katedry Informatyki Stosowanej, AGH, Kraków 2015 Agenda ACK Cyfronet
Bardziej szczegółowoMateriały dodatkowe. Simulink Real-Time
Katedra Inżynierii Systemów Sterowania Materiały dodatkowe Simulink Real-Time Opracowali: mgr inż. Tomasz Karla Data: Listopad, 2016 r. Wstęp Simulink Real-Time jest środowiskiem pozwalającym na tworzenie
Bardziej szczegółowowiczenia MPI-2 Mirosław Kupczyk PCSS,
wiczenia MPI-2 Mirosław Kupczyk Miroslaw.Kupczyk@man.poznan.pl PCSS, 12.06.2006 http://szkolenia.man.poznan.pl Kompilacja i uruchomienie Origin 3800, Irix 6.5.25f MPT 1.9 Z linii komend: > cc -64 prog.c
Bardziej szczegółowoInfrastruktura PLGrid dla młodych naukowców
Infrastruktura PLGrid dla młodych naukowców Mariola Czuchry ACK Cyfronet AGH Koło Naukowe Geodetów Dahlta, AGH, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura PLGrid PLGrid to Struktura
Bardziej szczegółowoInstalacja aplikacji
1 Instalacja aplikacji SERTUM... 2 1.1 Pobranie programu z Internetu... 2 1.2 Instalacja programu... 2 1.3 Logowanie... 3 2 Instalacja aplikacji RaportNet... 4 2.1 Pobranie programu z Internetu... 4 2.2
Bardziej szczegółowoProgramowanie równoległe i rozproszone. Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz
Programowanie równoległe i rozproszone Praca zbiorowa pod redakcją Andrzeja Karbowskiego i Ewy Niewiadomskiej-Szynkiewicz 23 października 2009 Spis treści Przedmowa...................................................
Bardziej szczegółowoInfrastruktura PLGrid (nie tylko) dla młodych naukowców
Infrastruktura PLGrid (nie tylko) dla młodych naukowców Mariola Czuchry, Mariusz Sterzel ACK Cyfronet AGH Wydział Mechaniczny, PK, Kraków 16 XI 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka
Bardziej szczegółowoPROCEDURA BACKUP & RECOVER Dokument opisuje procedurę backup u i odtwarzania dla bazy Oracle 11gR2
2012 PROCEDURA BACKUP & RECOVER Dokument opisuje procedurę backup u i odtwarzania dla bazy Oracle 11gR2 ORA- 600 Kamil Stawiarski Spis treści Pełny backup serwera Oracle... 3 Backup wykonywany z jednego
Bardziej szczegółowoCyfronet w CTA. Andrzej Oziębło DKDM
Cyfronet w CTA Andrzej Oziębło DKDM ACK CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie ul. Nawojki 11 30-950 Kraków 61 tel. centrali:
Bardziej szczegółowoInfrastruktura PLGrid dla młodych polskich naukowców
Infrastruktura PLGrid dla młodych polskich naukowców Mariola Czuchry ACK Cyfronet AGH WFiIS, AGH, Kraków 5 X 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka Struktura Oferta Dostęp do
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek, Mariusz Sterzel ACK Cyfronet AGH Katedra Katedra Fizykochemii i Modelowania Procesów WIMiC, AGH,
Bardziej szczegółowoUSŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń
Bardziej szczegółowoHigh Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009
High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych
Bardziej szczegółowohttps://portal.clusterix.pl:8443 trainxx tramxx
Logowanie 1. Otworzyć w oknie przeglądarki adres: https://portal.clusterix.pl:8443 2. Zalogować się używając konta, użytkownik: trainxx, hasło: tramxx Delegacja certyfikatu proxy 1. Zalogować poprzez ssh
Bardziej szczegółowoUruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS
Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS Logowanie 1. Logujemy się poprzez ssh na serwer dostępowy na konto studentxx, które zostało przydzielone w użytkownikowi
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Robotyki i Mechatroniki, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Bardziej szczegółowoWin Admin Replikator Instrukcja Obsługi
Win Admin Replikator Instrukcja Obsługi Monitoring Kopie danych (backup) E-mail Harmonogram lokalne i zewnętrzne repozytorium Logi Pamięć Procesor HDD Administracja sprzętem i oprogramowaniem (automatyzacja
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Wydział Fizyki, Astronomii i Informatyki Stosowanej, Kraków 2015 Agenda ACK Cyfronet
Bardziej szczegółowoWirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań
Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań zespół PCSS/MIC: Jacek Kochan, Jerzy Mikołajczak, Marek Zawadzki 4. Konferencja MIC Nowoczesne technologie bliżej nas Poznań, 04.03.2010
Bardziej szczegółowoTworzenie i obsługa wirtualnego laboratorium komputerowego
Uniwersytet Mikołaja Kopernika Wydział Fizyki, Astronomii i Informatyki Stosowanej Michał Ochociński nr albumu: 236401 Praca magisterska na kierunku informatyka stosowana Tworzenie i obsługa wirtualnego
Bardziej szczegółowoSpis treści. I. Skuteczne. Od autora... Obliczenia inżynierskie i naukowe... Ostrzeżenia...XVII
Spis treści Od autora..................................................... Obliczenia inżynierskie i naukowe.................................. X XII Ostrzeżenia...................................................XVII
Bardziej szczegółowoINSTRUKCJA INSTALACJI I PIERWSZEGO URUCHOMIENIA APLIKACJI Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy
INSTRUKCJA INSTALACJI I PIERWSZEGO URUCHOMIENIA APLIKACJI Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy Instalacja systemu Rodzajowa Ewidencja Wydatków plus Zamówienia i Umowy System Rodzajowa Ewidencja
Bardziej szczegółowoSystemy operacyjne i sieci komputerowe Szymon Wilk Konsola MMC 1
i sieci komputerowe Szymon Wilk Konsola MMC 1 1. Wprowadzenie Aby efektywniej zarządzać swoim komputerem Microsoft stworzył narzędzie o wiele bardziej zaawansowane Panel Sterowania. Narzędziem tym jest
Bardziej szczegółowoPowłoka I. Popularne implementacje. W stylu sh (powłoki zdefiniowanej w POSIX) W stylu csh. bash (najpopularniejsza) zsh ksh mksh.
Powłoka I Popularne implementacje W stylu sh (powłoki zdefiniowanej w POSIX) bash (najpopularniejsza) zsh ksh mksh W stylu csh csh tcsh 12 października 2018 1 / 16 Powłoka II Zachęta Komunikuje się z użytkownikiem
Bardziej szczegółowoKonwersja maszyny fizycznej na wirtualną.
1 (Pobrane z slow7.pl) W końcu, kto Nam zabroni aby stworzyć maszyny wirtualne, które będą pracować pod kontrolą różnych systemów z rodziny Windows bądź Linux. Praca w oparciu o maszyny wirtualne pozwala
Bardziej szczegółowoMESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra
MESco Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075 Stanisław Wowra swowra@mesco.com.pl Lider w dziedzinie symulacji na rynku od 1994 roku. MESco
Bardziej szczegółowoNiezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER
Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Prof. Roman Wyrzykowski, Politechnika Częstochowska Rafał Mikołajczak, Marek Zawadzki Poznańskie
Bardziej szczegółowoWprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek
Wprowadzenie do użytkowania infrastruktury PL Grid Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda WSTĘP (PL-GRID) Konsorcjum PL-Grid Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej
Bardziej szczegółowoPostępowanie WCh.2420.18.2014.AB Wrocław, 12 lutego 2014 r.
Postępowanie WCh.2420.18.2014.AB Wrocław, 12 lutego 2014 r. Uczestnicy postępowania Dotyczy: postępowania o udzielenie zamówienia publicznego na dostawę komputerów osobistych, komputerów przenośnych, macierzy
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Biochemii i Neurobiologii, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Bardziej szczegółowoZespól Szkół Ponadgimnazjalnych Nr 17 im. Jana Nowaka - Jeziorańskiego Al. Politechniki 37 Windows Serwer 2003 Instalacja
7 Windows Serwer 2003 Instalacja Łódź, styczeń 2012r. SPIS TREŚCI Strona Wstęp... 3 INSTALOWANIE SYSTEMU WINDOWS SERWER 2003 Przygotowanie instalacji serwera..4 1.1. Minimalne wymagania sprzętowe......4
Bardziej szczegółowoSkładowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego
Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Rafał Tylman 1, Bogusław Śmiech 1, Marcin Wichorowski 2, Jacek Wyrwiński 2 1 CI TASK Politechnika Gdańska,
Bardziej szczegółowo1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3
dla użytkowników Działu Komputerów Dużej Mocy Wrocławskiego Centrum Sieciowo- Superkomputerowego Politechniki Wrocławskiej Załącznik nr 4 do SIWZ znak: ZP/BZP/148/2017 1. Wprowadzenie... 3 2. Opis sytuacyjny....
Bardziej szczegółowoSystem. Instalacja bazy danych MySQL. Autor : Piotr Zielonka tel Piotrków Tryb., sierpień 2018r.
System FOKUS Instalacja bazy danych MySQL Autor : Piotr Zielonka tel. 601 99-73-79 pomoc@zielonka.info.pl Piotrków Tryb., sierpień 2018r. W wersji 2018.7.0 systemu FoKus wprowadzono funkcje umożliwiające
Bardziej szczegółowoInstalacja środowiska MPI w systemie operacyjnym Linux
Instalacja środowiska MPI w systemie operacyjnym Linux Zakres ćwiczenia W tym ćwiczeniu dowiesz się, w jaki sposób dokonać instalacji środowiska MPI w systemie operacyjnym Linux. Do instalacji wybrano
Bardziej szczegółowoWZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy:
WZÓR UMOWY Zawarta w Białymstoku, w dniu.. pomiędzy: Województwem Podlaskim, z siedzibą w Białymstoku przy ul. Kardynała Stefana Wyszyńskiego 1, w imieniu którego działa, na podstawie upoważnienia udzielonego
Bardziej szczegółowoDział Dopuszczający Dostateczny Dobry Bardzo dobry Celujący
Przedmiotowy system oceniania Zawód: Technik Informatyk Nr programu: 312[ 01] /T,SP/MENiS/ 2004.06.14 Przedmiot: Systemy Operacyjne i Sieci Komputerowe Klasa: pierwsza Dział Dopuszczający Dostateczny Dobry
Bardziej szczegółowoTekla Structures 20 Instalacja
Tekla Structures 20 Instalacja Plan prezentacji: - Wymagania sprzętowe - Instalacja TS20.0 - Instalacja środowisk - Instalacja i konfiguracja bibliotek CS - Struktura katalogów - Flexnet serwer licencyjny
Bardziej szczegółowoPodstawy Programowania 2
Podstawy Programowania 2 Laboratorium 7 Instrukcja 6 Object Pascal Opracował: mgr inż. Leszek Ciopiński Wstęp: Programowanie obiektowe a programowanie strukturalne. W programowaniu strukturalnym, któremu
Bardziej szczegółowoMigracja Comarch ERP Altum Business Intelligence do wersji
Migracja Comarch ERP Altum Business Intelligence do wersji 2016.5 Wersja 2016.5 2 Comarch ERP Altum Wersja 2016.5 Copyright 2016 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości
Bardziej szczegółowoSpis treści. Rozdział 3. Podstawowe operacje na plikach...49 System plików... 49 Konsola... 49 Zapisanie rezultatu do pliku... 50
Spis treści Rozdział 1. Instalacja systemu Aurox...5 Wymagania sprzętowe... 5 Rozpoczynamy instalację... 6 Wykrywanie i instalacja urządzeń... 7 Zarządzanie partycjami... 10 Konfiguracja sieci i boot loadera...
Bardziej szczegółowoX P.I.W.O. Portowanie Tizena na nowe architektury na przykładzie ARMv6. Maciej Wereski Samsung R&D Institute Poland. 17 Maj 2014 - Poznań, Polska
X PIWO 17 Maj 2014 - Poznań, Polska Portowanie Tizena na nowe architektury na przykładzie ARMv6 Maciej Wereski Samsung R&D Institute Poland Plan prezentacji Środowisko budowania Tizena Infrastruktura GBS
Bardziej szczegółowoMonitorowanie i zarządzanie urządzeniami sieciowymi przy pomocy narzędzi Net-SNMP
Uniwersytet Mikołaja Kopernika w Toruniu Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Szymon Klimuk Nr albumu: 187408 Praca magisterska na kierunku Informatyka Monitorowanie
Bardziej szczegółowoWprowadzenie do obliczeń na komputerach ICM
2012-10-3 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl
Bardziej szczegółowoZADANIE nr 4 Sprawdzian z informatyki
Rafał Siczek Uniwersytet Wrocławski Studia Podyplomowe z Informatyki dla Nauczycieli SPI51 ZADANIE nr 4 Sprawdzian z informatyki Tematyka sprawdzianu: Systemy operacyjne Czas sprawdzianu: 25 min SPI51
Bardziej szczegółowoWykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej
Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej 30 maj 2011, Kraków 1 z 22 POWIEW Program Obliczeń Wielkich Wyzwań Nauki i Techniki Celem jest udostepnienie w polskich
Bardziej szczegółowoInstrukcja konfiguracji programu KS-ASW do pracy w trybie wielopodmiotowym
Instrukcja konfiguracji programu KS-ASW do pracy Strona 1 z 9 Spis treści 1. Wstęp... 3 2. Zasada działania wielopodmiotowości... 3 3. Uruchamianie trybu wielopodmiotowości... 3 4. Dodawanie nowej firmy...
Bardziej szczegółowoPracownia komputerowa. Dariusz wardecki, wyk II
Pracownia komputerowa Dariusz wardecki, wyk II Systemy operacyjne Desktopowe Mobilne Systemy operacyjne Systemy Unixowe Windows! Windows 8 Windows 7 Windows Vista Windows XP... Linux Mac OS X Mountain
Bardziej szczegółowoVDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis
VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis Historia @ WIL PW 2 ~2005 pierwszy wannabe-klaster z MPI i kolejkowaniem 2010 pierwszy prawdziwy klaster HPC, RDMA, Infiniband, LustreFS
Bardziej szczegółowoSystemy operacyjne. Instrukcja laboratoryjna. Ćwiczenie 1: Polecenia systemu UNIX/LINUX. Opracował: dr inż. Piotr Szpryngier
Systemy operacyjne Instrukcja laboratoryjna Ćwiczenie 1: Polecenia systemu UNIX/LINUX Opracował: dr inż. Piotr Szpryngier Olsztyn 2009 1 Wprowadzenie. Cel zajęć praktycznych. Wymagania stawiane studentom
Bardziej szczegółowoPROFESJONALNE SYSTEMY BEZPIECZEŃSTWA
PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA Przewodnik konfiguracji i zarządzania Siemens 4YourSafety Konfiguracja Siemens 4YourSafety w zakresie systemu operacyjnego i supportu urządzenia może odbywać się w
Bardziej szczegółowoEnterprise, czyli instytutowy klaster obliczeniowy
Enterprise, czyli instytutowy klaster obliczeniowy Janusz Szwabiński szwabin@ift.uni.wroc.pl Enterprise, czyli instytutowy klaster obliczeniowy p.1/28 Plan wykładu Klastry komputerowe Enterprise od podszewki
Bardziej szczegółowoInstalacja Ubuntu 12.12
Instalacja Ubuntu 12.12 Instalację systemu operacyjnego zaczynamy jak zawsze od stworzenia (jeśli nie posiadamy oryginalnego) odpowiedniego nośnika. Można użyć płyty lub innego odpowiednio przygotowanego
Bardziej szczegółowoWindows Serwer 2008 R2. Moduł 8. Mechanizmy kopii zapasowych
Windows Serwer 2008 R2 Moduł 8. Mechanizmy kopii zapasowych Co nowego w narzędziu Kopia zapasowa? 1. Większa elastyczność w zakresie możliwości wykonywania kopii zapasowych 2. Automatyczne zarządzanie
Bardziej szczegółowoWykaz zmian w programie WinAdmin Replikator
Wykaz zmian w programie WinAdmin Replikator Pierwsza wersja programu 1.0.0.1 powstała w czerwcu 2010. kod źródłowy programu zawiera ponad 6 900 wierszy. Modyfikacje/zmiany w wersji 1.0.4.0 (październik
Bardziej szczegółowoSpis treści. Dzień 1. I Konfiguracja sterownika (wersja 1410) II Edycja programu (wersja 1406) III Środowisko TIA Portal (wersja 1410)
Spis treści Dzień 1 I Konfiguracja sterownika (wersja 1410) I-3 Zadanie Tworzenie konfiguracji sprzętowej I-4 Co jest potrzebne by zacząć? I-5 TIA Portal ekran startowy I-6 Tworzenie nowego projektu I-7
Bardziej szczegółowoVinCent Administrator
VinCent Administrator Moduł Zarządzania podatnikami Krótka instrukcja obsługi ver. 1.01 Zielona Góra, grudzień 2005 1. Przeznaczenie programu Program VinCent Administrator przeznaczony jest dla administratorów
Bardziej szczegółowo- 1 Laboratorium fotografii cyfrowej Foto Video Hennig
Foto Video Hennig, ul. Krótka 20,83-110 Tczew tel. 58 531 79 24,, kontakt@foto-hennig.pl Instalacja i użytkowanie programu FotoSender 3.0 Pobieranie i instalacja: 1. Pobieranie i instalacja Fotosendera
Bardziej szczegółowoMazowiecki Elektroniczny Wniosek Aplikacyjny
Mazowiecki Elektroniczny Wniosek Aplikacyjny Generator Offline Instrukcja użytkownika Problemy z aplikacją można zgłaszad pod adresem: zgloszenie@mazowia.eu SPIS TREŚCI Zawartość 1 Instalacja Generatora
Bardziej szczegółowoGRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie. Bogdan Ludwiczak bogdanl@man.poznan.pl
GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie Bogdan Ludwiczak bogdanl@man.poznan.pl GRMS co to jest / do czego to służy? GRMS jest systemem szeregowania zadań dla dużych,
Bardziej szczegółowoPR P E R Z E E Z N E T N A T C A JA C JA KO K RP R O P RA R C A Y C JN Y A JN ACTINA DATA MANAGER
PREZENTACJA KORPORACYJNA ACTINA DATA MANAGER Oprogramowanie Actina Data Manager (ADM) Podstawowe zagadnienia: 1. Zastosowanie 2. Grupa docelowych uŝytkowników 3. Bezpieczeństwo 4. Środowisko pracy 5. MoŜliwości
Bardziej szczegółowoWykaz zmian w programie WinAdmin Replikator
Wykaz zmian w programie WinAdmin Replikator Pierwsza wersja programu 1.0.0.1 powstała w czerwcu 2010. kod źródłowy programu zawiera ponad 6 900 wierszy. Modyfikacje/zmiany w wersji 1.0.4.0 (październik
Bardziej szczegółowoNarzędzia klienta usługi archiwizacji
Narzędzia klienta usługi archiwizacji Warsztaty Usługa powszechnej archiwizacji Michał Białoskórski, CI TASK Bartłomiej Balcerek, WCSS Narzędzia klienta Dostęp przez stronę www: Interfejs www użytkownika
Bardziej szczegółowoSieciowa instalacja Sekafi 3 SQL
Sieciowa instalacja Sekafi 3 SQL Niniejsza instrukcja opisuje instalację Sekafi 3 SQL w wersji sieciowej, z zewnętrznym serwerem bazy danych. Jeśli wymagana jest praca jednostanowiskowa, należy postępować
Bardziej szczegółowostr. 1 Informacja o zmianie treści specyfikacji istotnych warunków zamówienia Oświęcim, dnia r.
Oświęcim, dnia 16.07. 2015 r. Państwowe Muzeum Auschwitz-Birkenau w Oświęcimiu ul. Więźniów Oświęcimia 20 32-603 Oświęcim Informacja o zmianie treści specyfikacji istotnych warunków zamówienia Modyfikacja
Bardziej szczegółowoAE/ZP-27-16/14. Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi
AE/ZP-27-16/14 Załącznik B Oprogramowanie do wykonywania kopii zapasowych oraz zarządzania maszynami wirtualnymi Wykonywanie kopii zapasowych Oprogramowanie do archiwizacji musi współpracować z infrastrukturą
Bardziej szczegółowoKOMPUTEROWY SYSTEM WSPOMAGANIA OBSŁUGI JEDNOSTEK SŁUŻBY ZDROWIA KS-SOMED
KOMPUTEROWY SYSTEM WSPOMAGANIA OBSŁUGI JEDNOSTEK SŁUŻBY ZDROWIA KS-SOMED Podręcznik użytkownika Katowice 2010 Producent programu: KAMSOFT S.A. ul. 1 Maja 133 40-235 Katowice Telefon: (0-32) 209-07-05 Fax:
Bardziej szczegółowoSynchronizator plików (SSC) - dokumentacja
SZARP http://www.szarp.org Synchronizator plików (SSC) - dokumentacja Wersja pliku: $Id: ssc.sgml 4420 2007-09-18 11:19:02Z schylek$ > 1. Witamy w programie SSC Synchronizator plików (SZARP Sync Client,
Bardziej szczegółowoepuap Archiwizacja w Osobistym Składzie Dokumentów
epuap Archiwizacja w Osobistym Składzie Dokumentów Projekt współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka SPIS TREŚCI SPIS
Bardziej szczegółowoweblsp Wybór przeglądarki i jej ustawienia Instrukcja ADH-Soft sp. z o.o., ul. 17 Stycznia 74, Warszawa
weblsp Wybór przeglądarki i jej ustawienia Instrukcja ADH-Soft sp. z o.o., ul. 17 Stycznia 74, 02-146 Warszawa www.adh.com.pl Spis treści 1. Wydajność aplikacji po stronie klienta... 3 2. Wybór przeglądarki
Bardziej szczegółowoMODELOWANIE MATERIAŁÓW I PROCESÓW
MODELOWANIE MATERIAŁÓW I PROCESÓW 2010/2011 putty + winscp Pracownia komputerowa mwt_101 M#wT1_01 mwt_102 M#wT1_02 MODELOWANIE MATERIAŁÓW I PROCESÓW http://hpc-adm.uci.umk.pl/ IP=158.75.1.113 software:
Bardziej szczegółowoEfektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej
Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 23 X 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura
Bardziej szczegółowoMigracja Business Intelligence do wersji
Migracja Business Intelligence do wersji 2016.1 Copyright 2015 COMARCH Wszelkie prawa zastrzeżone Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest
Bardziej szczegółowoWEBCON BPS Instalacja Standalone
WEBCON BPS Instalacja Standalone 1. Wymagania wstępne... 2 1.1. Software... 2 1.2. Hardware... 2 1.2.1. Scenariusze sprzętowe konfiguracji... 2 1.2.2. Instalacja minimalna all-in-one installation... 2
Bardziej szczegółowo61 Topologie wirtualne
61 Topologie wirtualne pozwalają opisać dystrybucję procesów w przestrzeni z uwzględnieniem struktury komunikowania się procesów aplikacji między sobą, umożliwiają łatwą odpowiedź na pytanie: kto jest
Bardziej szczegółowoInstrukcja korzystania z Virtual Box-a i SQLPLUS-a
Instrukcja korzystania z Virtual Box-a i SQLPLUS-a Wstęp W tej instrukcji zawarte są procedury dotyczące użytkowania VirtualBox-a i SQLPLUS-a w zakresie: 1. Virtual Box a. podłączanie zewnętrznych współdzielonych
Bardziej szczegółowoInstrukcja instalacji usługi Sygnity Service
Instrukcja instalacji usługi Sygnity EmailService Usługa Sygnity EmailService jest przeznaczona do wysyłania wiadomości pocztą elektroniczną do klientów zarejestrowanych w Systemach Dziedzinowych Sygnity
Bardziej szczegółowo