Użytkowanie nowoczesnego systemu obliczeniowego EAGLE
|
|
- Irena Wiśniewska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Użytkowanie nowoczesnego systemu obliczeniowego EAGLE KONFERENCJA UŻYTKOWNIKÓW KDM 2016 W kierunku obliczeń Exaskalowych Mirosław Kupczyk, PCSS
2 Plan prezentacji Architektura klastra Dostęp do klastra Prowadzenie obliczeń Dostęp do aplikacji i narzędzi
3 klaster
4 Widok z zewnątrz
5 Wnętrze węzła Bloki wodne (nośnik ciepła: mieszanina H 2 O, glikol), węzeł Huawei FusionServer CH121v3 Foto:
6
7 Klaster obliczeniowy: eagle eagle.man.poznan.pl 1032 węzły (Intel Xeon E procesory po 14 rdzeni) łącznie rdzeni 64, 128 lub 256 GB RAM/węzeł Moc obliczeniowa 1,4 PFLOPS Infiniband FRD interconnect 1 Gbit Ethernet interconnect system kolejkowy: Slurm LUSTRE Kolejki (partycje) : standard, multi, fast
8 Węzły Nazwa handlowa węzła Model CPU Liczba węzłów Liczba procesoró w i rdzeni Ilość pamięci RAM w węźle Moc obliczenio wa Nazwa węzła Tag klasy węzła HUAWEI CH121 V3 HUAWEI CH121 V3 HUAWEI CH121 V3 Intel Xeon E v3 Intel Xeon E v3 Intel Xeon E v x14 64 GB 1,1 TFLOPS h1-h1178 huawei 530 2x GB 1,1 TFLOPS h1-h1178 huawei 59 2x GB 1,1 TFLOPS h1-h1178 huawei
9
10 Inne maszyny obliczeniowe dostępne w PCSS Klaster: inula.man.poznan.pl 303,4 TFLOPS 320 węzły 74 GPGPU System kolejkowy: PBS Klaster: cane.man.poznan.pl 150 węzłów 1 lub 2 karty GPGPU/węzeł 48 lub 64 GB RAM/węzeł SGI UV 1000 SMP: chimera.man.poznan.pl 256 procesorów 2048 rdzeni 16 TB RAM Slurm
11 Systemy kolejkowe System kolejkowy: Zarządza zasobami klastra: CPU, pamięć, przestrzeń dyskowa. Także: licencje, interfejsy sieciowe. Loadbalancing. Zarządza zadaniami użytkowników. Rezerwuje pulę zasobów na czas trwania zadania. Zapewnia jednakowe środowisko uruchomieniowe na wielu węzłach Zbiera informacje o wykonanych zadaniach (i w trakcie) accounting Ukrywa złożoność sprzętu W PCSS używamy : Slurm TORQUE ( PBS ) Kiedyś: LSF, NQE, SGE, Loadleveler
12 Systemy kolejkowe : Slurm Cechy: - Bardzo dobrze się skaluje. Jest zainstalowany na wielu komputerach z listy Top Wydajny. Jest w stanie obsłużyć ponad 1000 nowych zgłoszeń na sekundę. - Bezpłatny i Open Source - Przenośny kod, napisany w języku C. - Wspiera zarządzanie zasilaniem. Chwilowo nieużywane węzły może wyłączyć. - Odporność na awarię, w szczególności na awarię węzła sterującego. - Dodawanie nowej funkcjonalności poprzez wtyczki (analogia do pluginów w przeglądarkach). - Zadania mogą zmieniać swoją wielkość (ilość, liczbę zasobów) w trakcie wykonywania. - Statusy zadań, pomagają wykryć anomalie w rozkładzie obciążenia itp..
13 Dyski Organizacja przestrzeni dyskowej węzeł DOSTĘPOWY df -h Filesystem Size Used Avail Use% Mounted on /dev/xvda1 50G 6.6G 41G 15% / tmpfs 1.9G 0 1.9G 0% /dev/shm eagle-nfs:/gpfs01/home/inula 698T 505T 193T 73% /home eagle-nfs:/gpfs01/clusters/inula/exp_soft 698T 505T 193T 73% /opt/exp_soft eagle-nfs:/gpfs01/clusters/inula/modules 698T 505T 193T 73% /usr/share/modules
14 Dyski węzeł obliczeniowy df -h df: `/etc/nhc/nhc.conf': Permission denied Filesystem Size Used Avail Use% Mounted on rootfs 698T 505T 193T 73% / devtmpfs 63G 184K 63G 1% /dev tmpfs 63G 0 63G 0% /dev/shm eagle-nfs:/gpfs01/rootfs/eagle/eagle-wn/eagle-wn-slc6-rev.3 698T 505T 193T 73% / [ ] none 1.0G 91M 934M 9% /etc/sysconfig/network-scripts eagle-nfs:/gpfs01/home/inula 698T 505T 193T 73% /home eagle-nfs:/gpfs01/clusters/inula/exp_soft 698T 505T 193T 73% /opt/exp_soft eagle-nfs:/gpfs01/clusters/inula/modules 698T 505T 193T 73% /usr/share/modules eagle-qcg:/etc/grid-security/certificates 50G 4.3G /dev/shm 100K 8.0K 92K 8% /tmp/gangliastats @o2ib: @o2ib:/scratch 3.6P 181T 3.2P 6% /mnt/lustre 43G 10% /etc/grid-security/certificates
15 Slurm : użyteczne polecenia sbatch skrypt.sh : zlecanie zadań najczęściej w trybie wsadowym squeue, squeue -u username : status zadań scancel ID_ZADANIA : usuwanie zadania z kolejki sinfo, scontrol show jobs/nodes : informacje dodatkowe srun --pty /bin/bash : tryb interaktywny Przydatne zmienne środowiskowe Slurm (dostępne na węzłach): SLURM_JOBID SLURM_SUBMITDIR SLURM _JOB_NODELIST
16 Systemy kolejkowe PBS i Slurm Zbliżona funkcjonalność poleceń qsub qstat qdel pbsnodes PBS O WORKDIR PBS JOBID PBS NODEFILE #PBS -N JobName #PBS -q kolejka #PBS -l nodes=1:ppn=4 #PBS -l procs=128 #PBS -l walltime=30:23:59:59 sbatch squeue scancel scontrol show nodes ; sinfo SLURM SUBMITDIR SLURM JOBID SLURM JOB NODELIST #SBATCH --job-name=jobname #SBATCH -p partycja #SBATCH --nodes=1 #SBATCH --ntasks-per-node=4 #SBATCH --ntasks=128 #SBATCH --time=30-23:59:59
17 Użytkownik <-> komputer
18 Wymagania zasobowe Określenie wymagań zasobowych dla zadania: Liczba rdzeni Liczba węzłów Czas obliczeń (Wall Time) Maksymalne wymagania ilości pamięci operacyjnej <- węzły są różne pod względem ilości RAM! Można zaufać ustawieniom domyślnym dla kolejki, albo: Podając choćby przybliżone wartości zadanie krótsze uruchomi się szybciej! Skąd wiadomo ile czasu potrzebuje moje zadanie? - Z doświadczenia w uruchamianiu poprzednich podobnych zadań. - Szacowanie na podstawie próbek w związku ze skalowalnością zadania; czy zadanie dobrze się skaluje? - Można z góry policzyć liczbę operacji FP dla wytrwałych ;) Gdy nic nie wiadomo o zadaniu: - Trafi do domyślnej kolejki (fast) - Może tam dłużej poczekać na uruchomienie - Może zabraknąć pamięci i zadanie zakończy się błędem.
19 Jakie zasoby? > sinfo sinfo PARTITION AVAIL TIMELIMIT NODES STATE NODELIST fast* up 1:00:00 2 fail* e[0251,0695] fast* up 1:00:00 17 down* e[ ,0230,0240,0266, ,0358,0505,0652,0680, ,0721] fast* up 1:00: idle~ e[ , , , , , ,0113, , ,0154, , , ,0212, , ,0222, , ,0244, , , , ,0297,0303,0320, , , ,0351, , , , , , ,0390, ,0556, , , , , ,0623, , , , , , ,0670,0674, , , , ,0701, ,0712, , , , ,0741, , ] fast* up 1:00:00 3 down e[0217,0561,0746] fast* up 1:00:00 15 drng e[0155, , , , , , , ] fast* up 1:00: drain e[0001, ,0064,0071,0079, ,0185,0194,0211,0213,0221,0223, , ,0312,0333,0339, ,0371,0374, , ,0557,0574,0604,0622,0629,0645,0673,0675,0681,0689, ,0703,0705, ,0722,0727,0733,0740,0745] fast* up 1:00:00 28 mix e[ , ,0013,0016, ,0022, ,0084,0089,0096,0153,0186,0218,0254,0700, ] fast* up 1:00:00 71 alloc e[0002,0009, , ,0021,0023, ,0065, ,0112,0114,0130,0152,0224,0229,0231,0239,0241,0245,0271, ,0284,0293,0296,0298, ,0304, , , , , , ,0361,0366,0389, ,0395,0567,0624, , ,0666,0669, ,0702,0706,0709,0723,0742,0750] fast* up 1:00:00 2 idle e[0012,0704] standard up 7-00:00:00 2 fail* e[0251,0695] standard up 7-00:00:00 17 down* e[ ,0230,0240,0266, ,0358,0505,0652,0680, ,0721] standard up 7-00:00: idle~ e[ , , , , , ,0113, , ,0154, , , ,0212, , ,0222, , ,0244, , , , ,0297,0303,0320, , , ,0351, , , , , , ,0390, ,0556, , , , , ,0623, , , , , , ,0670,0674, , , , ,0701, ,0712, , , , ,0741, , ] standard up 7-00:00:00 3 down e[0217,0561,0746] standard up 7-00:00:00 15 drng e[0155, , , , , , , ] standard up 7-00:00: drain e[0001, ,0064,0071,0079, ,0185,0194,0211,0213,0221,0223, , ,0312,0333,0339, ,0371,0374, , ,0557,0574,0604,0622,0629,0645,0673,0675,0681,0689, ,0703,0705, ,0722,0727,0733,0740,0745] standard up 7-00:00:00 28 mix e[ , ,0013,0016, ,0022, ,0084,0089,0096,0153,0186,0218,0254,0700, ] standard up 7-00:00:00 71 alloc e[0002,0009, , ,0021,0023, ,0065, ,0112,0114,0130,0152,0224,0229,0231,0239,0241,0245,0271, ,0284,0293,0296,0298, ,0304, , , , , , ,0361,0366,0389, ,0395,0567,0624, , ,0666,0669, ,0702,0706,0709,0723,0742,0750] standard up 7-00:00:00 2 idle e[0012,0704] multi up 7-00:00:00 2 fail* e[0251,0695] multi up 7-00:00:00 17 down* e[ ,0230,0240,0266, ,0358,0505,0652,0680, ,0721] multi up 7-00:00: idle~ e[ , , , , , ,0113, , ,0154, , , ,0212, , ,0222, , ,0244, , , , ,0297,0303,0320, , , ,0351, , , , , , ,0390, ,0556, , , , , ,0623, , , , , , ,0670,0674, , , , ,0701, ,0712, , , , ,0741, , ] multi up 7-00:00:00 3 down e[0217,0561,0746] multi up 7-00:00:00 15 drng e[0155, , , , , , , ] multi up 7-00:00: drain e[0001, ,0064,0071,0079, ,0185,0194,0211,0213,0221,0223, , ,0312,0333,0339, ,0371,0374, , ,0557,0574,0604,0622,0629,0645,0673,0675,0681,0689, ,0703,0705, ,0722,0727,0733,0740,0745] multi up 7-00:00:00 28 mix e[ , ,0013,0016, ,0022, ,0084,0089,0096,0153,0186,0218,0254,0700, ] multi up 7-00:00:00 71 alloc e[0002,0009, , ,0021,0023, ,0065, ,0112,0114,0130,0152,0224,0229,0231,0239,0241,0245,0271, ,0284,0293,0296,0298, ,0304, , , , , , ,0361,0366,0389, ,0395,0567,0624, , ,0666,0669, ,0702,0706,0709,0723,0742,0750] multi up 7-00:00:00 2 idle e[0012,0704]
20 Partycje (Kolejki) scontrol show partitions PartitionName=fast AllowGroups=admins,staff,users,graphite,plgrid-users,others AllowAccounts=ALL AllowQos=ALL AllocNodes=eagle,eagle-qcg,e[ ] Default=YES QoS=N/A DefaultTime=01:00:00 DisableRootJobs=YES ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED MaxTime=01:00:00 MinNodes=1 LLN=NO MaxCPUsPerNode=UNLIMITED Nodes=e[ ] Priority=1 RootOnly=NO ReqResv=NO Shared=YES:4 PreemptMode=REQUEUE State=UP TotalCPUs=21000 TotalNodes=750 SelectTypeParameters=N/A DefMemPerCPU=2048 MaxMemPerNode=UNLIMITED PartitionName=standard AllowGroups=admins,staff,users,graphite,plgrid-users,others AllowAccounts=ALL AllowQos=ALL AllocNodes=eagle,eagle-qcg,e[ ] Default=NO QoS=N/A DefaultTime=1-00:00:00 DisableRootJobs=YES ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED MaxTime=7-00:00:00 MinNodes=1 LLN=NO MaxCPUsPerNode=UNLIMITED Nodes=e[ ] Priority=1 RootOnly=NO ReqResv=NO Shared=YES:4 PreemptMode=REQUEUE State=UP TotalCPUs=21000 TotalNodes=750 SelectTypeParameters=N/A DefMemPerCPU=2048 MaxMemPerNode=UNLIMITED PartitionName=multi AllowGroups=admins,staff,users,graphite,plgrid-users,others AllowAccounts=ALL AllowQos=ALL AllocNodes=eagle,eagle-qcg,e[ ] Default=NO QoS=N/A DefaultTime=1-00:00:00 DisableRootJobs=YES ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED MaxTime=7-00:00:00 MinNodes=1 LLN=NO MaxCPUsPerNode=UNLIMITED Nodes=e[ ] Priority=1 RootOnly=NO ReqResv=NO Shared=YES:4 PreemptMode=REQUEUE State=UP TotalCPUs=21000 TotalNodes=750 SelectTypeParameters=N/A DefMemPerCPU=2048 MaxMemPerNode=UNLIMITED
21 Prowadzenie obliczeń: skrypt obliczeniowy : Slurm #!/bin/bash #SBATCH --nodes=1 #SBATCH --cpus-per-task=1 pwd echo $SLURM_JOBID sleep 200
22 sbatch skrypt.sh Prowadzenie obliczeń: skrypt obliczeniowy : zlecenie zadania
23 Prowadzenie obliczeń: sprawdzenie statusu zadania squeue, squeue -u nazwa_użytkownika
24 scancel ID_Zadania Prowadzenie obliczeń: skrypt obliczeniowy : usuwanie zadania
25 Wyniki zadania Wyjścia stderr i stdout są kierowane do pliku: slurm-jobid.out miron@eagle:~/kdm$ ls -la total 0 drwxr-xr-x 2 miron staff 4096 Jun 24 13:34. drwx miron staff 4096 Jun 24 13:05.. -rw-r--r-- 1 miron staff 131 Jun 24 13:05 skrypt.sh -rw-r--r-- 1 miron staff 101 Jun 24 13:35 slurm out miron@eagle:~/kdm$ cat slurm out /home/staff/miron/kdm slurmstepd-e0202: *** JOB ON e0202 CANCELLED AT T13:35:11 *** miron@eagle:~/kdm$
26 Prowadzenie obliczeń: skrypt obliczeniowy : kompilacja hello.c #include <stdlib.h> #include <stdio.h> int main ( void ) { } printf("hello! \n"); Kompilujemy na węźle obliczeniowym! - Węzeł dostępowy ma niewielkie zasoby i służy tylko do nawiązania połączenia z klastrem. - Uruchamiamy zadanie tam, gdzie była kompilacja mamy pewność, że nie będzie problemów z bibliotekami, lub niekompatybilnymi instrukcjami.
27 Prowadzenie obliczeń: skrypt obliczeniowy : kompilacja > srun --pty /bin/bash - przechodzimy do trybu interaktywnego > module load gcc ładujemy moduł > gcc o hello hello.c kompilujemy
28 Zadanie sekwencyjne: skrypt obliczeniowy : Slurm Slurm.sh #!/bin/bash #SBATCH --jobname=example_sbatch #SBATCH -- output=example_sbatch.out #SBATCH -- error=example_sbatch.err #SBATCH --time=00:05:00 #SBATCH --nodes=1 #SBATCH --ntasks-per-node=1 # informacja na temat węzła roboczego echo "Zadanie wykonuje sie na wezle " /bin/hostname echo "" # tworzymy katalog TMPDIR : TMPDIR=/tmp/lustre_shared/ $USER/$SLURM_JOBID mkdir -p $TMPDIR # przechodzimy do katalogu $TMPDIR cd $TMPDIR echo "Katalog TMPDIR to :" pwd echo "" # kopiujemy pliki potrzebne do obliczeń do katalogu $TMPDIR cp $SLURM_SUBMIT_DIR/hello $TMPDIR # Wykonujemy obliczenia./hello > wynik.txt # kończymy obliczenia, katalog $TMPDIR kopiujemy do katalogu z którego zakolejkowano zadanie cp -r $TMPDIR $SLURM_SUBMIT_DIR/ # sprzątamy po sobie rm -rf $TMPDIR # koniec skryptu
29 #include "mpi.h" #include <stdio.h> #include <stdlib.h> #define MASTER 0 Prowadzenie obliczeń: mpi hello.c int main (int argc, char *argv[]) { int numtasks, taskid, len; char hostname[mpi_max_processor_name]; MPI_Init(&argc, &argv); MPI_Comm_size(MPI_COMM_WORLD, &numtasks); MPI_Comm_rank(MPI_COMM_WORLD,&taskid); MPI_Get_processor_name(hostname, &len); printf ("Hello from task %d on %s!\n", taskid, hostname); if (taskid == MASTER) printf("master: Number of MPI tasks is: %d\n",numtasks); MPI_Finalize();}
30 Prowadzenie obliczeń: skrypt obliczeniowy : mpi Slurm.sh #!/bin/bash #SBATCH --jobname=example_sbatch #SBATCH -- output=example_sbatch.out #SBATCH -- error=example_sbatch.err #SBATCH --time=00:05:00 #SBATCH --nodes=1 #SBATCH --ntasks-per-node=10 #SBATCH p=multi # załadowanie modułu module load mpich # informacja na temat węzła roboczego echo "Zadanie wykonuje sie na wezle " /bin/hostname echo "" # tworzymy katalog TMPDIR : TMPDIR=/tmp/lustre_shared/ $USER/$SLURM_JOBID mkdir -p $TMPDIR # przechodzimy do katalogu $TMPDIR cd $TMPDIR echo "Katalog TMPDIR to :" pwd echo "" # kopiujemy pliki potrzebne do obliczeń do katalogu $TMPDIR cp $SLURM_SUBMIT_DIR/hello $TMPDIR # Wykonujemy obliczenia mpiexec./hello > wynik.txt # kończymy obliczenia, katalog $TMPDIR kopiujemy do katalogu z którego zakolejko wano zadanie cp -r $TMPDIR $SLURM_SUBMIT_DIR/ # sprzątamy po sobie rm -rf $TMPDIR
31 Master/slave #!/bin/bash #SBATCH --job-name=ms #SBATCH --output=o_ms.txt #SBATCH --ntasks=4 #SBATCH --time=10:00 #SBATCH --mem-per-cpu=100 srun --multi-prog ms.conf Plik konfiguracyjny ms.conf: 0 echo 'I am the Master' 1-3 bash -c 'printenv SLURM_PROCID' Wynik w pliku o_ms.txt: I am the Master 1 2 3
32 Arrays Zadania niezależne #!/bin/bash #SBATCH --job-name=arrayjob #SBATCH --output=arrayjob_%a_%a.out #SBATCH --error=arrayjob_%a_%a.err #SBATCH --array=1-16 #SBATCH --time=01:00:00 #SBATCH --partition=multi #SBATCH --ntasks=1 #SBATCH --mem-per-cpu=400 ###################### # Begin work section # ###################### # Print this sub-job's task ID echo "My SLURM_ARRAY_TASK_ID: " $SLURM_ARRAY_TASK_ID # Do some work based on the SLURM_ARRAY_TASK_ID # For example: #./my_process $SLURM_ARRAY_TASK_ID # # where my_process is you executable Identyfikatory zadania: JOBID_1 JOBID_2 JOBID_3 JOBID_4
33 Prowadzenie obliczeń: sprawdzanie parametrów zadania: Slurm squeue -u nazwa_użytkownika - wyświetlanie listy wszystkich zleconych przez użytkownika zadań sinfo - ogólne informacje o kolejkach scontrol show partition nazwa_kolejki szczegółowe informacje o kolejce scontrol show jobs JOBID : szczegółowe informacje o zadań scontrol show node nazwa_węzła - szczegółowe informacje o węźle
34 Informacje historyczne saact sacct JobID JobName Partition Account AllocCPUS State ExitCode miron fast 1 FAILED 2: skrypt.sh fast 1 COMPLETED 0: batch batch 1 COMPLETED 0:0 Polecenie `squeue u username nie zwróci informacji o zadaniach zakończonych.
35 sacct > man sacct AllocCPUS AllocGRES AllocNodes AllocTRES Account AssocID AveCPU AveCPUFreq AveDiskRead AveDiskWrite AvePages AveRSS AveVMSize BlockID Cluster Comment ConsumedEnergy ConsumedEnergyRaw CPUTime CPUTimeRAW DerivedExitCode Elapsed Eligible End ExitCode GID Group JobID JobIDRaw JobName Layout MaxDiskRead MaxDiskReadNode MaxDiskReadTask MaxDiskWrite MaxDiskWriteNode MaxDiskWriteTask MaxPages MaxPagesNode MaxPagesTask MaxRSS MaxRSSNode MaxRSSTask MaxVMSize MaxVMSizeNode MaxVMSizeTask MinCPU MinCPUNode MinCPUTask NCPUS NNodes NodeList NTasks Priority Partition QOS QOSRAW ReqCPUFreq ReqCPUFreqMin ReqCPUFreqMax ReqCPUFreqGov ReqCPUS ReqGRES ReqMem ReqNodes ReqTRES Reservation ReservationId Reserved ResvCPU ResvCPURAW Start State Submit Suspended SystemCPU Timelimit TotalCPU UID User UserCPU WCKey WCKeyID
36 Aplikacje naukowe : moduły Listę aplikacji można uzyskać wydając polecenie: > module avail Aplikacje/biblioteki ładujemy za pomocą polecenia: > module load nazwa_modułu Lista załadowanych modułów: > module list Currently Loaded Modulefiles: 1) gmp/5.1.3(default) 2) mpfr/3.1.2(default) 3) libmpc/1.0.1(default) 4) gcc/ (default) 5) icc/15.0.3(default) 6) ifort/15.0.3(default) 7) impi/ (default) Listy dostępnych modułów są różne na węźle dostępowym i obliczeniowym.
37 Najczęściej używane aplikacje abaqus 6.12 amber 14 gaussian G09d matlab namd quantum espresso 5.2.0
38 Narzędzia programistyczne dostępne na maszynach obliczeniowych kompilatory GNU (C/C++/Fortran) kompilatory Intel kompilatory Open64 biblioteki MPI biblioteki MKL, ACML, Scalapack biblioteki CUDA, Boost, MPFR profilowanie : Intel Cluster Toolkit i AMD CODEXL Jeśli czegoś brakuje proszę o informację. Zainstalujemy!
39 Dostęp do maszyny obliczeniowej : SSH za pomocą protokołu SSH (secure shell) to nie jest ograniczenie!... bo ssh ma bardzo duże możliwości: przekierowanie interfejsu okienkowego ( ssh -X ) kopiowanie plików (scp/sftp) tunelowanie połączeń sieciowych i wiele innych.. GSISSH z użyciem certyfikatów infrastruktury PKI.
40 Dostęp do maszyny obliczeniowej : linux - ssh Klient SSH dla linux-a/unix-a : ssh
41 Dostęp do maszyny obliczeniowej : Windows - putty Klient SSH dla Windows : putty
42 Dostęp do maszyny obliczeniowej : pliki FileZilla WinSCP
43 Przydatne informacje dokumentacja Slurm-a : ściąga poleceń różnych systemów kolejkowych : WIKI: Portal HPC na stronach PCSS : (system składania wniosków) Wszelkie pytania, problemy dotyczące maszyn obliczeniowych KDM-PCSS należy wysyłać pocztą elektroniczną na adres systemu obsługi (TTS): support-hpc@man.poznan.pl
44 Poznańskie Centrum Superkomputerowo - Sieciowe afiliowane przy Instytucie Chemii Bioorganicznej PAN, ul. Jana Pawła II 10, Poznań, tel : (+48 61) , fax: (+48 61) , office@man.poznan.pl,
Użytkowanie systemów obliczeniowych PCSS Artur Trojanowski
Użytkowanie systemów obliczeniowych PCSS 13.01.2016 Artur Trojanowski Plan prezentacji Architektura maszyn Zwiedzanie serwerowni Opis systemów kolejkowych Dostęp do maszyn Prowadzenie obliczeń Narzędzia
Wprowadzenie do obsługi systemów obliczeniowych PCSS
Wprowadzenie do obsługi systemów obliczeniowych PCSS Marcin Pospieszny Poznańskie Centrum Superkomputerowo-Sieciowe 17 listopada 2011 Plan prezentacji 1 Architektura maszyn 2 Linux: podstawy 3 PBS 4 Aplikacje
Podstawy systemu kolejkowego SLURM
Podstawy systemu kolejkowego SLURM Uniwersytet Warszawski Matematycznego i Komputerowego http:// Marcin Stolarek m.stolarek@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Plan szkolenia Organizacja
Pracownia Technik Obliczeniowych
Pracownia Technik Obliczeniowych SLURM Paweł Daniluk Wydział Fizyki Wiosna 2016 P. Daniluk(Wydział Fizyki) PTO VIII Wiosna 2016 1 / 17 Przetwarzanie wsadowe Zasoby superkomputera z reguły dzielone są pomiędzy
Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych
Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych Maciej Czuchry, Klemens Noga ACK Cyfronet AGH ACK Cyfronet AGH, 23 marca 2015 Plan szkolenia Rejestracja Dostęp do klastra Przeprowadzanie
Migracja obliczeń na system Hydra
Migracja obliczeń na system Hydra Uniwersytet Warszawski Matematycznego i Komputerowego http:// Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Plan szkolenia Organizacja
Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.
Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń Wojciech Kwedlo Wydział Informatyki PB wkwedlo@ii.pb.bialystok.pl Cele prezentacji Zapoznanie potencjalnych użytkowników z
Skrócony Poradnik Użytkownika
Skrócony Poradnik Użytkownika Opracowano na podstawie zawartości bazy wiedzy Grida GRAFEN, dostępnej pod adresem http://info.grafen.ippt.gov.pl oraz materiałów dostarczonych przez firmę WASKO, wykonawcę
Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga
Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender Maciej Czuchry, Klemens Noga WFiIS AGH, Kraków, 18 grudnia 2014 Plan szkolenia 2 Rejestracja Dostęp do klastra Przeprowadzanie
Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4
Wykład 4 p. 1/14 Obliczenia równoległe w zagadnieniach inżynierskich Wykład 4 Dr inż. Tomasz Olas olas@icis.pcz.pl Instytut Informatyki Teoretycznej i Stosowanej Politechnika Częstochowska Klastry Wykład
Bartosz Bosak Piotr Kopta Tomasz Piontek
Dostęp do infrastruktury PL-Grid z wykorzystaniem usług i narzędzi QosCosGrid oraz gridu dziedzinowego Chamia Kwantowa Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda Wstęp Specyfikacja zasobów Zadania
Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>
Architektura, oprogramowanie i uytkowanie klastra PCSS Marek Zawadzki Plan prezentacji: klastry krótkie wprowadzenie klaster PCSS budowa jak otrzyma konto na klastrze sposób dostpu
wiczenia MPI-2 Mirosław Kupczyk PCSS,
wiczenia MPI-2 Mirosław Kupczyk Miroslaw.Kupczyk@man.poznan.pl PCSS, 12.06.2006 http://szkolenia.man.poznan.pl Kompilacja i uruchomienie Origin 3800, Irix 6.5.25f MPT 1.9 Z linii komend: > cc -64 prog.c
Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś
Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń
Usługi i narzędzia QCG
Usługi i narzędzia QCG wygodny dostęp dla użytkowników do infrastruktury komputerów dużej mocy Tomasz Piontek, Bartosz Bosak, Piotr Kopta, Maciej Tronowski, Krzysztof Kurowski Poznańskie Centrum Superkomputerowo
Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS
Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS Radosław Januszewski, Marcin Pospieszny, Piotr Brona, Bartłomiej Burba, Maciej Brzeźniak Poznańskie Centrum Superkomputerowo-Sieciowe Zasoby HPC:
Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE
Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2016 W kierunku obliczeń Exaskalowych Mirosław Kupczyk, PCSS 28.06.2016 Misja PRACE HPC Dla Przemysłu Zagwarantowanie
Infrastruktura PL-Grid - usługi dla chemii obliczeniowej
1 Infrastruktura PL-Grid - usługi dla chemii obliczeniowej Klemens Noga, Maciej Czuchry ACK Cyfronet AGH Kraków, 15, 22 oraz 29 XI 2013 Plan szkolenia 2! Czym jest ACK CYFRONET AGH?! Zasoby PL-Gridu! rejestracja
https://portal.clusterix.pl:8443 trainxx tramxx
Logowanie 1. Otworzyć w oknie przeglądarki adres: https://portal.clusterix.pl:8443 2. Zalogować się używając konta, użytkownik: trainxx, hasło: tramxx Delegacja certyfikatu proxy 1. Zalogować poprzez ssh
Zasoby obliczeniowe Poznańskiego Centrum Superkomputerowo-Sieciowego
Zasoby obliczeniowe Poznańskiego Centrum Superkomputerowo-Sieciowego Bartosz Bartosz Bosak, Bosak, Tomasz Tomasz Piontek Piontek Plan Prezentacji 0 PCSS 1 Infrastruktura PLGrid 2 Katalog aplikacji i usług
Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE
Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2017 Nowe trendy w użytkowaniu KDM Mirosław Kupczyk, PCSS 24.5.2017 Tier-0: komputery klasy Petaflops
Wrocławskie Centrum Sieciowo-Superkomputerowe
Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 26 czerwca 2012 Mateusz Tykierko (WCSS) 26 czerwca 2012 1 / 23 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca
High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009
High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych
Infrastruktura PLGrid (nie tylko) dla młodych naukowców
Infrastruktura PLGrid (nie tylko) dla młodych naukowców Mariola Czuchry, Mariusz Sterzel ACK Cyfronet AGH Wydział Mechaniczny, PK, Kraków 16 XI 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka
Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek
Wprowadzenie do użytkowania infrastruktury PL Grid Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda WSTĘP (PL-GRID) Konsorcjum PL-Grid Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej
Podstawy pracy w ICM
Podstawy pracy w ICM Zespół KDM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwerystet Warszawski Szkolenie KDM (Kontakt: pomoc@icm.edu.pl) Podstawy pracy w ICM Szkolenie KDM
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń
Wstęp do systemu Linux
M. Trzebiński Linux 1/8 Wstęp do systemu Linux Maciej Trzebiński Instytut Fizyki Jądrowej Polskiej Akademii Nauk Praktyki studenckie na LHC IFJ PAN 6lipca2015 Uruchomienie maszyny w CC1 M. Trzebiński Linux
Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego
Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Mateusz Tykierko WCSS 20 stycznia 2012 Mateusz Tykierko (WCSS) 20 stycznia 2012 1 / 16 Supernova moc obliczeniowa: 67,54 TFLOPS liczba
Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS
Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS Logowanie 1. Logujemy się poprzez ssh na serwer dostępowy na konto studentxx, które zostało przydzielone w użytkownikowi
Infrastruktura PLGrid dla młodych polskich naukowców
Infrastruktura PLGrid dla młodych polskich naukowców Mariola Czuchry ACK Cyfronet AGH WFiIS, AGH, Kraków 5 X 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka Struktura Oferta Dostęp do
Systemy operacyjne na platformach mobilnych 2 Podstawy obsługi powłoki Bash
Systemy operacyjne na platformach mobilnych 2 Podstawy obsługi powłoki Bash Prezentacja jest współfinansowana przez Unię Europejską w ramach Europejskiego Funduszu Społecznego w projekcie pt. Innowacyjna
Programowanie procesorów graficznych NVIDIA (rdzenie CUDA) Wykład nr 1
Programowanie procesorów graficznych NVIDIA (rdzenie CUDA) Wykład nr 1 Wprowadzenie Procesory graficzne GPU (Graphics Processing Units) stosowane są w kartach graficznych do przetwarzania grafiki komputerowej
Klaster obliczeniowy
Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana
Wprowadzenie do obliczeń na komputerach ICM
Wprowadzenie do obliczeń na komputerach ICM Maciej E. Marchwiany m.marchwiany@icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Uniwersytet Warszawski Interdyscyplinarne Centrum Modelowania Matematycznego
Wprowadzenie do obliczeń na komputerach ICM
2013-02-20 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl
Enterprise, czyli instytutowy klaster obliczeniowy
Enterprise, czyli instytutowy klaster obliczeniowy Janusz Szwabiński szwabin@ift.uni.wroc.pl Enterprise, czyli instytutowy klaster obliczeniowy p.1/28 Plan wykładu Klastry komputerowe Enterprise od podszewki
SYSTEMY OPERACYJNE I laboratorium 3 (Informatyka stacjonarne 2 rok, semestr zimowy)
Procesy i shell. Polecenia ps, sleep, exit, jobs, bg, fg, top, kill, bash, tcsh, which, type, whereis, touch. Metaznak & i >>. Dowiązania miękkie i twarde. Proces jest programem, który jest wykonywany
Podstawy informatyki
Podstawy informatyki WYKŁAD nr 02 Fizyka Techniczna, WFT PP Michał Hermanowicz Zakład Fizyki Obliczeniowej, Instytut Fizyki, Politechnika Poznańska Rok akademicki 2018/2019 M. Hermanowicz (IF PP) Podstawy
Cyfronet w CTA. Andrzej Oziębło DKDM
Cyfronet w CTA Andrzej Oziębło DKDM ACK CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie ul. Nawojki 11 30-950 Kraków 61 tel. centrali:
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Maciej Czuchry, Klemens Noga ACK Cyfronet AGH Seminarium Katedry Informatyki Stosowanej, AGH, Kraków 2015 Agenda ACK Cyfronet
BASH - WPROWADZENIE Bioinformatyka 4
BASH - WPROWADZENIE Bioinformatyka 4 DLACZEGO BASH? Praca na klastrach obliczeniowych Brak GUI Środowisko programistyczne Szybkie przetwarzanie danych Pisanie własnych skryptów W praktyce przetwarzanie
Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej
Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej 30 maj 2011, Kraków 1 z 22 POWIEW Program Obliczeń Wielkich Wyzwań Nauki i Techniki Celem jest udostepnienie w polskich
Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego
Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Rafał Tylman 1, Bogusław Śmiech 1, Marcin Wichorowski 2, Jacek Wyrwiński 2 1 CI TASK Politechnika Gdańska,
PRACOWNIA INFORMATYCZNA CHARAKTERYSTYKA PRZEDMIOTU BASH - PODSTAWOWE INFORMACJE
PRACOWNIA INFORMATYCZNA CHARAKTERYSTYKA PRZEDMIOTU BASH - PODSTAWOWE INFORMACJE M.Mielczarek Pracownia Informatyczna 2017/2018 1 PRACOWNIA INFORMATYCZNA PROWADZĄCY: Dr Magda Mielczarek (biolog) Katedra
Infrastruktura PLGrid dla młodych naukowców
Infrastruktura PLGrid dla młodych naukowców Mariola Czuchry ACK Cyfronet AGH Koło Naukowe Geodetów Dahlta, AGH, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura PLGrid PLGrid to Struktura
Logowanie z zewnątrz. Np. Program PUTTY, SSH
Logowanie z zewnątrz Np. Program PUTTY, SSH ssh login@wizard.igf.fuw.edu.pl Jestem na wizardzie w sieci IGFu, mam dostęp do swoich katalogów $HOME, widzę terminal linuxa (bash) mogę zalogować się do wszystkich
BASH - LINIA POLECEŃ. Bioinformatyka 2018/2019
BASH - LINIA POLECEŃ Bioinformatyka 2018/2019 PODSTAWOWE DEFINICJE Linux system operacyjny, które oferuje kompletne środowisko programistyczne Powłoka interfejs wiersza poleceń zapewniający komunikację
Podstawy Programowania.
Podstawy Programowania http://www.saltbox.com/img/under_the_hood.png O mnie... dr inż. Łukasz Graczykowski Zakład Fizyki Jądrowej Wydział Fizyki Politechniki Warszawskiej lgraczyk@if.pw.edu.pl www.if.pw.edu.pl/~lgraczyk/wiki
PRACOWNIA INFORMATYCZNA BASH - PODSTAWOWE INFORMACJE
PRACOWNIA INFORMATYCZNA BASH - PODSTAWOWE INFORMACJE Magda Mielczarek Pracownia Informatyczna 2015/2016 1 Podstawowe definicje Linux system operacyjny, które oferuje kompletne środowisko programistyczne
GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie. Bogdan Ludwiczak bogdanl@man.poznan.pl
GRMS System Zarządzania Zadaniami Interfejs użytkownika systemu GRMS wprowadzenie Bogdan Ludwiczak bogdanl@man.poznan.pl GRMS co to jest / do czego to służy? GRMS jest systemem szeregowania zadań dla dużych,
Zarządzanie wieloserwerowym środowiskiem SAS z wykorzystaniem SAS Grid Managera. Katarzyna Wyszomierska
Zarządzanie wieloserwerowym środowiskiem SAS z wykorzystaniem SAS Grid Managera Katarzyna Wyszomierska Wyzwania administratora Nowe oprogra mowanie Sprzęt Użytkownicy Dane Wyzwania administratora Potrzebne
Bazy Danych i Usługi Sieciowe
Bazy Danych i Usługi Sieciowe Ćwiczenia XI Paweł Daniluk Wydział Fizyki Jesień 2011 P. Daniluk (Wydział Fizyki) BDiUS ćw. XI Jesień 2011 1 / 18 Strona wykładu http://bioexploratorium.pl/wiki/ Bazy_Danych_i_Usługi_Sieciowe_-_2011z
Egzamin pisemny z przedmiotu: Systemy operacyjne Semestr I
Egzamin pisemny z przedmiotu: Systemy operacyjne Semestr I Uwaga: Test odnosi się do systemu operacyjnego Linux! 1) Linux jest systemem wielodostępnym, co oznacza, że: a) pozwala na logowanie się do systemu
Wstęp do informatyki. stęp do informatyki Polecenia (cz.2)
Wstęp do informatyki stęp do informatyki Polecenia (cz.2) Lista procesów top Pokaż listę procesów polecenie interaktywne Procesy Uruchamianie w tle. shell nie czeka na zakończenie procesu, można wydawać
1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3
dla użytkowników Działu Komputerów Dużej Mocy Wrocławskiego Centrum Sieciowo- Superkomputerowego Politechniki Wrocławskiej Załącznik nr 4 do SIWZ znak: ZP/BZP/148/2017 1. Wprowadzenie... 3 2. Opis sytuacyjny....
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Wydział Fizyki, Astronomii i Informatyki Stosowanej, Kraków 2015 Agenda ACK Cyfronet
Wstęp do informatyki Shell podstawy
Wstęp do informatyki Shell podstawy Podstawowe polecenia less plik(i) Przeglądaj interaktywnie zawartość plików. Można używać klawiszy kursora, PgDn, PgUp, etc. Koniec pracy (q), wyszukiwanie / Less is
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek, Mariusz Sterzel ACK Cyfronet AGH Katedra Katedra Fizykochemii i Modelowania Procesów WIMiC, AGH,
System operacyjny Linux wybrane zagadnienia. Magda Mielczarek Katedra Genetyki Uniwersytet Przyrodniczy we Wrocławiu
System operacyjny Linux wybrane zagadnienia Magda Mielczarek Katedra Genetyki Uniwersytet Przyrodniczy we Wrocławiu Linux Open Source Stale rozwijany Darmowy (wersje niekomercyjne) Bezpieczny Stabilny
Podstawy Programowania
Podstawy Programowania http://www.saltbox.com/img/under_the_hood.png Any sufficiently advanced technology is indistinguishable from magic. Arthur C. Clarke O mnie... dr inż. Małgorzata Janik Zakład Fizyki
Pracownia Informatyczna I ORGANIZACJA ZAJĘĆ, ZASADY ZALICZENIA
Pracownia Informatyczna I ORGANIZACJA ZAJĘĆ, ZASADY ZALICZENIA 1 Organizacja zajęć ½ semestru mgr Magda Mielczarek Katedra Genetyki, pokój nr 14 e-mail: magda.mielczarek@up.wroc.pl tel: 71-320-57-51 Slajdy
Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang.
Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang. Klaster Perszeron pracuje pod kontrolą systemu SuSE Linux Enterprise Server 10 w wersji 64bitowej i wyposażony jest w zestaw standardowych
Powłoka I. Popularne implementacje. W stylu sh (powłoki zdefiniowanej w POSIX) W stylu csh. bash (najpopularniejsza) zsh ksh mksh.
Powłoka I Popularne implementacje W stylu sh (powłoki zdefiniowanej w POSIX) bash (najpopularniejsza) zsh ksh mksh W stylu csh csh tcsh 12 października 2018 1 / 16 Powłoka II Zachęta Komunikuje się z użytkownikiem
Systemy operacyjne. Instrukcja laboratoryjna. Ćwiczenie 1: Polecenia systemu UNIX/LINUX. Opracował: dr inż. Piotr Szpryngier
Systemy operacyjne Instrukcja laboratoryjna Ćwiczenie 1: Polecenia systemu UNIX/LINUX Opracował: dr inż. Piotr Szpryngier Olsztyn 2009 1 Wprowadzenie. Cel zajęć praktycznych. Wymagania stawiane studentom
Operatory zmiany sposobu przypisania standardowych strumieni >,<,>> Jeżeli pierwsze polecenie powiodło się to wykona drugie
Linux Polecenia Opracował: Andrzej Nowak Operatory zmiany sposobu przypisania standardowych strumieni >,> Przykłady: 2> plik przypisuje standardowe wyjście błędów do pliku, 1>&2 przypisanie standardowe
Programowanie Równoległe Wykład 4. MPI - Message Passing Interface. Maciej Matyka Instytut Fizyki Teoretycznej
Programowanie Równoległe Wykład 4 MPI - Message Passing Interface Maciej Matyka Instytut Fizyki Teoretycznej Jak używać w MPI? Donald Knuth: We should forget about small efficiencies, say about 97% of
W pierwszej kolumnie wyświetlany jest identyfikator procesu (pid)
Ćwiczenie 2 Cel ćwiczenia: Poznanie mechanizmów wejścia/wyjścia, zapoznanie się ze sposobami wyświetlania plików tekstowych i wyszukiwania informacji, podstawowe operacje na plikach tekstowych, zmienne
Systemy operacyjne. System operacyjny Linux - wstęp. Anna Wojak
Systemy operacyjne System operacyjny Linux - wstęp Anna Wojak 1 1 Wstęp Linux jest systemem z rodziny Unix. Pierwsza wersja systemu została opracowana w 1969 roku przez K.Thompsona i D.Ritchie Jest to
Pracownia Komputerowa wykład III
Pracownia Komputerowa wykład III dr Magdalena Posiadała-Zezula http://www.fuw.edu.pl/~mposiada/pk16 1 Powłoki - rodzaje! W Linux ie mamy kilka powłok do wyboru:! sh : Bourne Shell, oryginalna powłoka systemu
Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej
Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 23 X 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Robotyki i Mechatroniki, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER
Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Prof. Roman Wyrzykowski, Politechnika Częstochowska Rafał Mikołajczak, Marek Zawadzki Poznańskie
Wstęp do systemu Linux
M. Trzebiński Linux 1/8 Wstęp do systemu Linux Maciej Trzebiński Instytut Fizyki Jądrowej Polskiej Akademii Nauk Praktyki studenckie na LHC IVedycja:2016r. IFJ PAN Uruchomienie terminala Jeżeli na komputerze
Uruchomienie Intel Galileo
Imie i nazwisko Nr indeksu Liczba punktów: Ramki oznaczone kolorem żółtym należy uzupełnić odpowiednią informacją! Po zakończeniu ćwiczenia niniejszą formatkę należy wysłać na adres: iwona.kochanska@eti.pg.gda.pl
Wprowadzenie. Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra.
N Wprowadzenie Co to jest klaster? Podział ze względu na przeznaczenie. Architektury klastrów. Cechy dobrego klastra. Wprowadzenie (podział ze względu na przeznaczenie) Wysokiej dostępności 1)backup głównego
Pobieranie argumentów wiersza polecenia
Pobieranie argumentów wiersza polecenia 2. Argumenty wiersza polecenia Lista argumentów Lista argumentów zawiera cały wiersz poleceń, łącznie z nazwą programu i wszystkimi dostarczonymi argumentami. Przykłady:
Programowanie Proceduralne
Programowanie Proceduralne Makefile Bożena Woźna-Szcześniak bwozna@gmail.com Akademia im. Jana Długosza Wykład 14 Co to jest Makefile Makefile jest plikiem reguł dla programu make. Wykorzystywany jest
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Biochemii i Neurobiologii, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Technologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS
Technologie taśmowe wprowadzenie i zastosowania Jacek Herold, WCSS Agenda Wprowadzenie Podstawowe cechy usługi Dostępne metody dostępowe Certyfikaty Kto może korzystać z usługi? Jak uzyskać konto? Agenda
Architektura komputerów
Architektura komputerów Wykład 13 Jan Kazimirski 1 KOMPUTERY RÓWNOLEGŁE 2 Klasyfikacja systemów komputerowych SISD Single Instruction, Single Data stream SIMD Single Instruction, Multiple Data stream MISD
Wprowadzenie do obliczeń na komputerach ICM
2012-10-3 Dobre praktyki obliczeń wielkoskalowych 1 Wprowadzenie do obliczeń na komputerach ICM Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl
Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH
Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Metalurgii Stopów Żelaza, Kraków 2015 Plan prezentacji
MODELOWANIE MATERIAŁÓW I PROCESÓW
MODELOWANIE MATERIAŁÓW I PROCESÓW 2010/2011 putty + winscp Pracownia komputerowa mwt_101 M#wT1_01 mwt_102 M#wT1_02 MODELOWANIE MATERIAŁÓW I PROCESÓW http://hpc-adm.uci.umk.pl/ IP=158.75.1.113 software:
Pracownia Komputerowa wyk ad II
Pracownia Komputerowa wykad II dr Magdalena Posiadaa-Zezula Magdalena.Posiadala@fuw.edu.pl http://www.fuw.edu.pl/~mposiada Magdalena.Posiadala@fuw.edu.pl 1 Systemy operacyjne Windows np. Windows 8. Systemy
Spis treści. Rozdział 3. Podstawowe operacje na plikach...49 System plików... 49 Konsola... 49 Zapisanie rezultatu do pliku... 50
Spis treści Rozdział 1. Instalacja systemu Aurox...5 Wymagania sprzętowe... 5 Rozpoczynamy instalację... 6 Wykrywanie i instalacja urządzeń... 7 Zarządzanie partycjami... 10 Konfiguracja sieci i boot loadera...
PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA
PROFESJONALNE SYSTEMY BEZPIECZEŃSTWA Przewodnik konfiguracji i zarządzania Siemens 4YourSafety Konfiguracja Siemens 4YourSafety w zakresie systemu operacyjnego i supportu urządzenia może odbywać się w
Tango-RedPitaya. Tango device server for RedPitaya multi-instrument board. Grzegorz Kowalski daneos@daneos.com 31 sierpnia 2015
Tango-RedPitaya Tango device server for RedPitaya multi-instrument board Grzegorz Kowalski daneos@daneos.com 31 sierpnia 2015 Streszczenie Tango-RedPitaya jest serwerem urządzeń Tango sterującym płytką
Katedra Elektrotechniki Teoretycznej i Informatyki. wykład 12 - sem.iii. M. Czyżak
Katedra Elektrotechniki Teoretycznej i Informatyki wykład 12 - sem.iii M. Czyżak Język C - preprocesor Preprocesor C i C++ (cpp) jest programem, który przetwarza tekst programu przed przekazaniem go kompilatorowi.
Sprawozdanie. (notatki) Sieci komputerowe i bazy danych. Laboratorium nr.3 Temat: Zastosowanie protokołów przesyłania plików
Sprawozdanie (notatki) Sieci komputerowe i bazy danych Laboratorium nr.3 Temat: Zastosowanie protokołów przesyłania plików Piotr Morawiec 22.03.2017 FTP (ang. File transfer Protocol) - protokół wymiany
Warstwy systemu Windows 2000
Warstwy systemu Windows 2000 Tryb użytkownika (User Mode) Tryb jądra (Kernel Mode) Tryb użytkownika (User Mode) Zarządzanie pamięcią wirtualną Cechy charakterystyczne systemu Windows XP: system bardzo
Tworzenie oprogramowania
Tworzenie oprogramowania dr inż. Krzysztof Konopko e-mail: k.konopko@pb.edu.pl 1 Tworzenie oprogramowania dla systemów wbudowanych Program wykładu: Tworzenie aplikacji na systemie wbudowanym. Konfiguracja
Wstęp do Informatyki i Programowania Laboratorium: Lista 0 Środowisko programowania
Wstęp do Informatyki i Programowania Laboratorium: Lista 0 Środowisko programowania Przemysław Kobylański Wprowadzenie Każdy program w C musi zawierać przynajmniej funkcję o nazwie main(): Aby możliwe
Wskaźniki. Przemysław Gawroński D-10, p marca Wykład 2. (Wykład 2) Wskaźniki 8 marca / 17
Wskaźniki Przemysław Gawroński D-10, p. 234 Wykład 2 8 marca 2019 (Wykład 2) Wskaźniki 8 marca 2019 1 / 17 Outline 1 Wskaźniki 2 Tablice a wskaźniki 3 Dynamiczna alokacja pamięci (Wykład 2) Wskaźniki 8
Proces instalacji systemu operacyjnego Linux Red Hat 7.3 (1)
Proces instalacji systemu operacyjnego Linux Red Hat 7.3 (1) 1. Ustawiamy w biosie bootowanie systemu z CD-ROMu bądź z dyskietki (tworzymy wówczas dyskietki startowe). 2. Aby rozpocząć proces instalacji
Instrukcja instalacji PS Bonus Pack do IBM SPSS Statistics 20 w systemie operacyjnym Windows
Instrukcja instalacji PS Bonus Pack do IBM SPSS Statistics 20 w systemie operacyjnym Windows Instalacja PS Bonus Pack Przed przystąpieniem do instalacji PS Bonus Pack należy wcześniej zainstalować program
Pracownia Komputerowa wykład III
Pracownia Komputerowa wykład III dr Magdalena Posiadała-Zezula dr Jan Suffczyński 1 Powłoki - rodzaje! W Linux ie mamy kilka powłok do wyboru:! sh : Bourne Shell, oryginalna powłoka systemu unix! csh :
Skrócony przewodnik OPROGRAMOWANIE PC. MultiCon Emulator
Wspomagamy procesy automatyzacji od 1986 r. Skrócony przewodnik OPROGRAMOWANIE PC MultiCon Emulator Wersja: od v.1.0.0 Do współpracy z rejestratorami serii MultiCon Przed rozpoczęciem użytkowania oprogramowania
Spis treści. O autorze 9. O recenzentach 10. Przedmowa 13. Rozdział 1. Oto Linux Mint 17_
O autorze 9 O recenzentach 10 Przedmowa 13 Rozdział 1. Oto Linux Mint 17_ Dlaczego Linux? 18 Czym jest dystrybucja? 19 Czy Linux jest trudny do opanowania? 21 Cechy wyróżniające dystrybucję Mint 22 Wersje
Wprowadzenie do środowiska Qt Creator
1.Instalacja środowiska Qt Creator Qt Creator jest wygodnym środowiskiem programistycznym przeznaczonym do tworzenia projektów, czyli aplikacji zarówno konsolowych, jak i okienkowych z wykorzystaniem biblioteki