Użytkowanie systemów obliczeniowych PCSS Artur Trojanowski

Podobne dokumenty
Wprowadzenie do obsługi systemów obliczeniowych PCSS

Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych

Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga

Podstawy systemu kolejkowego SLURM

Migracja obliczeń na system Hydra

Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB

Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS

Pracownia Technik Obliczeniowych

Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Skrócony Poradnik Użytkownika

Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4

Użytkowanie nowoczesnego systemu obliczeniowego EAGLE

Infrastruktura PL-Grid - usługi dla chemii obliczeniowej

Bartosz Bosak Piotr Kopta Tomasz Piontek

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego

Podstawy pracy w ICM

Zasoby obliczeniowe Poznańskiego Centrum Superkomputerowo-Sieciowego

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

Infrastruktura PLGrid (nie tylko) dla młodych naukowców

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid dla młodych naukowców

Wrocławskie Centrum Sieciowo-Superkomputerowe

Cyfronet w CTA. Andrzej Oziębło DKDM

Wprowadzenie do obliczeń na komputerach ICM

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

wiczenia MPI-2 Mirosław Kupczyk PCSS,

Usługi i narzędzia QCG

Infrastruktura PLGrid dla młodych polskich naukowców

Klaster obliczeniowy

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

BASH - WPROWADZENIE Bioinformatyka 4

Wstęp do systemu Linux

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek

PRACOWNIA INFORMATYCZNA CHARAKTERYSTYKA PRZEDMIOTU BASH - PODSTAWOWE INFORMACJE

Egzamin pisemny z przedmiotu: Systemy operacyjne Semestr I

MODELOWANIE MATERIAŁÓW I PROCESÓW

MESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra

BASH - LINIA POLECEŃ. Bioinformatyka 2018/2019

Wprowadzenie do obliczeń na komputerach ICM

PRACOWNIA INFORMATYCZNA BASH - PODSTAWOWE INFORMACJE

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH

Wprowadzenie do obliczeń na komputerach ICM

Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE

Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER

Infrastruktura PLGrid Usługi dla chemii obliczeniowej

1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3

Logowanie z zewnątrz. Np. Program PUTTY, SSH

Wstęp do systemu Linux

ZAPYTANIE OFERTOWE NR PLCRC/ /06/2152/2014

Pracownia Informatyczna I ORGANIZACJA ZAJĘĆ, ZASADY ZALICZENIA

Uruchamianie zadań w środowisku CLUSTERIX z wykorzystaniem klienta tekstowego systemu GRMS

Wstęp do systemów wielozadaniowych laboratorium 03 Praca w powłoce UNIX-owej

Pracownia Komputerowa wykład II

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań

Wprowadzenie do obliczeń naukowych na Komputerach Dużej Mocy

Kompilacja i uruchamianie zadań na klastrach Perszeron i Mustang.

Sprawozdanie. (notatki) Sieci komputerowe i bazy danych. Laboratorium nr.3 Temat: Zastosowanie protokołów przesyłania plików

Operatory zmiany sposobu przypisania standardowych strumieni >,<,>> Jeżeli pierwsze polecenie powiodło się to wykona drugie

2014 LENOVO INTERNAL. ALL RIGHTS RESERVED

Systemy operacyjne na platformach mobilnych 2 Podstawy obsługi powłoki Bash

Wstęp do systemów wielozadaniowych laboratorium 02 Praca w systemie plików

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej

VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis

Klaster ISSI - raport na dzień 15 kwietnia 2010 r.

PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK

System operacyjny Linux wybrane zagadnienia. Magda Mielczarek Katedra Genetyki Uniwersytet Przyrodniczy we Wrocławiu

Stosowanie poleceń związanych z zarządzaniem plikami oraz katalogami: nazwa_polecenia -argumenty ścieżka/ścieżki do katalogu/pliku

Systemy operacyjne. Instrukcja laboratoryjna. Ćwiczenie 1: Polecenia systemu UNIX/LINUX. Opracował: dr inż. Piotr Szpryngier

Zarządzanie farmami serwerów Linux

Narzędzia klienta usługi archiwizacji

Infrastruktura PL-Grid wsparciem dla naukowców

Podstawy informatyki

ZAJĘCIA Komendy Linux WB -> w konsoli tty2 finger exit man pwd pwd finger ls man ls. -> po 2 minusach interpretacja słowa

PLGrid: informatyczne usługi i narzędzia wsparcia w nauce

Uruchomienie Raspberry Pi

Podstawy Programowania.

Pracownia Komputerowa wykład III

Uruchomienie Intel Galileo

Programowanie procesorów graficznych NVIDIA (rdzenie CUDA) Wykład nr 1

Technologie informacyjne lab. 4

trainxx tramxx

Pracownia Komputerowa wyk ad II

Infrastruktura PL-Grid wsparciem dla naukowców

System kontroli dostępu ACCO NET Instrukcja instalacji

ACCO NET. System kontroli dostępu. Instrukcja instalacji

Informatyka III : Instrukcja 1

Komendy Ubuntu MARCEL GAŃCZARCZYK 2T I 1

Technologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS

Spis treści. O autorze 9. O recenzentach 10. Przedmowa 13. Rozdział 1. Oto Linux Mint 17_

Powłoka I. Popularne implementacje. W stylu sh (powłoki zdefiniowanej w POSIX) W stylu csh. bash (najpopularniejsza) zsh ksh mksh.

Wstęp do obsługi Linux a

Wstęp do obsługi Linux a

Plan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem

Transkrypt:

Użytkowanie systemów obliczeniowych PCSS 13.01.2016 Artur Trojanowski

Plan prezentacji Architektura maszyn Zwiedzanie serwerowni Opis systemów kolejkowych Dostęp do maszyn Prowadzenie obliczeń Narzędzia programistyczne Zakończenie

Klaster, SMP Zasoby obliczeniowe PCSS składają się z 2 rodzajów maszyn : maszyny SMP (Symmetric Multiprocessing) klaster maszyn obliczeniowych PC VS

Maszyna SMP SGI UV 1000 : chimera.man.poznan.pl 256 x Intel Xeon E7-8837, x86 64 2048 rdzeni 16 TB RAM 1,2 TB local storage system kolejkowy: Slurm

Klaster obliczeniowy : budowa

Klaster obliczeniowy : orzeł/eagle Klaster obliczeniowy: eagle.man.poznan.pl 1178 węzły (Intel Xeon E5-2697 2 procesory po 14 rdzeni) łącznie 32984 rdzeni 64, 128 lub 256 GB RAM/węzeł Moc obliczeniowa 1372,13 TFLOPS Infiniband FDR interconnect 1 Gbit Ethernet interconnect system kolejkowy: Slurm LUSTRE kolejki : standard, multi, fast

Klaster obliczeniowy : inula Klaster obliczeniowy hybrydowy x86 64 + GPU: inula.man.poznan.pl 680 węzły Intel Xeon E5-2697 2 procesory po 14 rdzeni (2 x AMD 12 core Opteron), x86 64 210 kart GPGPU NVIDIA Tesla M2050 48, 64 lub 128 GB RAM/węzeł Moc obliczeniowa 303,4 TFLOPS Infiniband 1 Gbit Ethernet interconnect system kolejkowy: Torque ( PBS ) LUSTRE kolejki : standard, multi, fast

Klaster obliczeniowy : cane Klaster obliczeniowy hybrydowy x86 64 + GPU : cane.man.poznan.pl 150 + węzły (2 x AMD 1 core Opteron), x86 64 1 lub 2 karty GPGPU (NVIDIA Tesla M2050) 48 lub 64 GB RAM/węzeł Infiniband 1 Gbit Ethernet interconnect system kolejkowy: Slurm

Zwiedzanie Zapraszamy do zwiedzania serwerowni

Systemy kolejkowe : Podstawy System kolejkowy : zarządza zasobami sytemu obliczeniowego: CPU, pamięć, przestrzeń dyskowa, licencje do aplikacji oraz same aplikacje, interfejsami sieciowymi, zasilaniem podsystemów, zarządza zadaniami użytkowników Zarządza polityką grup użytkowników zapewnia jednakowe środowisko pozwala rozliczyć użytkownika (Accounting) W dziale KDM PCSS używamy: TORQUE (PBS) Slurm

Systemy kolejkowe : kolejki Nazwa Kolejki Limit czasu zadania Domyślny limit czasu zadania Standardowa ilość pamięci RAM Uwagi multi 7 dni 1 dzień 2 GB Kolejka multi przeznaczona jest dla zadań wykonujących się jednocześnie na kilku węzłach (np. aplikacje korzystające z biblioteki MPI) standard 7 dni 1 dzień 2 GB Kolejka ta przeznaczona jest dla zadań wykonujących się na jednym węźle maksymalna wartość parametru ppn=8 fast 1 godzina 10 minut - wysoki priorytet; maksymalna ilość węzłów 1

Systemy kolejkowe : Slurm System kolejkowy komendy: sbatch mój skrypt.sh : zleca zadanie squeue, squeue -u mój login : sprawdza status zadań scancel ID ZADANIA : usuwa zadanie z kolejki sinfo, scontrol show jobs/nodes : informacje dodatkowe srun -u bash -l -i: tryb interaktywny

Systemy kolejkowe : Torque/PBS System ten powstał na wzór OpenPBS-a, i jest z nim kompatybilny qsub mój skrypt.sh : zleca zadanie qstat -n1, qstat -n1 -u mój login : sprawdza status zadań qdel ID ZADANIA : usuwa zadanie z kolejki

Systemy kolejkowe PBS i Slurm qsub qstat qdel pbsnodes PBS O WORKDIR PBS JOBID PBS NODEFILE #PBS -N JobName #PBS -q kolejka #PBS -l nodes=1:ppn=4 #PBS -l mem=4gb #PBS -l procs=128 #PBS -l walltime=24:00:00 sbatch squeue scancel scontrol show nodes ; sinfo SLURM SUBMITDIR SLURM JOBID SLURM JOB NODELIST #SBATCH --job-name=jobname #SBATCH -p partycja #SBATCH --nodes=1 #SBATCH --ntasks-per-node=4 #SBATCH --mem=4gb #SBATCH --ntasks=128 #SBATCH --time=24:00:00

Zasoby dyskowe katalog domowy: NFS (dane) nie wykonujemy obliczeń $HOME Scratch: LUSTRE (tymczasowe dane) $TMPDIR archiwizacja danych: Corylus/Mentha Platon U4

Dostęp do maszyny obliczeniowej : SSH tylko i wyłącznie za pomocą protokołu SSH (secure shell) to nie jest ograniczenie!... bo ssh ma bardzo duże możliwości: przekierowanie interfejsu okienkowego ( ssh -X ) kopiowanie plików (scp/sftp) logowanie po kluczach ssh i wiele innych...

Dostęp do maszyny obliczeniowej : linux - ssh Klient SSH dla linux-a/unix-a : ssh

Dostęp do maszyny obliczeniowej : Windows - putty Klient SSH dla Windows : putty http://www.putty.org

Dostęp do maszyny obliczeniowej : pliki FileZilla : uniwersalny klient transferu plików http://filezilla-project.org

Prowadzenie obliczeń: podstawowe polecenia cd ; pwd ls ; ls -alh ; ls -alhtr; cp plik nowy_plik; mv nazwa nowa_nazwa ; rm plik ; rm -r plik/katalog mkdir ; chmod wget tar -cvf nazwa.tar plik; tar -xvf nazwa.tar mc : Midnight Commander ;

Prowadzenie obliczeń: skrypt obliczeniowy : Slurm #!/bin/bash #SBATCH --nodes=1 #SBATCH --cpus-per-task=1 #SBATCH --mem=4gb #SBATCH --time=00:05:00 pwd echo $SLURM_JOBID

Prowadzenie obliczeń: skrypt obliczeniowy : PBS #!/bin/bash #PBS -l nodes=1:ppn=1 #PBS -l mem=4gb #PBS l walltime=00:05:00 pwd cd $PBS_O_WORKDIR echo $PBS_JOBID

Prowadzenie obliczeń: skrypt obliczeniowy : zlecamy zadanie SLURM: sbatch skrypt.sh, sbatch -p fast skrypt.sh PBS: qsub skrypt.sh, qsub -q fast skrypt.sh

Prowadzenie obliczeń: skrypt obliczeniowy : sprawdzamy zadanie SLURM: squeue, squeue -u login PBS: qstat, qstat -u login

Prowadzenie obliczeń: skrypt obliczeniowy : usuwamy zadanie SLURM: scancel ID Zadania PBS: qdel ID Zadania

Prowadzenie obliczeń: skrypt obliczeniowy : Slurm hello.c #include <stdlib.h> #include <stdio.h> int main ( void ) { printf("hello! \n"); }

Prowadzenie obliczeń: skrypt obliczeniowy : Slurm Slurm.sh #!/bin/bash #SBATCH --jobname=example_sbatch #SBATCH -- output=example_sbatch.out #SBATCH --time=00:05:00 #SBATCH --nodes=1 #SBATCH --ntasks-per-node=1 # informacja na temat węzła roboczego echo "Zadanie wykonuje sie na wezle " /bin/hostname echo "" # tworzymy katalog TMPDIR : TMPDIR=/tmp/$USER/$SLURM_JOBID mkdir -p $TMPDIR # przechodzimy do katalogu $TMPDIR cd $TMPDIR echo "Katalog TMPDIR to :" pwd echo "" # kopiujemy pliki potrzebne do obliczeń do katalogu $TMPDIR cp $SLURM_SUBMIT_DIR/hello.c $TMPDIR gcc -o hello hello.c./hello > wynik.txt # kończymy obliczenia, katalog $TMPDIR kopiujemy do katalogu z którego zakolejkowano zadanie cp -r $TMPDIR $SLURM_SUBMIT_DIR/ # sprzątamy po sobie rm -rf $TMPDIR # koniec skryptu # Wykonujemy obliczenia

Prowadzenie obliczeń: sprawdzanie parametrów zadnia: Slurm squeue -u nazwa_użytkownika - wyświetlanie listy wszystkich zleconych przez użytkownika zadań sinfo - ogólne informacje o kolejkach scontrol show partition nazwa_kolejki szczegółowe informacje o kolejce scontrol show jobs JOBID : szczegółowe informacje o zadań scontrol show node nazwa_węzła - szczegółowe informacje o węźle

Aplikacje naukowe : moduły Listę aplikacji można uzyskać wydając polecenie modules avail Aplikacje/biblioteki używamy za pomocą polecenia module load openmpi/current

Aplikacje naukowe dostępne na maszynach obliczeniowych abaqus 6.12 amber 14 gaussian G09d matlab namd quantum espresso 5.2.0 ścieżka dostępu: /opt/exp soft/

Narzędzia programistyczne dostępne na maszynach obliczeniowych kompilatory GNU (C/C++/Fortran) kompilatory Intel kompilatory Open64 biblioteki MPI biblioteki BLAS/ATLAS biblioteki OpenCL, CUDA profilowanie : Intel Cluster Toolkit i AMD CODEXL

Materiały WIKI: http://wiki.man.poznan.pl/kdm/ Portal HPC na stronach PCSS : http://hpc.man.poznan.pl dokumentacja Slurm-a : http://slurm.schedmd.com/documentation.html ściąga poleceń różnych systemów kolejkowych : http://slurm.schedmd.com/rosetta.html dokumentacja PBS : http://www.adaptivecomputing.com/resources/docs/torque/usersmanual.php

Gdzie szukać pomocy? Pytania dotyczące maszyn obliczeniowych KDM PCSS należy wysyłać poczta elektroniczna na adres support-hpc@man.poznan.pl

Poznańskie Centrum Superkomputerowo - Sieciowe afiliowane przy Instytucie Chemii Bioorganicznej PAN, ul. Jana Pawła II 10, 61-139 Poznań, tel : (+48 61) 858-20-01, fax: (+48 61) 850-25-01, e-mail: office@man.poznan.pl, http://www.pcss.pl