Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Podobne dokumenty
Cyfronet w CTA. Andrzej Oziębło DKDM

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych

Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga

Infrastruktura PLGrid (nie tylko) dla młodych naukowców

Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH

Infrastruktura PLGrid dla młodych polskich naukowców

Infrastruktura PLGrid dla młodych naukowców

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Użytkowanie systemów obliczeniowych PCSS Artur Trojanowski

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego

Plan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem

Infrastruktura PL-Grid - usługi dla chemii obliczeniowej

Wprowadzenie do obsługi systemów obliczeniowych PCSS

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Wrocławskie Centrum Sieciowo-Superkomputerowe

Infrastruktura PL-Grid wsparciem dla naukowców

Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej?

Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid

Infrastruktura PL-Grid wsparciem dla naukowców

Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS

Usługi HEP w PLGrid. Andrzej Olszewski

Klaster obliczeniowy

Migracja obliczeń na system Hydra

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej

Infrastruktura PL-Grid wsparciem dla naukowców

Infrastruktura PL-Grid wsparciem dla naukowców

2014 LENOVO INTERNAL. ALL RIGHTS RESERVED

Infrastruktura PL-Grid wsparcie i rozwiązania dla polskiej nauki

Serwer biznesowy o podwójnym zastosowaniu moc obliczeniowa i pamięć masowa w jednej obudowie

Petabajtowe systemy przechowywania danych dla dostawców treści

OPIS PRZEDMIOTU ZAMÓWIENIA SPECYFIKACJA SPRZĘTU KOMPUTEROWEGO

MESco. Testy skalowalności obliczeń mechanicznych w oparciu o licencje HPC oraz kartę GPU nvidia Tesla c2075. Stanisław Wowra

Akademickie Centrum Komputerowe

Infrastruktura PLGrid Usługi dla chemii obliczeniowej

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej

Efektywne zarządzanie infrastrukturą IT, inwentaryzacja sprzętu i oprogramowania oraz ochrona danych przed wyciekiem dzięki wdrożeniu Axence nvesion

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

PROGRAMOWANIE WSPÓŁCZESNYCH ARCHITEKTUR KOMPUTEROWYCH DR INŻ. KRZYSZTOF ROJEK

Laboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz

NETWORK Monitorowanie serwerów, urządzeń i aplikacji INVENTORY Inwentaryzacja sprzętu i oprogramowania, audyty legalności USERS Monitorowanie

Infrastruktura informatyczna dla nauki w Polsce

NETWORK Monitorowanie serwerów, urządzeń i aplikacji INVENTORY Inwentaryzacja sprzętu i oprogramowania, audyty legalności USERS Monitorowanie

1. Wprowadzenie Opis sytuacyjny Specyfikacja techniczna... 3

Axence nvision Nowe możliwości w zarządzaniu sieciami

Podstawy systemu kolejkowego SLURM

SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA CZĘŚĆ I

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań

Podstawy pracy w ICM

Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE

Skrócony Poradnik Użytkownika

Tom II: SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA (SOPZ): Przedmiotem zamówienia jest dostawa sprzętu infrastruktury serwerowej i sieciowej.

Sterowany jakością dostęp do usług składowania danych dla e-nauki

Dotyczy postępowania prowadzonego w trybie przetargu nieograniczonego pn. System kopii zapasowych i zabezpieczenia danych nr sprawy 193/ORE/US/2017

KATALOG SERWERÓW ACTINA SOLAR

OPIS PRZEDMIOTU ZAMÓWIENIA

Zasoby obliczeniowe PL-Grid: Część pierwsza ACK Cyfronet AGH Rozmowy z twórcami gridu dziedzinowego Bioinformatyka oraz Klastra LifeScience

Rozbudowa dwóch posiadanych serwerów blade HP BL860c i2 do BL870c i2

PLGrid: informatyczne usługi i narzędzia wsparcia w nauce

Obliczenia równoległe w zagadnieniach inżynierskich. Wykład 4

Wymagania minimalne dotyczące konfiguracji infrastruktury systemowo-sprzętowej dla systemu CDN XL. Aktualizacja dokumentu: Wersja 9.

OPIS PRZEDMIOTU ZAMÓWIENIA - PARAMETRY TECHNICZNE I OKRES GWARANCJI (formularz) - po modyfikacji

Wirtualizacja w praktyce.

Instalacja aplikacji

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek

WOJEWÓDZTWO PODKARPACKIE. SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA (parametry i wymagania minimalne)

OPIS PRZEDMIOTU ZAMÓWIENIA

DZIERŻAWA I KOLOKACJA SERWERÓW DEDYKOWANYCH

ZMODYFIKOWANY SZCZEGÓŁOWY OPIS PRZEDMIOTU ZAMÓWIENIA (parametry i wymagania minimalne)

SYSTEMY OPERACYJNE WYKŁAD 1 INTEGRACJA ZE SPRZĘTEM

DOTACJE NA INNOWACJE

Wykorzystanie klastra Wydziału Informatyki PB do prowadzenia własnych obliczeń. Wojciech Kwedlo Wydział Informatyki PB

BASH - WPROWADZENIE Bioinformatyka 4

Symulacje kinetyczne Par2cle In Cell w astrofizyce wysokich energii Wykład 7

Działanie 2.3: Inwestycje związane z rozwojem infrastruktury informatycznej nauki

PRZETARG 01/EU/2016/SERVERS NA DOSTAWĘ, MONTAŻ I URUCHOMIENIE SERWERÓW, WIRTUALIZATORÓW, MACIERZY I OPROGRAMOWANIA ORAZ WYKUP STAREGO SPRZĘTU

Część II: Instalacja systemu Mediqus

Rozwiązania HPE Storage jak zapewnić pełne bezpieczeństwo Twoich danych?

Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych. Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński

VDI na OpenStack: jak to zrobić i czy ma to sens? Tomasz Dubilis

WZÓR UMOWY. Zawarta w Białymstoku, w dniu.. pomiędzy:

Wprowadzenie. Klastry komputerowe. Superkomputery. informatyka +

Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki

Architektura, oprogramowanie i uytkowanie klastra PCSS. Marek Zawadzki <mzawadzk@man.poznan.pl>

Katalog produktów HP Serwery i oprogramowanie zgodne ze standardami branżowymi (ISS) Polska Czerwiec 2008

Obliczenia Wysokiej Wydajności

UpGreat Systemy Komputerowe Sp. z o.o. NIP KRS KRS ul.ostrobramska 22, Poznań REGON TEL.

2. Prace do wykonania w ramach realizacji przedmiotu zamówienia

"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1

Instrukcja instalacji i użytkowania programu NFZPersonel

Konsolidacja wysokowydajnych systemów IT. Macierze IBM DS8870 Serwery IBM Power Przykładowe wdrożenia

DZIERŻAWA I KOLOKACJA SERWERÓW DEDYKOWANYCH

Załącznik nr 6 do SIWZ nr postępowania II MJ Zaoferowany. sprzęt L P. Parametry techniczne

PRZETARG 01/EU/2016/SERVERS NA DOSTAWĘ, MONTAŻ I URUCHOMIENIE SERWERÓW, WIRTUALIZATORÓW, MACIERZY I OPROGRAMOWANIA ORAZ WYKUP STAREGO SPRZĘTU

Welcome to the waitless world. Inteligentna infrastruktura systemów Power S812LC i S822LC

Zarządzanie farmami serwerów Linux

Transkrypt:

Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń Marek Magryś Jacek Budzowski

Zasoby obliczeniowe Baribal, Mars, Panda, Platon U3 Zeus: Klaster GPGPU vsmp BigMem Zeus Mars Platon Baribal Panda

2007 2008 2009 2010 2011 2012 2013 Baribal Panda Zeus vsmp Mars Zeus Zeus Platon U3 FPGA Zeus GPU

Zeus 374 Tflops ponad 20 tys. rdzeni ponad 200 kart GPGPU 60 TB RAM #1 w Polsce #145 na liście Top500

WLCG 1 0 G b INTERNET 1 0 G b PRACE 1 0 G b

Zeus klaster HP BL2x220c ponad 1100 węzłów 12000 rdzeni Intel Xeon 22TB RAM Interconnect: 1GbE per węzeł, 10GbE switch switch Infiniband 4x QDR (40Gbps) Pamięć dyskowa: 1.8PB 120 Tflops

Zeus BigMem HP BL685c G7 104 węzły 6656 rdzeni AMD Opteron 26 TB RAM 64 rdzeni, 256GB RAM per węzeł Interconnect: 10GbE per węzeł Infiniband: 4x QDR (40Gbps) 61 Tflops

Zeus GPGPU HP SL390s 44 węzły 528 rdzeni Intel Xeon 3,6 TB RAM 208 kart NVIDIA M2050/M2090 GPGPU Interconnect: 1GbE per węzeł Infiniband: 4x QDR (40Gbps) 136 Tflops

Zeus vsmp HP BL490c 64 serwery ScaleMP vsmp 768 rdzeni Intel Xeon 6 TB RAM Interconnect: Infiniband: dual rail Infiniband QDR 40Gbps Single System Image 8 Tflops

Ludzie Administracja: Patryk Lasoń Łukasz Flis Marek Magryś Programowanie: Jacek Budzowski Maciej Golik Maciej Pawlik Oprogramowanie: Maciej Czuchry Mariusz Sterzel Klemens Noga 1st line support I inni

Zeus w 2013 Niemal 8 mln zadań > ponad 21 tys. dziennie 96 mln godzin CPU Ponad 1100 aktywnych użytkowników Ponad 100 PB ruchu na /scratch Najdłuższe zadanie: 90 dni Największe zadanie: 4096 rdzeni Ponad 70% czasu CPU to zadania wieloprocesorowe w tym prawie 80% to zadania wielowęzłowe

Pierwsza pomoc KDM wiki http://kdm.cyfronet.pl Podręcznik Użytkownika PL Grid Helpdesk zeus@cyfronet.pl +48 12 632 33 55 w. 107 +48 12 632 33 55 Ul. Nawojki 11

Zeus toolkit Skrypty: zeus jobs zeus jobs history zeus gpus zeus fs zeus *grant* (aliasy dla plg *grant*)

zeus jobs

zeus jobs history

zeus gpus

zeus fs

zeus *grant*

Nowości Pierwsza (!) duża przerwa serwisowa (aktualizacja sprzętowych serwerów NFS) Migracja do Scientific Linux 6 (OS, rekompilacja aplikacji, tuning OS) Uruchomienie GPFS Przeniesienie katalogów zespołów na GPFS Uruchomienie BigMem Elementy vsmp jako serwery obliczeniowe Zmiana nazwy maszyny dostępowej: ui > zeus

Nowości Zapobieganie fragmentacji zasobów zadania pełnowęzłowe Zmniejszenie czasu oczekiwania na start dużych zadań Automatyczne czyszczenie przestrzeni scratch Zwiększenie przepustowości na świat 1 >10 Gb/s

Nowości w Zeus toolkit Zwiększenie szybkości działania Sortowanie ilości CPU, walltime Filtrowanie statusu zakończenia zadań Defniowaniewyświetlanych kolumn Opcja changelog

Modules Automagiczne załadowanie modułu w zależności od serwera obliczeniowego Sprawdzanie dostępu do licencjonowanych aplikacji Porządek w gałęziach (apps, libs, compilers, tools)

Plany z KUKDM 13 Scientific Linux 6 (limity pamięciowe) Uruchomienie BigMem GPFS HSM G(UI) Więcej filtrów w systemie kolejkowym Wdrożenie knem dla MPI Szybszy ls

Plany z KUKDM 13 Wykrywanie martwych zadań Konieczność specyfikacji walltime i pamięci dla każdego zadania Redukcja liczby kolejek lokalnych Ograniczenie dostępu do l_infinite

Plany dla Zeusa na 2014 Migracja na nowy (większy) system Lustre + włączenie kwot Rozwiązanie problemu z kwotami na GPFS Usunięcie problemu z blokowaniem zakolejkowanych zadań sprawdzanie przed uruchomieniem Nowe zakupy

Zalecenia ogólne Nie liczyć na maszynie dostępowej! Zapisywać wyniki cząstkowe Nie trzymać popularnego oprogramowania tylko dla siebie stworzymy moduł Korzystać z modułów (replikacja problemów) Szczegółowy opis problemu (numer zadania, jak administrator może zreplikować)

Dyskusja