Usługi HEP w PLGrid. Andrzej Olszewski



Podobne dokumenty
Infrastruktura PLGrid dla młodych polskich naukowców

Infrastruktura PLGrid dla młodych naukowców

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

PLGrid: informatyczne usługi i narzędzia wsparcia w nauce

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid (nie tylko) dla młodych naukowców

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego

Wrocławskie Centrum Sieciowo-Superkomputerowe

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Cyfronet w CTA. Andrzej Oziębło DKDM

Równoległe aplikacje duŝej skali w środowisku PL-Grid. Kick-off PL-GRID Kraków, kwietnia 2009

Piotr Dziubecki Piotr Grabowski, Tomasz Kuczyński Tomasz Piontek, Dawid Szejnfeld, PCSS

Technologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS

Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH

Infrastruktura gridowa

Nowe aplikacje i usługi w środowisku Grid

Infrastruktura PLGrid Usługi dla chemii obliczeniowej

Sieć PIONIER i sieci miejskie Warsztaty

Infrastruktura PL-Grid wsparciem dla naukowców

Zamawianie usługi. Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS. Warsztaty. Usługa powszechnej archiwizacji

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej

Polityka wspierania prac naukowych i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce

Infrastruktura PL-LAB2020

Efektywne wykorzystanie klastra Zeus w obliczeniach naukowych

Klaster obliczeniowy

Skalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych

Infrastruktura PL-Grid wsparciem dla naukowców

Zasady_Funkcjonowania.odt 1.2 Zespół Planowania Strategicznego. Cyfronet, ICM, WCSS, PCSS, TASK,

Infrastruktura informatyczna dla nauki w Polsce

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych. Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński

Plan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem

Bandwidth on Demand - wyzwania i ograniczenia. Tomasz Szewczyk tomeks@man.poznan.pl

Laboratorium Wirtualne w środowisku gridowym

GRID - globalny system przetwarzania danych

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej

Warsztaty KPRM-MF-MG-MPiPS MRR-MSWiA-MSZ 28 kwietnia 2011 r.

Prezentacja wstępna. Warsztaty Usługa powszechnej archiwizacji. Norbert Meyer, PCSS

Laboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz

Usługi i narzędzia QCG

Na podstawie 6 ust. 1 oraz 10 ust. 1 Regulaminu Organizacyjnego ACK Cyfronet AGH z dnia 28 kwietnia 2005 roku zarządzam co następuje:

Efektywne wykorzystanie klastra Zeus w obliczeniach wykonywanych pakietem Blender. Maciej Czuchry, Klemens Noga

Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW)

"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1

Tworzenie i obsługa wirtualnego laboratorium komputerowego

Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków

Wirtualizacja zasobów IPv6 w projekcie IIP

Bartosz Bosak Piotr Kopta Tomasz Piontek

Infrastruktura PL-Grid wsparciem dla naukowców

USŁUGA WSPÓŁDZIELENIA i SYNCHRONIZACJI PLIKÓW dla UŻYTKOWNIKÓW SIECI PIONIER. box.pionier.net.pl. Dział Technologii Zarządzania Danymi, PCSS

Infrastruktura PL-Grid wsparciem dla naukowców

Projektowanie zabezpieczeń Centrów Danych oraz innych systemów informatycznych o podwyższonych wymaganiach bezpieczeństwa

LIDERZY DATA SCIENCE CENTRUM TECHNOLOGII ICM CENTRUM TECHNOLOGII ICM ICM UW TO NAJNOWOCZEŚNIEJSZY OŚRODEK DATA SCIENCE W EUROPIE ŚRODKOWEJ.

Opis przedmiotu zamówienia / Formularz Oferty Technicznej (dokument należy złożyć wraz z ofertą)

PREMIUM BIZNES zł 110zł za 1 Mb/s Na czas nieokreślony Od 9 14 Mbit/s

Wrocławskie Centrum Sieciowo-Superkomputerowe

Laboratorium Wirtualne

Dyrektor ACK Cyfronet AGH. z dnia 2 października 2017 roku w sprawie zmian organizacyjnych

Nazwa jednostki Temat pracy (w języku polskim i angielskim) Rodzaj pracy Ilość osób realizujących pracę

Konfiguracja i przygotowanie środowiska do współpracy z infrastrukturą PL-Grid

Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej?

Stacja robocza TYP1A Zał. 8.1, pkt. 1.1) 2. Monitor LCD 21.3 Zał. 8.1, pkt. 1.1) 2. Zasilacz awaryjny UPS Zał. 8.1, pkt. 1.1) 2

IMP PAN. Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET. Dolina Lotnicza

Welcome to the waitless world. Inteligentna infrastruktura systemów Power S812LC i S822LC

Czwarte warsztaty Biblioteki cyfrowe dzień 1. Poznań 12 listopada 2007 r.

PROFESJONALNE USŁUGI BEZPIECZEŃSTWA

OFERTA NA SYSTEM LIVE STREAMING

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

Program szkolenia KURS SPD i PD Administrator szkolnej pracowni internetowej Kurs MD1 Kurs MD2 Kurs MD3 (dla szkół ponadgimnazjalnych)

WEBCON BPS Instalacja Standalone

Uslugi chmurowe dla nauki na podstawie BonFIRE

Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid

Zapewnienie dostępu do Chmury

INTERNET - Wrocław Usługi bezpieczeństwa w rozproszonych strukturach obliczeniowych typu grid

System Użytkowników Wirtualnych

Działanie 2.3: Inwestycje związane z rozwojem infrastruktury informatycznej nauki

Architektura komputerów

uplook z modułem statlook program do audytu oprogramowania i kontroli czasu pracy

Nowa usługa Centrum Komputerowego PŁ. Pliki w Chmurze. Serwis przechowywania i udostępniania danych. Prezentacja wprowadzająca

Jak znaleźć igłę w stogu siana

W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej

Sieć aktywna. Podział infrastruktury sieciowej na różne sieci wewnętrzne w zależności od potrzeb danego klienta.

1 Implementowanie i konfigurowanie infrastruktury wdraŝania systemu Windows... 1

Jak skorzystać z aplikacji do tworzenia kursów WBT Express

DESlock+ szybki start

>>> >>> Ćwiczenie. Cloud computing

Budowa uniwersalnej architektury dla Laboratorium Wirtualnego

Efektywne wykorzystanie zasobów obliczeniowych KDM w PCSS

Uniwersytet Mikołaja Kopernika w Toruniu Wydział Matematyki i Informatyki Wydział Fizyki, Astronomii i Informatyki Stosowanej Instytut Fizyki

Zespól Szkół Ponadgimnazjalnych Nr 17 im. Jana Nowaka - Jeziorańskiego Al. Politechniki 37 Windows Serwer 2003 Instalacja

PL-Grid i PLGrid Plus fundusze unijne wspierają przyspieszenie procesów innowacyjnych w obszarze e-science w Polsce

Opis wdrożenia Platformy Technologicznej epodreczniki.pl na zasobach Poznańskiego Centrum Superkomputerowo-Sieciowego

Trzecie warsztaty Biblioteki cyfrowe. Poznań grudnia 2006 r.

Projekt PLATON zaawansowane usługi bazowe dla platform wiedzy

Transkrypt:

Usługi HEP w PLGrid Andrzej Olszewski

Konsorcjum PLGrid 2 ACK CYFRONET AGH - Akademickie Centrum Komputerowe CYFRONET AGH w Krakowie ICM UW - Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego w Warszawie PCSS - Instytut Chemii Bioorganicznej PAN - Poznańskie Centrum Superkomputerowo Sieciowe w Poznaniu CI TASK - Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej w Gdańsku WCSS - Wrocławskie Centrum Sieciowo- Superkomputerowe we Wrocławiu

Infrastruktura 3 Infrastruktura PL-Grid powstała w ramach projektu PL- Grid w celu dostarczenia polskiej społeczności naukowej platformy informatycznej służącej e-science. moc obliczeniowa: 588,02 TFlops pamięć dyskowa: 5,6 PB pamięć operacyjna: 107,9 TB liczba rdzeni obliczeniowych: 40 288 Szczegółowy opis zasobów i warunków ich wykorzystania jest dostępny na stronie PLGrid www.plgrid.pl/oferta/zasoby_obliczeniowe/opis_zasobow/hpc

Łączność sieciowa 4 Łączność w Polsce Łączność między ośrodkami jest oparta o szerokopasmową sieć optyczną PIONIER z przepustowością 2x10 Gbps na większości odcinków Łączność w poszczególnych klastrach jest zróżnicowana, do kilku x10gbps (sumarycznie) do serwerów dyskowych Łączność zagraniczna GEANT Odcinek specjalny do Tier1 w Karlsruhe (likwidacja do końca 2014) LHCONE w najbliższej przyszłości

Obecna mapa połączeń 5 Obecnie dla centrów KDM wykorzystywane jest dedykowane łącze do Karlsruhe (Tier1) o przepływności 1Gb/s oraz styk IP z siecią GEANT.

LHCOne w Polsce 6 Optymalizacja połączeń w Polsce i zagranicznych Połączenie PIONIER-CERN w pierwszym etapie przy pomocy infrastruktury GLIF (maksymalna przepustowość to 40 Gbps). Planowana jest migracja infrastruktury do standardu 100 Gbps w latach 2015-20 W tym upgrade połączeń pomiędzy głównymi ośrodkami KDM (Kraków, Warszawa, Gdańsk, Poznań, Wrocław) i budowa specjalnego linku do CERN Dołączenie zasobów KDM w Polsce do sieci LHCOne LHCOne to izolowana sieć prywatna dostępna tylko dla zasobów autoryzowanych Jej celem jest zapewnienie szybkiej i stabilnej łączności sieciowej pomiędzy ośrodkami WLCG klasy Tier1 i Tier2 Będzie to realizowane przy pomocy wydzielonych ruterów realizujących połączenia tylko dla autoryzowanych podsieci W praktyce oznacza to że szybka łączność będzie dostępna tylko z maszyn roboczych klastrów WLCG w Polsce Termin realizacji nie został podany ale oczekuję że stanie się to do końca 2014 r.

LHCOne w Polsce 7

Infrastruktura HEP w PLGrid 8 Ośrodki obliczeniowe uczestnicy WLCG Klaster ZEUS w ośrodku CYFRONET AGH w Krakowie wspiera eksperymenty ATLAS, ALICE, LHCb Klaster REEF w ośrodku PSNC w Poznaniu wspiera eksperymenty ATLAS, ALICE, LHCb Klaster HYDRA w ośrodku ICM w Warszawie wspiera eksperyment CMS, LHCb Usługi gridu WLCG dla eksperymentów na LHC w ramach MoU podpisanego przez Polskę Polscy naukowcy i studenci mogą korzystać z dodatkowych zasobów w ramach grantów PLGrid

Rejestracja w PLGrid 9 Portal PLGrid https://portal.plgrid.pl/ Zakładanie konta Zarządzanie certyfikatami gridowymi Zarządzanie dostępem do usług Zarządzanie grantami obliczeniowymi Monitoring użycia zasobów Brama do dedykowanych aplikacji Dostęp do wszystkich usług przy użyciu jednego hasła (certyfikatu) Helpdesk https://helpdesk.plgrid.pl/

Rejestracja 10 Pomoc: https://docs.cyfronet.pl/pages/viewpage.action?pageid=4260611 Typ rejestracji - Użytkownik Użytkownik musi wykazać, że jego praca jest związana z nauką. W praktyce sprowadza się to do podania numeru w Bazie OPI osób Polskiej Nauki. Jeśli aplikujący nie figuruje w OPI, może we wniosku podać dane opiekuna grupy badawczej do której należy. Rejestracja następuje na ogół w ciągu jednego dnia

Granty obliczeniowe 11 Granty to obecnie jedyna droga zapewniająca możliwość rezerwacji zasobów i wykonywania obliczeń przez zespoły naukowe i przez indywidualnych użytkowników. Identyfikator grantu musi być podawany przy zlecaniu obliczeń. Każdy użytkownik otrzymuje na początek grant osobisty w wymiarze 2000 godzin CPU/rok i 40 GB przestrzeni dyskowej. W celu uzyskania grantu właściwego użytkownicy zakładają zespoły naukowe i występują dla nich o grant w którym specyfikują wielkość i rodzaj zasobów które potrzebują. Grant właściwy podlega rozliczeniu i ocenie końcowej. Pozytywna ocena wymaga wykazania publikacji powstałej dzięki prowadzonym obliczeniom z podziękowaniami dla infrastruktury PL-Grid o treści: "This research was supported in part by PL Grid Infrastructure

Dostęp do grantu obliczeniowego 12 Pomoc: https://docs.cyfronet.pl/display/plgdoc/granty+obliczeniowe Dostęp do grantu można uzyskać tworząc nowy zespół naukowy i występując dla niego o właściwy grant obliczeniowy Można też dołączyć do istniejącego zespołu z uruchomionym grantem Obecnie dla obliczeń na danych z eksperymentu Atlas w Polsce są otworzone przeze mnie dwa granty na rok 2014, atlaslhc2014 i atlaslhc2014n1. Obydwa dla zespołu plggatlaslhc. Drugi grant jest rozszerzeniem pierwszego. Obydwa kończą się w grudniu 2014. Dołączenie do grantu po negocjacjach jego wielkości jest możliwe tylko jeżeli pozostają niewykorzystane zasoby, dlatego lepiej myśleć o tym w okresie zakładania nowych grantów (zwykle na przełomie roku)

Usługi PLGrid 13 Usługi globalne Zarządzanie zadaniami przy pomocy middleware gridowego glite, UNICORE, QosCosGrid, portale Web Globalny dostęp do danych VeilFS, DataNet, irods, w fazie rozwojowej Usługi dostępu lokalnego Dostęp do klastrów lokalnych w systemie kolejkowym PBS Dostęp do obliczeń w chmurze Maszyny dostępowe klastrów obliczeniowych Specjalizowane usługi dla poszczególnych dziedzin nauki Specjalne usługi infrastruktury, portale i aplikacje Web

Usługi WLCG 14 Autentykacja (VOMS) Maszyny dostępowe (UI) Narzędzia komunikacji, linii poleceń (gfal/lcg_utils) Usługi wykonywania zadań w gridzie: Brama do klastra (CE), maszyny robocze (WN), system informacji (BDII), system zarządzania zadaniami (WMS) Usługi przechowywania danych: Serwery danych (DPM w Polsce), katalog danych (LFC), transport danych (FTS) Usługi WLCG są wykorzystywane przez zintegrowane systemy produkcji eksperymentów na LHC. Indywidualni użytkownicy korzystają z infrastruktury WLCG przy pomocy narzędzi dostarczanych przez eksperymenty (wysyłanie zadań analizy, transport plików danych). Autoryzację użytkowników i odpowiedni dostęp do zasobów obliczeniowych zapewniają umowy w ramach sieci gridu WLCG

Usługi HEPGrid w PLGrid+ 15 Dodatkowe usługi organizowane w celu wsparcia nowych wymagań eksperymentów oraz dla poprawy warunków analiz fizycznych prowadzonych przez uczestników eksperymentów HEP w Polsce CVMFS dostęp do oprogramowania HEP XROOTD bezpośredni dostęp do danych HEP na świecie Lokalne archiwum HEP z dostępem XROOTD Proof on Demand (PoD) osobiste farmy do obliczeń analizy fizycznej GooFit/RooFit - pakiet zaawansowanej analizy statystycznej z równoległym wykonywaniem obliczeń przy wykorzystaniu GPGPU

Aktywacja dostępu do usług 16 Pomoc: https://docs.cyfronet.pl/pages/viewpage.action?pageid=10061418

Dostępna CVMFS 17 Ośrodki obliczeniowe udostępniają oprogramowanie wspieranych eksperymentów na LHC Katalogi cvmfs dostępne są tylko do odczytu na maszynach UI i WN Dla użytkowników z aktywowaną usługą i dla zadań gridowych z autoryzacją eksperymentów LHC Katalogi montowane są w ścieżkach /cvmfs/alice.cern.ch, /cvmfs/atlas.cern.ch, /cvmfs/atlas-nightlies.cern.ch, /cvmfs/atlascondb.cern.ch, /cvmfs/lhcb.cern.ch, lhcb-conddb.cern.ch Nie we wszystkich ośrodkach dostępne są wszystkie katalogi Przykład ustawiania środowiska obliczeniowego ATLASa: export ATLAS_LOCAL_ROOT_BASE=/cvmfs/atlas.cern.ch/repo/ATLASLocalRootBase source ${ATLAS_LOCAL_ROOT_BASE}/user/atlasLocalSetup.sh asetup 17.2.13.9,slc5,32 Inne narzędzia: localsetupdq2client, localsetupfax, localsetuppandaclient

Wdrażana XROOTD 18 Usługa zapewnia zdalny dostęp w trybie odczytu do plików danych eksperymentów HEP na serwerach dyskowych w Polsce i na świecie z wykorzystaniem protokołu bezpośredniego dostępu xrootd W Polsce jest to dostęp do danych eksperymentów na LHC udostępnianych przez serwery gridowe DPM w Krakowie, Poznaniu i Warszawie oraz do lokalnego archiwum danych HEP w Cyfronecie Dostępna dla użytkowników z aktywowaną usługą i autoryzacją voms Zalecane na razie otwieranie plików z klastrów lokalnych dla serwera danych przy występujących ograniczeniach w przepustowości sieci WAN Przykład użycia: voms-proxy-init -voms atlas (autoryzacja) module add tools/root/5.34.18 (moduł pakietu ROOT z wkompilowanym protokołem xrootd) TFile *file = TFile::Open("root://dpm.cyf-kr.edu.pl:1094//dpm/cyf-kr.edu.pl \ /home/atlas/atlasdatadisk/rucio/user/ivukotic/14/c4/group.test.hc.ntup_susy-root530.root )

Wdrażana Archiwum HEP 19 Lokalne archiwum HEP PLGrid to miejsce w którym można przechowywać wyniki bieżących analiz na zasobach PLGrid Zapewnia dostęp do wyników zarówno z lokalnego klastra jak i z całego świata przy pomocy protokołu xrootd Zasoby archiwum HEP PLGrid są udostępniane w wielkości i na przeciąg czasu określony we wniosku, jaki należy złożyć do administratorów usługi równocześnie z jej aktywizacją w portalu PLGrid Prawo do zapisu mają tylko osoby z aktywną usługą Przewidywana wielkość całkowita archiwum to 100 TB Przykład zapisu do archiwum voms-proxy-init -voms vo.plgrid.pl lcg-cp --vo vo.plgrid.pl --dst PLGGHEPARCH file://`pwd`/test.xrootd srm://dpm.cyfkr.edu.pl/dpm/cyf-kr.edu.pl/home/vo.plgrid.pl/plggheparch/aolszewski/test.xrootd

Dostępna PoD - Farmy Analizy 20 Proof on Demand to oprogramowanie które umożliwia równoległą analizę danych w formatach pakietu ROOT (Ntuple) Uruchamia serwer PoD i procesy na maszynach roboczych konfigurowane dynamicznie na klastrach gridowych PLGrid Działanie polega na podziale danych wejściowych na części przetwarzane równolegle. Wyniki są następnie scalane i prezentowane tak jakby były analizowane pojedynczym procesem. Wymaga specjalnej struktury programów analizy Przykład inicjalizacji i uruchomienia analizy: qsub I X l nodes=1:sl6 module add plgrid/apps/pod source $PODINI/podini.sh pod-server start pod-submit -r pbs -q l_short -n 5 root[] TProofBench pb(gsystem->getfrompipe("pod-info -c")) root[] pb.runcpu()

Wdrażana GooFit 21 GooFit wersja popularnego pakietu do statystycznej analizy danych RooFit przystosowana do uruchamiania na GP GPU. Massively-parallel framework for maximum-likelihood fits, implemented in CUDA. Skomplikowane (wieloparametrowe i wielowymiarowe) dopasowania do dużych próbek danych, wymagające często kilka godzin CPU. Konieczność wielokrotnych iteracji lub uruchamiania dużej liczby różnych wersji modelu danych. Typowy czynnik przyspieszenia w zależności od problemu to 10-1000. Procedura uruchomieniu analizy Logowanie do maszyny udostępniającą złącze użytkownika w kolejce GPPGU Importowanie modułu goofit Kompilacja i budowa programu do analizy Uruchomienie interakcyjne programu Pomoc na stronach usługi https://docs.cyfronet.pl/display/plgdoc/fizyka+wys okich+energii%3a+goofit

Inne dziedziny w PLGrid+ 22

Podsumowanie 23 Polska infrastruktura dla obliczeń naukowych szybko się rozwija Zarówno pod względem sprzętowym jak i usług PLGrid+ spowodował rozwój usług dedykowanych dla wielu dziedzin nauki 13 dziedzin nauki pracujących nad nowymi usługami Obecność nowych użytkowników oznacza konieczność konkurencji o zasoby obliczeniowe i obsługę dla usług HEP, zarówno lokalnych jak i dla WLCG Wdrażane są zasady QoS z rozbudowanym systemem rezerwacji zasobów i ścisłym przestrzeganiem parametrów ich wykorzystania, zgodnym z uzyskaną rezerwacją Pojawiają się bardzo dobre perspektywy zwiększania dostępnych zasobów sprzętowych i poprawy jakości ich działania Rozbudowa centrów obliczeniowych Zakupy nowego sprzętu w ramach projektu PLGrid+ (+kilka PB dysków, +10k rdzeni CPU) Budowa nowego klastra Prometheus w ACK Cyfronet (10 PB dysków, 40k rdzeni CPU) Przyłączenie Polish Tier2 do sieci LHCOne (2x10 Gbps do ośrodków Tier1,2 WLCG) Lokalna aktywność HEP w PLGrid musi się rozwijać jeżeli chcemy utrzymać uprzywilejowane traktowanie jeżeli chodzi o dostęp do zasobów Apel o zapisywanie się do PLGrid i do usług HEPGrid

Pomoc 24 PLGrid: http://www.plgrid.pl/ Portal PLGrid: https://portal.plgrid.pl/web/guest/home HelpDesk: https://helpdesk.plgrid.pl/ Podręcznik użytkownika: https://portal.plgrid.pl/web/guest/podrecznik-pl-grid Usługa CVMFS: https://docs.cyfronet.pl/display/plgdoc/fizyka+wysokich+energii%3a+cvmfs Usługa Dostępu do danych: https://docs.cyfronet.pl/pages/viewpage.action?pageid=11895669 Usługa Proof on Demand: https://docs.cyfronet.pl/display/plgdoc/fizyka+wysokich+energii%3a+proof+on+demand Usługa GooFit: https://docs.cyfronet.pl/display/plgdoc/fizyka+wysokich+energii%3a+goofit Strona pomocy eksperymentu ATLAS w Polish Tier2: http://nz11-agh1.ifj.edu.pl/do/view/atlastier2/cyfronetweb