Technologia GRID w badaniach naukowych na Wielkim Zderzaczu Hadronów w CERN

Podobne dokumenty
Oddziaływania podstawowe

Jak znaleźć igłę w stogu siana

Eksperyment ALICE i plazma kwarkowo-gluonowa

Jak znaleźć igłę w stogu siana

Wszystko, co kiedykolwiek chcieliście wiedzieć o CERNie i o fizyce cząstek

Nauka i technologia dwa spojrzenia na CERN

WYKŁAD 8. Wszechświat cząstek elementarnych dla przyrodników

LHC i po co nam On. Piotr Traczyk CERN

WYKŁAD 8. Wszechświat cząstek elementarnych dla przyrodników. Maria Krawczyk, Wydział Fizyki UW

Wyznaczanie efektywności mionowego układu wyzwalania w CMS metodą Tag & Probe

LHC: program fizyczny

th- Zakład Zastosowań Metod Obliczeniowych (ZZMO)

Wszechświat czastek elementarnych

Jak działają detektory. Julia Hoffman

Witamy w CERNie. Bolesław Pietrzyk LAPP Annecy (F) Wykład przygotowany przez polskich fizyków w CERNie.

Witamy w CERN Marek Kowalski

Poszukiwania bozonu Higgsa w rozpadzie na dwa leptony τ w eksperymencie CMS

Wszechświat czastek elementarnych


Zapoznanie z technikami i narzędziami programistycznymi służącymi do tworzenia programów współbieżnych i obsługi współbieżności przez system.

Wstęp do fizyki cząstek elementarnych: część eksperymentalna

Compact Muon Solenoid

Obserwacja Nowej Cząstki o Masie 125 GeV

Usługi HEP w PLGrid. Andrzej Olszewski

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

- Cząstka Higgsa - droga do teorii wszystkiego

i IFJ PAN w Krakowie S. Gadomski, "CERN i komputery",

Wszechświat czastek elementarnych

Wszechświat czastek elementarnych

Czego już dowiedzieliśmy się dzięki Wielkiemu Zderzaczowi Hadronów LHC

Artur Kalinowski WYBRANE ASPEKTY POSZUKIWA BOZONU HIGGSA Z MODELU STANDARDOWEGO W ZDERZENIACH PROTON PROTON W EKSPERYMENCIE CMS PRZY LHC

Modelowanie Data Mining na wielką skalę z SAS Factory Miner. Paweł Plewka, SAS

Epiphany Wykład II: wprowadzenie

Systemy operacyjne. Systemy operacyjne. Systemy operacyjne. Zadania systemu operacyjnego. Abstrakcyjne składniki systemu. System komputerowy

Programowanie dla Wielkiego Zderzacza Hadronów

Podróż do początków Wszechświata: czyli czym zajmujemy się w laboratorium CERN

Polityka wspierania prac naukowych i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce

System wyzwalania i filtracji w eksperymencie ATLAS na LHC

Jak to działa: poszukiwanie bozonu Higgsa w eksperymencie CMS. Tomasz Früboes

Poszukiwany: bozon Higgsa

Cyfronet w CTA. Andrzej Oziębło DKDM

Komputer. Komputer (computer) jest to urządzenie elektroniczne służące do zbierania, przechowywania, przetwarzania i wizualizacji informacji

Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków

Fizyka do przodu w zderzeniach proton-proton

Fizyka cząstek elementarnych warsztaty popularnonaukowe

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

Eksperyment ATLAS na Wielkim Koliderze Hadronowym. Czyli Wielka Przygoda z Fizyką i nie tylko

NOWE MODELE ZEWNĘTRZNYCH DYSKOW Z SERII CANVIO O WIĘKSZEJ POJEMNOŚCI

Grzegorz Wrochna Narodowe Centrum Badań Jądrowych Z czego składa się Wszechświat?

Na tropach czastki Higgsa

Prace informatyczne dla projektu CTA

Akceleratory Cząstek

Hurtownie danych - przegląd technologii Robert Wrembel Politechnika Poznańska Instytut Informatyki Robert.Wrembel@cs.put.poznan.pl

Rozproszona korelacja w radioastronomii

Hurtownie danych - przegląd technologii

Obliczenia Wysokiej Wydajności

Sterowany jakością dostęp do usług składowania danych dla e-nauki

Systemy plików FAT, FAT32, NTFS

Bozon Higgsa prawda czy kolejny fakt prasowy?

SUPERKOMPUTER OKEANOS BADAWCZE GRANTY OBLICZENIOWEWE

Czego oczekujemy od LHC? Piotr Traczyk. IPJ Warszawa

Wprowadzenie do systemów operacyjnych. mgr inż. Krzysztof Szałajko

Pierwsze dwa lata LHC

Dwa lub więcej komputerów połączonych ze sobą z określonymi zasadami komunikacji (protokołem komunikacyjnym).

Spis treści. Fizyka wczoraj, dziś, jutro. Z naszych lekcji. Olimpiady, konkursy, zadania. Astronomia dla każdego

PROBLEMATYKA OBLICZEŃ MASOWYCH W NAUKACH O ZIEMI. Satelitarny monitoring środowiska

Wykład monograficzny 0 1

Theory Polish (Poland)

Promieniowanie kosmiczne składa się głównie z protonów, z niewielką. domieszką cięższych jąder. Przechodząc przez atmosferę cząstki

Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki

Laboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz

Podstawy obsługi komputerów. Budowa komputera. Podstawowe pojęcia

Polska w CERN. Kurs dla polskich nauczycieli w CERN maja Jan Paweł Nassalski Instytut Problemów Jądrowych im.

PARAGON GPT LOADER. Przewodnik

Twardy dysk. -urządzenie pamięci masowej

LEPTON TAU : jako taki, oraz zastosowania. w niskich i wysokich energiach. Zbigniew Wąs

Szybki przewodnik po produkcie. EMC DataDomain

OPIS PRZEDMIOTU ZAMÓWIENIA

"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1

GRIDY OBLICZENIOWE. Piotr Majkowski

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

LIDERZY DATA SCIENCE CENTRUM TECHNOLOGII ICM CENTRUM TECHNOLOGII ICM ICM UW TO NAJNOWOCZEŚNIEJSZY OŚRODEK DATA SCIENCE W EUROPIE ŚRODKOWEJ.

ALGORYTMICZNA I STATYSTYCZNA ANALIZA DANYCH

TSMBOX. Backup Appliance Build for Recovery Speed. Przemysław Jagoda. Zbigniew Parys

Jarosław Kuchta. Administrowanie Systemami Komputerowymi. System plików

Przyspiesz swój biznes i obniż koszty dzięki IBM FlashSystems. Artur Król Artur.Krol@pl.ibm.com Senior Storage Sales Consultant

Różne potrzeby? Wiele obliczy kopii zapasowej! Janusz Mierzejewski Presales Consultant- Symantec Poland Sp. z o.o. Rodzina Backup Exec

Archiwum Cyfrowe jako usługa w modelu Cloud Computing

Sylwa czyli silva rerum na temat fizyki cz astek elementarnych

Cząstki i siły. Piotr Traczyk. IPJ Warszawa

CERN - pierwsze globalne laboratorium. Magdalena Kowalska CERN, PH-Dept.

Welcome to the waitless world. Inteligentna infrastruktura systemów Power S812LC i S822LC

dr hab. Joanna Jędrzejowicz Podstawy informatyki i komputeryzacji Gdańska Wyższa Szkoła Humanistyczna

i3: internet - infrastruktury - innowacje

Wydział Fizyki Politechniki Warszawskiej

Cząstki elementarne. Składnikami materii są leptony, mezony i bariony. Leptony są niepodzielne. Mezony i bariony składają się z kwarków.

Optymalizacja kryteriów selekcji dla rozpadu Λ+c pμ+μza pomocą wielowymiarowej analizy danych

OFERTA NA SYSTEM LIVE STREAMING

Fizyka cząstek elementarnych

LHC klucz do Mikroświata

Transkrypt:

Technologia GRID w badaniach naukowych na Wielkim Zderzaczu Hadronów w CERN Adam Kisiel Wydział Fizyki PW Seminarium Centrum Studiów Zaawansowanych i Centrum Informatyzacji 18 marca 2014

Model Standardowy kwarki kwarki leptony leptony nośniki oddziaływań nośniki oddziaływań Skąd biorą się masy kwarków, leptonów i bozonów pośredniczących?

Alpy/Masyw Mont Blanc Genewa Jezioro Genewskie LHC CERN/Meyrin 4

CERN/LHC - Large Hardon Collider Parametry operacyjne Wiązka: 2808 grup ( bunch ) protonów o energii 4 (docelowo 7) TeV 2 wiązki przeciwbieżne Częstotliwość obiegu: 11 khz do 20 zderzeń / przecięcie Częstotliwość przecięć: 30 MHz ~ 600 milionów zderzeń/s Zderzenie: produkcja do kilkuset cząstek

Zderzenie proton-proton Zderzenie ołów-ołów

Zderzenie protonów W zderzeniu dochodzi do produkcji cząstek, w tym bozonów Higgsa. Większość z nich natychmiast rozpada się na cząstki wtórne.

Poszukiwanie bozonu Higgsa Bozon Higgsa: >100x cięższy niż proton rozpada się zaraz po powstaniu Wynik rozpadu: charakterystyczne układy cząstek stabilnych (np. 4 leptony, 2 kwanty gamma, 4 jety) wszystkie o ogromnych energiach Szacunek: na setki miliardów zderzeń na LHC, powstaje kilkadziesiąt tysięcy bozonów Higgsa

CERN detektory ATLAS i CMS

CERN detektor ALICE (współpraca: Wydział Fizyki PW)

5 lipca 2012 nowa cząstka! Nowa cząstka!

Nagroda Nobla z Fizyki 2013 François Englert Peter Higgs Uzasadnienie komisji Noblowskiej: for the theoretical discovery of a mechanism that contributes to our understanding of the origin of mass of subatomic particles, and which recently was confirmed through the discovery of the predicted fundamental particle, by the ATLAS and CMS experiments at CERN's Large Hadron Collider

Natłok Danych Częstotliwość Częstotliwość przecinania przecinania się: się: 40 40 MHz MHz potencjalnie potencjalnie 600 600 millionów millionów zderzeń/s zderzeń/s 100-10 000 100-10 000 interesujących interesujących zderzeń/s zderzeń/s Miliony Miliony kanałów kanałów pomiarowych pomiarowych 1-50 1-50 Mb Mb danych danych na na zderzenie zderzenie po po wstępnej wstępnej redukcji redukcji ii kompresji kompresji Konieczność Konieczność drastycznej drastycznej selekcji selekcji zderzeń zderzeń tak, tak, by by utrzymać utrzymać koszty koszty na na rozsądnym rozsądnym poziomie poziomie 14

Współpraca ALICE: Rozmiar w porównaniu do: ~ 1/2 ATLAS, CMS, ~ 2x LHCb ~1000 uczestników, 30 krajów, ~ 80 instytucji Waga Średnica zewnętrzna Całkowita długość Pole Magnetyczne 200 H 10,000t 16.00m 25m 0.5T s) / B G z (4 B/ G 5 2. (1 z H 0 3 s) GRID 2

Ogromna ilość danych Beam Type Recording (Mass Storage) (Events/s) (MB/s) ALICE Pb-Pb 200 1250 ATLAS pp 100 100 CMS pp 100 100 LHCb pp 200 40 Data Archived Total/Yr (PB) 2.3 6.0 3.0 1.0

Wyzwanie #1: Pozyskiwanie danych Ethernet NIC cards (Mb/s) W W 1995 1995 (ALICE (ALICE 11 GB/s, GB/s, 1PB/yr) 1PB/yr) 1.00E+05 1.00E+04 1.00E+03 Prevision 1.00E+02 -- Pamięci: Pamięci: początkowo początkowo dedykowane, dedykowane, teraz teraz używana używana pamięć pamięć systemowa systemowa PC PC -- Multiplexing: Multiplexing: wiele wiele źródeł źródeł ii odbiorców odbiorców danych danych 1.00E+01 1.00E+00 W W fazie fazie R&D R&D (1990-96) (1990-96) był był to to znaczący znaczący problem problem ALICE proposal W W 1995 1995 pojawiają pojawiają się się szybkie szybkie przełączniki przełączniki Ethernet Ethernet Total Internet Traffic (PB/year) 1.00E+07 1.00E+06 1.00E+05 1.00E+04 Prevision 1.00E+03 Przepustowość Przepustowość wzrosła wzrosła aa ceny ceny spadły spadły dzięki dzięki ogromnemu ogromnemu rynkowemu rynkowemu zapotrzebowaniu zapotrzebowaniu spowodowanemu spowodowanemu powstaniem powstaniem Internetu Internetu 1.00E+02 1.00E+01 Pamięć Pamięć do do przechowywania, przechowywania, transport transport ii multiplexing multiplexing to to rozwiązania rozwiązania zz rynku rynku 1.00E+00 ALICE proposal

Wyzwanie #2: Magazynowanie Danych Mid-Range Tape (MB/s) 1.00E+03 1.00E+02 Prevision 1.00E+01 Dziedzina tradycyjnie bazowała na rozwiązaniach taśmowych W 1995 (ALICE 1 GB/s) 1.00E+00 Od tego czasu ALICE proposal Hard Disk Capacity (GB) 1.00E+05 1.00E+04 1.00E+03 Prevision 1.00E+02 11 GB/s GB/s 100 100 czytników czytników taśm taśm 11 GB/s GB/s to to rozsądny rozsądny limit limit Taśmy Taśmy powoli powoli ulepszano ulepszano Lawinowy Lawinowy rozwój rozwój tanich tanich ii pojemnych pojemnych dysków dysków na na rynek rynek PC PC Duże Duże przepustowości przepustowości dzięki dzięki równoległemu równoległemu odczytowi odczytowi (RAID) (RAID) Dziś 1.00E+01 1.00E+00 ALICE proposal Roczny Roczny zbiór zbiór danych danych na na dysku dysku Magazynowanie Magazynowanie danych danych polega polega na na rozwiązaniach rozwiązaniach zz rynku rynku

Wyzwanie #3: Przetwarzanie Danych 100 MPP 80 Clusters 60 Dziedzina Dziedzina fizyki fizyki wysokich wysokich energii energii zawsze zawsze polegała polegała na na masowym masowym wykorzystaniu wykorzystaniu mocy mocy obliczeniowych obliczeniowych do do analizy analizy danych danych 60-80-te 60-80-te :: superkomputery superkomputery (CDC, (CDC, Cray Cray ii IBM). IBM). Koniec Koniec 80-tych 80-tych :: mikroprocesory mikroprocesory ii farmy farmy PC PC De-facto De-facto standard standard :: klastry klastry PC PC zz Linuxem Linuxem 40 20 0 SMP Const. 100 80 60 Unix Linux 40 20 0 1996 2000 2004 2008 2012 2000-ne: 2000-ne: fundusze fundusze na na obliczenia obliczenia w w CERN CERN niewystarczające niewystarczające do do pełnej pełnej obsługi obsługi obliczeniowej obliczeniowej całego całego eksperymentu eksperymentu Brak Brak nadziei nadziei na na znaczący znaczący przełom przełom technologiczny technologiczny Eksperymenty: Eksperymenty: naukowcy naukowcy zz instytutów instytutów zz całego całego świata, świata, wielu wielu zz nich nich dysponuje dysponuje własnymi własnymi centrami centrami zz mocami mocami obliczeniowymi obliczeniowymi Wyzwanie: Wyzwanie: integracja integracja tych tych różnorodnych różnorodnych centrów centrów tak tak by by zapewniały zapewniały spójną spójną usługę usługę obliczeniową obliczeniową udostępnianą udostępnianą przez przez GRID GRID

Globalna sieć centrów obliczeniowych Worldwide LHC Computing Grid: WLCG Klaster komputerowy: grupa połączonych jednostek komputerowych, które współpracują ze sobą w celu udostępnienia zintegrowanego środowiska pracy. The Worldwide LHC Computing Grid: międzynarodowy projekt mający na celu usprawnienie przechowywania oraz analizy danych pochodzących z eksperymentów LHC, łączący ponad 150 centrów komputerowych w ponad 40 krajach. The Grid is so vast and complicated that attempts to model it using the Grid have actually failed.

AliEn: GRID dla ALICE 45 000 komputerów i 25 000 TB przestrzeni dyskowej dostępne dla każdego członka kolaboracji ALICE

Wymagania informatyczne Redukcja danych: 5 PB do 550 kb (publikacja naukowa) Źródło danych: pojedyncze, 1GB/s, 24/24h, 10 miesięcy/rok + symulacje Monte-Carlo (rozproszone, podobna objętość) Archiwizowane pełnej próbki, z zapewnieniem dostępu. Użytkownicy: ~1000 naukowców. Gwarancja równoprawnego dostępu do danych i mocy obliczeniowych. Dodatkowo: Kod analizujący tworzony w sposób ciągły od lat 90-tych do końca trwania eksperymentu Autorzy kodu nie są zawodowymi informatykami. Czas życia eksperymentu: kilkadziesiąt lat.

Transformacja danych Dane z detektora: bezpośredni odczyt z elektroniki. Ciągły lub co 25 ns. Strumień: setki GB/s. Niestrukturyzowane. Nie zapisywane. Dane surowe - dane z poddetektorów łączone w zdarzenie. Wybór interesujących zdarzeń (wyzwalanie - trigger ) Redukcja strumienia do poziomu możliwego do zapisu: ~GB/s. Logiczna kwantyzacja danych w zdarzenia. Czytane kilka razy. Dane zrekonstruowane - interpretacja fizyczna danych Zdarzenie to zbiór torów - trajektorii przypisanych cząstkom. Znacząca redukcja objętości (MB/zdarzenie). Wynik: pliki ESD wielokrotnego użytku. Dane przefiltrowane - ekstrakcja minimum informacji potrzebnych do analiz fizycznych, redukcja informacji detektorowej. Redukcja objętości (co najmniej czynnik 5). Wynik: pliki AOD, bezpośrednio do analiz Wiele kopii rozmieszczonych fizycznie w różnych centrach.

Oprogramowanie Redukcja detektor->dane surowe: elektronika detektora i systemów wbudowanych ( embedded ), często programowalnych. Dedykowane, zaprojektowane i wykonane od zera układy. Rekonstrukcja : kod dedykowany, ściśle związany z detektorem, C++, rozwijany na bieżąco, równolegle do procesu projektowania, budowy i działania detektora. Ciągły rozwój i testowanie. Poprawność wyników zależy także od poprawności kalibracji. Zwykle do 4 sesji rekonstrukcji dla danej próbki danych surowych, na GRID. Filtrowanie : kod dedykowany, stworzony w C++, dostosowany do aktualnego programu badawczego, a więc zmieniany na bieżąco. Modularny, kilka wersji filtrowania dla każdej próbki danych, na GRID. Kod analizujący : tworzony w C++ przez użytkowników końcowych (fizyków). Aktywnie rozwijany. Uruchamiany na GRID, korzysta z AOD.

Organizacja centrów ALICE System obliczeniowy ALICE to GRID łączący centra obliczeniowe w instytucjach członkowskich. Tier 0, CERN: >10k CPU, kilka PB dysków+taśmy Tier 1, 7 wybranych dużych ośrodków: FZK (Niemcy), CCIN2P3 (Francja), CNAF (Włochy), NIKHEF i SARA (Holandia), RAL (Wielka Brytania), KISTI (Korea): 1-4k CPU, ~1 PB dysków, >100 TB taśmy Tier 2, pozostałe centra obliczeniowe, <1k CPU, ~kilkaset TB dysków Tier 3: małe instalacje testowe Centra obliczeniowe połączone technologiami AliEn, XROOTD Dodatkowo istnieją dedykowane klastry obliczeniowe do analiz interaktywnych PROOF (AAF, CAF)

Kluczowy paradygmat: warstwowość Dane surowe (raw data) AliEn + xrootd Tier 2 Tier 2 Tier 2 Rekonstrukcja ESD ESD Tier 2 Tier 1 Tier 1 ESD Tier 2 Tier 2 Tier 2 Tier Tier00(CERN) (CERN) Filtrowanie Tier 1 Tier 1 Tier 1 AOD1 AOD1 AOD1 AOD2 AOD2 AOD2 Tier 2 Tier 2 Tier 2

ALICE Grid: AliEn AliEn: działający prototyp już w 2002 r. Jeden interfejs do pełnych zasobów rozproszonych dla wszystkich fizyków ALICE Katalog plików, kontrola i uruchamianie obliczeń, zarządzanie oprogramowaniem, analizy fizyczne Aktualnie łączy ~100 instytucji 1 T0 (CERN/Szwajcaria) 7 T1 (Francja, Niemcy, Włochy, Holandia, Wielka Brytania, Korea) pozostałe T2 na 4 kontynentach ~45,000 (z ~450,000 WLCG na świecie) rdzeni i 25 PB dysku Zasoby są połączone ( zsumowane ) Nie ma sztywnego podziału ról / funkcji pomiędzy centrami Aby zasoby krajowe były uznane za dostępne muszą być w pełni zintegrowane z systemem Agencje finansujące dostarczają zasoby proporcjonalnie do liczby naukowców z danego kraju http://alien.cern.ch

Podstawowe pojęcia analizy ALICE Ξ π (Λ pπ ) Każde zderzenie niezależne: masowa równoległość Zderzenia grupowane w: Counts / MeV/c2 Obiekt analizy: zdarzenie (jedno lub kilka zderzeń) Do kilkunastu MB/zdarzenie Runs - zebrane w pojedynczym włączeniu detektora: do kilku milionów Pb-Pb at 0-90% (x 0.25) 0-5% 5-10% 10-20% 20-30% 30-50% 50-90% 14/09/2011 20000 Periods - miesiąc działania LHC: do kilkuset milionów 0 1.28 1.29 Modele analizy - Performance 40000 snn = 2.76 TeV Ξ 60000 Analiza wsadowe: GRID (zorganizowana lub indywidualna) Analiza lokalna (na małym wycinku danych) Analiza interaktywna PROOF+GRID 1.31 1.32 1.33 1.34 1.35 1.36 1.37 - Ω Κ (Λ pπ ) Analiza przygotowawcza (kalibracja, alignment, rekonstrukcja, analiza) @CERN, jak najszybciej, automatycznie uruchamiana na GRID 1.3 Mass( Λ, π ) (GeV/c2) Counts / MeV/c2 Dostęp do GRID przez AliEn lub ROOT Dedykowane klastry do interaktywnej analizy równoległej PROOF/ROOT Ten sam kod lokalnie, w PROOF i Grid 15000 Pb-Pb at Performance - Ω 14/09/2011 10000 snn = 2.76 TeV 0-90% (x 0.25) 0-5% 5-10% 10-20% 20-30% 30-50% 50-90% 5000 0 1.64 1.65 1.66 1.67 1.68 1.69 1.7-1.71 1.72 Mass( Λ, K ) (GeV/c2) 28

Konwersja danych surowych na dane użyteczne do analiz Działa bez przerwy pomimo szybko ewoluującego kodu i warunków zbierania danych kilkaset cykli operacji 17 109 zdarzeń (RAW) poddanych konwersji (3350 CPU*lat obliczeń) Przetworzono 25PB danych Wynik: 2.2PB plików do analiz (ESD) i innych danych (321 lat trwał ich zapis)

Analiza tam gdzie dane Wysyła zadanie ALICE Job Catalogue ALICE File Catalogue Job lfn2, lfn3, lfn4 Job 11.1lfn1, lfn1 lfn guid Job 1.2 lfn2 lfn guid Optimizer lfn guid lfn guid lfn guid Job 2 lfn1, lfn2, lfn3, lfn4 Job 1.3 lfn3, lfn4 Job 2.1 lfn1, lfn3 Job 3 lfn1, lfn2, lfn3 Job 2.1 lfn2, lfn4 Job 3.1 lfn1, lfn3 Użytkownik Register s output {se s} {se s} {se s} {se s} {se s} ALICE central services Przyjmij proces Odeślij wyniki Job 3.2 lfn2 Site Computing Agent Site Site Computing Agent Computing Agent 30 Site Computing Agent

DPM xrootd (manager) xrootd (server) xrootd (server) Castor xrootd (server) WN xrootd emulation (server) dcache MSS 31 SRM MSS SRM Disk SRM VOBOX::SA SRM Magazynowanie danych

Pełny monitoring: MonALISA

Podsumowanie Analiza danych na LHC to gigantyczne wyzwanie informatyczne System obliczeniowy ALICE i LHC to dojrzały projekt, zawierający narzędzia do symulacji, rekonstrukcji, kalibracji, procedur alignment, wizualizacji i analizy danych Działa z prawdziwymi danymi od 2009 r. Wyniki na kilka prestiżowych międzynarodowych konferencji otrzymano na czas Zasoby dostępne w systemach GRID i AF wystarczają na zaspokojenie potrzeb konwersji danych RAW, symulacji oraz analiz użytkowników Choć zawsze im więcej tym lepiej Stabilna praca centrów obliczeniowych Oprogramowanie i architektura AliEn działa stabilnie i wymaga niewielu zmian