W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej

Wielkość: px
Rozpocząć pokaz od strony:

Download "W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej"

Transkrypt

1 Grid komputerowy dla nauki Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków

2 Grid komputerowy Plan referatu Europejskie projekty gridowe PL-Grid i EGI Światowy Grid komputerowy LHC Perspektywy

3 GRID komputerowy

4 W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej Rozległa sieć maszyn obliczeniowych i innych zasobów zarządzanych w sposób rozproszony i niezależny szybki, niezawodny i bezpieczny system połączonych komputerów i innych urządzeń, który umożliwia łatwy dostęp do dużych, rozproszonych mocy obliczeniowych, zasobów danych i usług, bez względu na to, gdzie te zasoby są zlokalizowane. Po co się to robi? Co to jest Grid? Dlatego że sieć połączonych komputerów, nawet niewielkich, może zastąpić jeden wielki (i drogi) komputer, konieczny do wykonania skomplikowanych obliczeń Grid to nowy paradygmat usług informatycznych realizowany przez zbiory nowych technologii informatycznych z takich sieci korzystają już fizycy, chemicy, biologowie, inżynierowie, lekarze, przedsiębiorcy ci, którzy dla swych obliczeń sporadycznie potrzebują setek komputerów Europa traktuje grid jako na nowe, bardzo przydatne narzędzie, a Unia Europejska planuje utworzenie europejskiej infrastruktury gridowej. wg. J. Kitowskiego

5 Postęp w technologiach komputerowych Osiągnięcia na jednostkę kosztów w funkcji lat 10,000,000 1,000, ,000 10,000 Farm CPU box MIPS/$M Doubling in 1.2 years 1, Raid Disk GB/$M Doubling in 1.4 years Transatlantic WAN kb/s per $M/yr Doubling in 8.4 or 0.7 years from R. Mount

6 Europejska Sieć Komputerowa GEANT

7 Polska Sieć Komputerowa PIONIER R. Lichwała PCSS7

8 Europejskie projekty GRIDowe

9 Polski udział w europejskich projektach sieciowych i gridowych (do r. 2008) PIONIER, CrossGrid (koordynowany przez ACK Cyfronet AGH) i EGEE odegrały bardzo istotną rolę w rozwoju polskiej infrastruktury dla gridu komputerowegodla e-nauki Michal Turala

10 Główne cele projektu CrossGrid ( ) Ustanowić europejski Grid włączając w infrastrukturę nowe kraje Umożliwić wykorzystanie Gridu dla aplikacji interaktywnych człowiek w pętli obliczeniowej Umożliwić aplikacje równoległe z wykorzystaniem MPI Demonstracja przydatność Gridu dla kilku ważnych zastosowań Biomedycznych (symulacja krążenia krwi) Wspomaganie przewidywań powodzi Sieci neuronowe dla fizyki cząstek Warunki meteorologiczne i skażenia powietrza M. Turala

11 Gridowe klastry PC ( testbeds ) CrossGrid M. Turala Klastry gridowe testbeds w 11 krajach 16 klastrów, z kilkuset PCs, połączone w jeden system Trzy rodzaje klastów (testowe, produkcyjne, badawcze) Polączenia poprzez sieci narodowe i GEANT Ten system dawał podstawy do dołączenia do projektu EGEE i do wykorzystania Grid u dla różnych aplikacji: fizyki cząstek, chemii, biomedicyny

12 Ośrodki uczestniczące w światowej prototypowej sieci LCG ( ) We wrześniu 2003 ACK Cyfronet był pomiędzy pierwszymi 14 ośrodkami, z trzech kontynentów, które stworzyły prototyp wspólnej światowej sieci komputerowej dla fizyki around the world around the clock Michal Turala 12

13 Projekt Enabling Grid for E-SciencE ACK Cyfronet AGH uczestniczył w tym projekcie w latach i pełnił role Regionalnego Centrum Koordynującego na kraje Europy Środkowo-Wschodniej Michal Turala z prezentacji I. Birda 13

14 ACK Cyfronet AGH koordynatorem Regionalnego Centrum Operacyjnego (ROC) EGEE Coordinated by Poland Polska była również członkiem projektów BalticGrid, w których uczestniczyły kraje Europy Północno-Wschodniej, Białoruś, Estonia, Litwa, Łotwa i Szwecja Michal Turala 14

15 LCG Monitorowanie pracy centrów komputerowych w czasie rzeczywistym ICM Warsaw PCSS Poznan ACK Cyfronet AGH i IFJ PAN Krakow RTM stan z 26 paźdz. 08. Michal Turala 15

16 Krakowskie Warsztaty Gridowe od GW01 do CGW10

17 Polski udział w europejskich projektach gridowych i sieciowych (do r. 2008) GEANT GEANT2 European e- Infrastructure EGI National Grid Initiative PL-Grid M. Turala

18 PL-GRID i EGI

19 Początkowa działalność PL-Grid Utworzenie Konsorcjum Polskiego Gridu (PL-Grid) Porozumienie podpisane w styczniu 2007 Akademickie Centrum Komputerowe CYFRONET AGH w Krakowie (ACK CYFRONET AGH) koordynator Programu PL-Grid Poznańskie Centrum Superkomputerowo-Sieciowe w Poznaniu (PCSS) Wrocławskie Centrum Sieciowo - Superkomputerowe we Wrocławiu (WCSS) Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej w Gdańsku (TASK) Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego w Warszawie (ICM) Konsorcjum utworzone z pięciu największych polskich centrów superkomputerowo-sieciowych (założyciele) GEANT2 Projekt PL-Grid w ramach programu Innowacyjnej Gospodarki ( )

20 Struktura PL-Grid Dziedzinowe systemy gridowe mogą być rozwijane i utrzymywane w ramach odrębnych projektów. Takie podejście powinno umożliwić efektywne wykorzystanie dostępnych środków finansowych. Zaawansowane Platformy Usługowe Aplikacja Aplikacja Aplikacja Aplikacja Grid Dziedzi nowy Grid Dziedzi nowy Grid Dziedzi nowy Grid Dziedzi nowy Infrastruktura gridowa (usługi gridowe) PL-Grid Klastry Komputery dużej mocy Repozytoria danych Krajowa sieć komputerowa PIONIER

21 Struktura PL-Grid Infrastruktura PL-Grid będzie bazą dla Gridów dziedzinowych, obejmujących usługi i narzędzia zorientowane na specyficzne typy aplikacji Użytkownicy Warstwa dostępowa/ tworzenia aplikacji Portale gridowe, narzędzia programistyczne Usługi gridowe System Wirtualnych organizacji i bezpieczeństwa LCG/gLite (EGEE) UNICORE (DEISA) Inne systemy gridowe Podstawowe usługi gridowe Zasoby gridowe Rozproszone repozytoria danych Krajowa sieć komputerowa Rozproszone zasoby obliczeniowe

22 Struktura PL-Grid Projekt PL-Grid jest podzielony na kilka zadań wg. J. Kitowskiego, ACK Cyfronet AGH Główne wskaźniki projektu: Moc obliczeniowa: 215 Tflops Pamięć dyskowa: 2500 TB

23 Oferta Sprzętowa Projektu PL-Grid ACK Cyfronet AGH (dane z czerwca 2010) ponad 5000 rdzeni dostępnych dla użytkowników (ok. 55 TFLOPs) Ponad 300 TB pamięci masowych Klaster Zeus najmocniejszym komputerem w Polsce (Top500 miejsce 161, czerwiec 2010) Projekt PL-Grid docelowo: Moc obliczeniowa: ok. 215 TFLOPs Ponad 2500 TB pamięci masowych Infrastruktura niezbędna do utrzymania zasobów w stanie produkcyjnym 7 dni w tygodniu Efektywna klimatyzacja zasobów System zabezpieczeń na wypadek awarii zasilania 23

24 Zasoby obliczeniowe PL-Grid lista Top500 z listopada 2010 Rank Site System Cores R max (TFlops) R peak (TFlops) Cyfronet AGH Krakow Gdansk University of Technology, CI Task PCSS Poznan 373 WCSS Wrocław Cluster Platform 3000 BL2x220, L56xx, 2.26 GHz, Infiniband / 2010 Hewlett-Packard ACTION Cluster Xeon E5345 Infiniband / 2008 ACTION Cluster Platform 3000 BL 2x220, E GHz, Infiniband GDR / 2010 Hewlett-Packard Cluster Platform 3000 BL2x220, L56xx, 2.26 GHz, Infiniband / 2010 Hewlett-Packard Klaster gridowy ZEUS w ACK Cyfronet AGH Michal Turala 24

25 Oferta PL-Grid cd. Zestaw zaawansowanych narzędzi do organizacji eksperymentów obliczeniowych Pomoc w zrozumieniu zagadnień związanych z uruchamianiem aplikacji naukowych na rozległych zasobach obliczeniowych Wsparcie technologiczne i informatyczne przy projektowaniu własnych aplikacji naukowych i ich wdrażaniu na infrastrukturze PL-Grid Helpdesk wygodny system zgłaszania problemów i zapytań System zarządzania grantami obliczeniowymi (wkrótce) 25 wg. M. Sterzela, ACK Cyfronet AGH październik 2010

26 Wykorzystanie zasobów PL-Grid Użytkownicy (stan na ) Użytkownik = osoba mająca dostęp do zasobów zarejestrowanych użytkowników: wg. M. Radeckiego, ACK Cyfronet AGH

27 Jak zostać użytkownikiem PL-Grid Każda osoba prowadząca działalność naukową, związana z jednostką naukową w rozumieniu ustawy z dnia 8 października 2004r. o zasadach finansowania nauki. Współpracownicy osoby prowadzącej działalność naukową (doktoranci, studenci, współpracownicy zagraniczni) Jak się zarejestrować? Procedura w pełni on-line System rejestracji i zarzadzania kontem użytkownika PL-Grid Wymagany aktualny, własny wpis w bazie Ludzie Nauki OPI bądź wpis opiekuna naukowego Weryfikacja zgłoszenia przez stronę internetową jednostki bądź telefonicznie Źródło: Tomasz Szepieniec, Marcin Radecki 27

28 Zapraszamy do rejestracji na: Uwagi i pytania prosimy kierować na: Uwagi i pytania prosimy kierować na: helpdesk@plgrid.pl 28

29 Europejska Inicjatywa Gridowa EGI Michal Turala z prezentacji D. Kranzlmuellera 29

30 Europejska Projekt Enabling Inicjatywa Grid Gridowa for E-SciencE EGI Grid europejski (EGEE) był utrzymywany dzięki projektom europejskim; 38 europejskich Gridów Narodowych (NGI) wyraziło zainteresowanie udziałem w Europejskiej Inicjatywie Gridowej (EGI); zainteresowane są kraje Azji i obydwu Ameryk Michal Turala z prezentacji D. Kranzlmuellera 30

31 Europejska Inicjatywa Gridowa EGI.eu - organizacja lutego 2010 ustanowiono fundację ( stichting ) EGI.eu z siedzibą w Amsterdamie Rada EGI.eu, pod przewodnictwem P. Öster a (1), wybrała Zarząd Na stanowisku dyrektora EGI.eu został zatrudniony S. Newhouse (2) Michal Turala 31 1

32 Forum Użytkowników EGI Wilno, kwietnia

33 Światowy GRID komputerowy LHC

34 CERN - eksperymenty LHC ATLAS Uczestnik projektu (dla ustalenia skali ) CMS LHCb ALICE

35 Eksperyment ATLAS Ludzie! Stan we wrześniu 2005 W listopadzie 2006 prąd w magnesach osiągnął nominalną wartość 20.5 ka za pierwsza próbą Michał Turała 35

36 Eksperymenty LHC w CERN Problem doświadczalny Poszukiwanie bardzo rzadkich a złożonych zjawisk prawdopodobieństwo ich pojawienia się jest na poziomie wszystkich oddziaływań (jeden ciekawy przypadek na 10 miliardów trywialnych zdarzeń!) -> poszukiwanie igły na ogromnym polu siana oddziaływania protonów, które są obiektami złożonymi, dają przy wysokich energiach skomplikowane obrazy oddziaływań -> analiza jest trudna Michal Turala 36

37 Preselekcja danych w czasie rzeczywistym Wiele różnych procesów fizycznych - kilka poziomów filtracji - wysoka wydajność dla ciekawych przypadków - całkowity współczynnik redukcji około 3x10 5 (10 6 ) Ograniczenie ze względu na koszt dysków i taśm - rocznie PB y informacji 37

38 Komputing LHC Strumień danych z oddziaływań p-p Typowe parametry Nominalna częstość zderzeń Częstość rejestracji Rozmiar przypadku Czas naświetlania Objętość surowych danych Dane Monte Carlo - 40 x 10 6 przyp./s ~ 150 przypadków/s ~ 1.5 M Byte ów/przypadek ~ 10 7 s/ rok (~ 4 miesiące w roku) ~ 2 Peta Byte y/rok/eksperyment ~ 2 Peta Byte/rok/eksperyment W ciągu roku jeden eksperyment będzie zapisywał ilość informacji odpowiadającą ok. miliardowi fotografii lub kilkudziesięciu milionom książek! Potrzebne na to byłoby ok. 1 miliona dyskietek CD ułożone obok siebie na półkach zajęły by ok m! Michał Turała

39 Pierwotny, wielo-stopniowy model analizy danych Na podstawie modelu projektu MONARC (Models of Networked Analysis at Regional Centres for LHC Experiments) lata XX w. Wielkim problemem była dystrybucja danych koszt sieci komputerowych był b. wysoki

40 Rozwój projektów Grid owych Michal Turala 40

41 Nowy model komputingu LHC ( cloud ) W r został zaproponowany i przyjęty w CERN projekt LHC Uni ComputingGrid(LCG) x Lab m mający na celu demonstrację realizacji tej USA Lab x Lab a Brookhaven koncepcji w dużej skali USA po kilku UK latach ten FermiLab projekt Tier3 wykazał iż Grid LHC jest możliwy France The LHC Physics Tier 1 Computing CERN Tier2 Department Facility Italy Tier0 Tier1 Desktop Porozumienie o budowie Worldwide LHC NL Germany γ ComputingGrid, Lab b uwzględniające wkład Lab c β Uni y α Uni b Uni n poszczególnych krajów, zostało opracowane i podpisane przez prawie wszystkie kraje uczestniczące w programie LHC

42 Ilości danych (do rejestracji i analizy) Rate [Hz] RAW [MB] ESD Reco [MB] AOD [kb] Monte Carlo [MB/evt] Monte Carlo % of real ALICE HI ALICE pp ATLAS CMS Dla obliczeń LHC potrzeba ok. 100M SpecInt2000 co LHCb oznacza ok. 100 tys. procesorów 3GHz Pentium 4! 50 days running in seconds/year pp from 2008 on ~10 9 events/experiment 10 6 seconds/year heavy ion Dla rejestracji danych potrzeba na rok ok. 20 Peta Bytów pamięci, czyli ok. 100 tys. dysków 200 GB! Michał Turała 42

43 Komputing LHC organizacja Gridu komputerowego LCG W tym polski rozproszony Tier2 (Kraków-Poznań-Warszawa)

44 Komputing LHC podział funkcji pomiędzy poszczególne ośrodki Tier Michal Turala 44

45 Połączenie polskiego Tier2 ze Światowym Gridem LHC (WLCG) Michal Turala 45

46 Worldwide LHC Computing Grid produkcja

47 Komputing LHC dostępność i wydajność polskiego Tier2 LCG Polska podpisała porozumienie (Memorandum of Understanding) o udziale w projekcie WLCG jako rozproszony Tier2, w skład którego wchodzą centra komputerowe Krakowa (ACK Cyfronet AGH), Poznania (PSNC) i Warszawy (ICM), Zgodnie z tym porozumieniem Polska winna udostępnić eksperymentom LHC w r około 1300 procesorów i około 120 TB przestrzeni dyskowej; w roku 2009 te ilości winny zostać znacznie zwiększone. Praca poszczególnych ośrodków jest monitorowana; zestawienie dostępności i wydajności za wrzesień 2008: Reliability Availability Oct.07 Nov.07 Dec.07 Michal Turala 47

48 Perspektywy rozwoju Gridu LHC w tym i polskiego Tier2 Tier1 Tier2 Poland For ATLAS Disk/CPU=44% For ATLAS Disk/CPU=27% Michal Turala

49 Computing infrastructure and operation ATLAS wlcg world-wide computing: ~ 70 sites (including CERN Tier-0, 10 Tier-1s, ~ 40 Tier-2 federations) WLCG 49

50 MB/s per day Worldwide data distribution and analysis Total throughput of ATLAS data through the Grid: 1 st January yesterday 6 GB/s Jan Feb March April May 2009 data reprocessing Start of 7 TeV data-taking Data and MC reprocessing June July p/bunch operation Aug multi-bunch operation Sep O c t bunch trains ~2 GB/s (design) Peaks of 10 GB/s achieved Grid-based analysis in Summer 2010: > 1000 different users; > 15M analysis jobs The excellent Grid performance has been crucial for fast release of physics results. E.g.: ICHEP: the full data sample taken until Monday was shown at the conference on Friday 50

51 51

52 First resonances popped up after a few days of collisions in November 2009 K 0 s π + π - Λ pπ - π 0 γγ η γγ 52

53 Nowe wyniki ATLAS (Pb-Pb)... CERN press realase, 26 November 2010:.the first direct observation of a phenomenon known as jet quenching has been made by both the ATLAS and CMS collaborations. This result is reported in a paper from the ATLAS collaboration accepted for publication yesterday in the scientific journal Physical Review Letters Michał Turała 53

54 Perspektywy

55 GAUSSIAN w Gridzie GAUSSIAN w Gridzie Gaussian VO - utworzona i wspierana przez 2 Partnerów (działalność EGEE ) Zaakceptowane przez dostawcę oprogramowania Rejestracja: Kierownik VO: Mariusz Sterzel (CYFRONET), koordynator ds.chemii Obliczeniowej (EGEE II) m.sterzel@cyfronet.pl t.szepieniec@cyfronet.pl

56 Chemia kwantowa Oferujemy dostęp do komercyjnych i darmowych pakietów oprogramowania: Turbomole, ADF, Gaussian, GAMESS i inne 56

57 Never Born Protein Folding 4. Visualize 2. Transfer application AABTDDSAD User Interface Portal 1. Submit sequence Prof. Irena Roterman (CM UJ) i projekt EUChinagrid Storage Element PDB Store protein Computing Element Euchina Virtual Organization (EGEE) t.szepieniec@cyfronet.pl

58 Biologia i pokrewne Dostępne pakiety Gromacs, NAMD, AutoDOCK oraz AMBER (wkrótce). Możliwość instalacji własnych pakietów użytkowników. Podziękowania: Jacek Czub, Anna Neumann, PG 58

59 Chmury komputerowe (Cloud computing) H. Pałka na CGW10

60 Cracow Cloud 1 H. Pałka/ M. Witek IFJ PAN

61 Do rozwoju polskiego Gridu dla nauki przyczynili się w zasadniczym stopniu:.. z CERN: I.Bird, F.Gagliardi, R.Jones, L.Robertson, W.von Rueden i wielu innych.. z Europy: D.Kranzlmueller (GUP Linz), J.Marco (CSIC Santander), P.Sloot (UvA Amsterdam), W.Gentzsch (D-Grid), H.Martin i K-P.Mickel (FZK Karlsruhe), J.Gomez (LIP Lisbon) i wielu innych. z Polski: R.Gokieli (IPJ), M. Niezgódka (ICM), N.Meyer (PCSS), J. Nabrzyski (PCSS), K.Nawrocki (ICM), J. Węglarz (PCSS), W.Wiślicki (ICM) i wielu innych.. z Krakowa: M.Bubak (ACK), J.Kitowski (ACK), K.Korcyl (IFJ), A.Kusznir (ACK), P.Lasoń (ACK), P.Malecki (IFJ), Z.Mosurska (ACK), J.Niwicki (ACK), M.Noga (ACK), P.Nyczyk (ACK), A.Olszewski (IFJ), A.Oziebło (ACK), H.Pałka (IFJ), M.Radecki (ACK), M.Sterzel (ACK), T.Szepieniec (ACK), T.Szymocha (IFJ), M.T. (IFJ), K.Wiatr (ACK), M.Witek (IFJ) i wielu innych Michał Turała 61

62 Dziękuję za uwagę Michał Turała 62

Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków

Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków 2009-01-13 1 CERN - eksperymenty LHC ATLAS Uczestnik projektu (dla ustalenia skali ) CMS LHCb ALICE Eksperyment ATLAS Ludzie!

Bardziej szczegółowo

PLGrid: informatyczne usługi i narzędzia wsparcia w nauce

PLGrid: informatyczne usługi i narzędzia wsparcia w nauce PLGrid: informatyczne usługi i narzędzia wsparcia w nauce Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Wydział Rolniczo-Ekonomiczny, UR Kraków 19.01.2015 Plan prezentacji Infrastruktura PLGrid Oferta

Bardziej szczegółowo

Infrastruktura PLGrid dla młodych naukowców

Infrastruktura PLGrid dla młodych naukowców Infrastruktura PLGrid dla młodych naukowców Mariola Czuchry ACK Cyfronet AGH Koło Naukowe Geodetów Dahlta, AGH, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura PLGrid PLGrid to Struktura

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek, Mariusz Sterzel ACK Cyfronet AGH Katedra Katedra Fizykochemii i Modelowania Procesów WIMiC, AGH,

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Wydział Fizyki, Astronomii i Informatyki Stosowanej, Kraków 2015 Agenda ACK Cyfronet

Bardziej szczegółowo

Infrastruktura PLGrid (nie tylko) dla młodych naukowców

Infrastruktura PLGrid (nie tylko) dla młodych naukowców Infrastruktura PLGrid (nie tylko) dla młodych naukowców Mariola Czuchry, Mariusz Sterzel ACK Cyfronet AGH Wydział Mechaniczny, PK, Kraków 16 XI 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Robotyki i Mechatroniki, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Biochemii i Neurobiologii, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje

Bardziej szczegółowo

Infrastruktura PLGrid dla młodych polskich naukowców

Infrastruktura PLGrid dla młodych polskich naukowców Infrastruktura PLGrid dla młodych polskich naukowców Mariola Czuchry ACK Cyfronet AGH WFiIS, AGH, Kraków 5 X 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka Struktura Oferta Dostęp do

Bardziej szczegółowo

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki

Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Maciej Czuchry, Klemens Noga ACK Cyfronet AGH Seminarium Katedry Informatyki Stosowanej, AGH, Kraków 2015 Agenda ACK Cyfronet

Bardziej szczegółowo

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego

Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Mateusz Tykierko WCSS 20 stycznia 2012 Mateusz Tykierko (WCSS) 20 stycznia 2012 1 / 16 Supernova moc obliczeniowa: 67,54 TFLOPS liczba

Bardziej szczegółowo

Wrocławskie Centrum Sieciowo-Superkomputerowe

Wrocławskie Centrum Sieciowo-Superkomputerowe Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 26 czerwca 2012 Mateusz Tykierko (WCSS) 26 czerwca 2012 1 / 23 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca

Bardziej szczegółowo

Usługi HEP w PLGrid. Andrzej Olszewski

Usługi HEP w PLGrid. Andrzej Olszewski Usługi HEP w PLGrid Andrzej Olszewski Konsorcjum PLGrid 2 ACK CYFRONET AGH - Akademickie Centrum Komputerowe CYFRONET AGH w Krakowie ICM UW - Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego

Bardziej szczegółowo

Polityka wspierania prac naukowych i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce

Polityka wspierania prac naukowych i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce Kazimierz Wiatr Światowy Zjazd Inżynierów Polskich Warszawa Politechnika Warszawska 8 września 2010 r. Kazimierz

Bardziej szczegółowo

Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH

Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Metalurgii Stopów Żelaza, Kraków 2015 Plan prezentacji

Bardziej szczegółowo

Infrastruktura PLGrid

Infrastruktura PLGrid Infrastruktura PLGrid Andrzej Zemła ACK Cyfronet AGH Konferencja Użytkowników Komputerów Dużej Mocy Zakopane 2019 Zakopane, 2019.03.07 Infrastruktura PLGrid Polska Infrastruktura Informatycznego Wspomagania

Bardziej szczegółowo

Infrastruktura gridowa

Infrastruktura gridowa Infrastruktura gridowa Zadaniem ogólnopolskiej infrastruktury gridowej jest wspieranie badań naukowych w sposób umożliwiający integrację danych doświadczalnych i wyników zaawansowanych symulacji komputerowych.

Bardziej szczegółowo

Infrastruktura PL-Grid wsparciem dla naukowców

Infrastruktura PL-Grid wsparciem dla naukowców Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid

Bardziej szczegółowo

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009 High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych

Bardziej szczegółowo

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS

USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń

Bardziej szczegółowo

Infrastruktura PL-Grid wsparciem dla naukowców

Infrastruktura PL-Grid wsparciem dla naukowców Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 1 Plan prezentacji 2 Infrastruktura PL-Grid Zasoby i usługi oferowane przez PL-Grid

Bardziej szczegółowo

Cyfronet w CTA. Andrzej Oziębło DKDM

Cyfronet w CTA. Andrzej Oziębło DKDM Cyfronet w CTA Andrzej Oziębło DKDM ACK CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie ul. Nawojki 11 30-950 Kraków 61 tel. centrali:

Bardziej szczegółowo

Klaster obliczeniowy

Klaster obliczeniowy Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana

Bardziej szczegółowo

Jacek Kitowski i Łukasz Dutka ACK CYFRONET AGH, Kraków, Polska

Jacek Kitowski i Łukasz Dutka ACK CYFRONET AGH, Kraków, Polska Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Aktualne postępy i osiągnięcia Polskiej Inicjatywy Gridowej w ramach Projektu PL-Grid Jacek Kitowski i Łukasz

Bardziej szczegółowo

Prace informatyczne dla projektu CTA

Prace informatyczne dla projektu CTA Prace informatyczne dla projektu CTA Anna Barnacka Centrum Astronomiczne im. Mikołaja Kopernika Tomasz Szepieniec, Joanna Kocot, Mariusz Sterzel, Tomasz Twaróg, Piotr Wójcik, Tomasz Grabarczyk, Rafał Niester,

Bardziej szczegółowo

Wydział Fizyki AGH" Kraków, 11 grudnia 2009"

Wydział Fizyki AGH Kraków, 11 grudnia 2009 Wydział Fizyki AGH" Kraków, 11 grudnia 2009" Co to jest grid?! Enabling Grids for E-scienceE! Europejska Inicjatywa Gridowa (EGI)! Czym jest projekt PL-Grid! idea i struktura PL-Grid" dostępne i planowane

Bardziej szczegółowo

Piotr Dziubecki Piotr Grabowski, Tomasz Kuczyński Tomasz Piontek, Dawid Szejnfeld, PCSS

Piotr Dziubecki Piotr Grabowski, Tomasz Kuczyński Tomasz Piontek, Dawid Szejnfeld, PCSS Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Wprowadzenie do użytkowaania infrastruktury PL-Grid Dedykowane rozwiązania portalowe i usługi PL-Grid dla nanotechnologii

Bardziej szczegółowo

Infrastruktura PLGrid Usługi dla chemii obliczeniowej

Infrastruktura PLGrid Usługi dla chemii obliczeniowej Infrastruktura PLGrid Usługi dla chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 15 maj 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura

Bardziej szczegółowo

Równoległe aplikacje duŝej skali w środowisku PL-Grid. Kick-off PL-GRID Kraków, 16-17 kwietnia 2009

Równoległe aplikacje duŝej skali w środowisku PL-Grid. Kick-off PL-GRID Kraków, 16-17 kwietnia 2009 Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Równoległe aplikacje duŝej skali w środowisku PL-Grid Tomasz Piontek, Krzysztof Kurowski, Piotr Kopta, Mariusz

Bardziej szczegółowo

GRID - globalny system przetwarzania danych

GRID - globalny system przetwarzania danych GRID - globalny system przetwarzania danych Dlaczego GRID? Jak jest zbudowany, zorganizowany i jak działa Międzynarodowe i krajowe inicjatywy gridowe Zastosowania Trudne do pogodzenia sprzeczności interesów

Bardziej szczegółowo

Uslugi chmurowe dla nauki na podstawie BonFIRE

Uslugi chmurowe dla nauki na podstawie BonFIRE Building service testbeds on FIRE Uslugi chmurowe dla nauki na podstawie BonFIRE Michał Giertych, Bartosz Belter PCSS Agenda Platforma chmurowa BonFIRE Konkursy na nowe pomysły Open Calls Dostęp dla każdego

Bardziej szczegółowo

"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1

System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1 "System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1 Tło Jednolity dostęp do informacji, bez względu na miejsce na Ziemi. WWW Tło Jednolity dostęp

Bardziej szczegółowo

Jak znaleźć igłę w stogu siana

Jak znaleźć igłę w stogu siana Jak znaleźć igłę w stogu siana Rola obliczeń komputerowych w eksperymentach fizyki wysokich energii Piotr Golonka CERN EN/ICE-SCD Plan Co jest igłą a co stogiem siana... między teorią a doświadczeniem

Bardziej szczegółowo

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej

Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 23 X 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura

Bardziej szczegółowo

Sieć PIONIER i sieci miejskie Warsztaty

Sieć PIONIER i sieci miejskie Warsztaty Sieć PIONIER i sieci miejskie Warsztaty Usługa powszechnej archiwizacji Marek Bazyly, PCSS Zbigniew Sender PŚk Historia powstania Konsorcjum PIONIER (1) 1991 Naukowa Akademicka Sied Komputerowa Organizacja

Bardziej szczegółowo

Skalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych

Skalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych 1 Skalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych D. Król, Ł. Dutka, J. Kitowski ACC Cyfronet AGH Plan prezentacji 2 O nas Wprowadzenie

Bardziej szczegółowo

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek

Wprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek Wprowadzenie do użytkowania infrastruktury PL Grid Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda WSTĘP (PL-GRID) Konsorcjum PL-Grid Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej

Bardziej szczegółowo

GRIDY OBLICZENIOWE. Piotr Majkowski

GRIDY OBLICZENIOWE. Piotr Majkowski GRIDY OBLICZENIOWE Piotr Majkowski Wstęp Podział komputerów Co to jest grid? Różne sposoby patrzenia na grid Jak zmierzyć moc? Troszkę dokładniej o gridach Projekt EGEE Klasyfikacja Flynn a (1972) Instrukcje

Bardziej szczegółowo

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś

Komputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń

Bardziej szczegółowo

Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych. Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński

Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych. Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński PLATON-U4 Plan prezentacji KMD/PLATON-U4: Motywacje, cel, założenia

Bardziej szczegółowo

Infrastruktura PL-Grid wsparciem dla naukowców

Infrastruktura PL-Grid wsparciem dla naukowców Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Energoelektroniki i Automatyki Systemów Przetwarzania Energii, Kraków

Bardziej szczegółowo

Laboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz

Laboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz Laboratorium Chmur obliczeniowych Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz Agenda SANTOS Lab laboratorium badawcze Zagadnienia badawcze Infrastruktura SANTOS Lab Zasoby laboratorium

Bardziej szczegółowo

Laboratorium Wirtualne

Laboratorium Wirtualne Obliczenia wielkiej skali i wizualizacja do zastosowań w wirtualnym laboratorium z użyciem klastra SGI Laboratorium Wirtualne Instytut Chemii Bioorganicznej PAN Poznańskie Centrum Superkomputerowo Sieciowe

Bardziej szczegółowo

Nowe aplikacje i usługi w środowisku Grid

Nowe aplikacje i usługi w środowisku Grid Nowe aplikacje i usługi w środowisku Grid Wstęp Pojęcie GRID Aplikacje/Usługi Laboratorium Wirtualne Krajowy Magazyn Danych Zastosowanie Skala i zasięg Użytkownik końcowy Uwarunkowania ekonomiczne Laboratorium

Bardziej szczegółowo

Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej?

Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej? 1 Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej? Klemens Noga ACK Cyfronet AGH Kraków, 8 VI 2013 Plan prezentacji 2! Czym jest ACK Cyfronet AGH! Dostępne zasoby! Narzędzia ułatwiające

Bardziej szczegółowo

Infrastruktura informatyczna dla nauki w Polsce

Infrastruktura informatyczna dla nauki w Polsce Infrastruktura informatyczna dla nauki w Polsce Kazimierz Wiatr KRASP, 16 listopada 2018 Struktura infrastruktury informatycznej dla nauki w Polsce Infrastruktura ogólnopolska Sieć komputerowa PIONIER

Bardziej szczegółowo

Sterowany jakością dostęp do usług składowania danych dla e-nauki

Sterowany jakością dostęp do usług składowania danych dla e-nauki Sterowany jakością dostęp do usług składowania danych dla e-nauki Renata Słota 1,2, Darin Nikolow 1,2, Marek Pogoda 1, Stanisław Polak 2 and Jacek Kitowski 1,2 1 Akademickie Centrum Komputerowe Cyfronet

Bardziej szczegółowo

Infrastruktura PL-Grid wsparciem dla naukowców

Infrastruktura PL-Grid wsparciem dla naukowców Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid

Bardziej szczegółowo

Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki

Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki Kompleksowa oferta. Doświadczenie w budowie gotowych rozwiązań. ACTION S.A. uznany producent 4-te miejsce

Bardziej szczegółowo

Technologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS

Technologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS Technologie taśmowe wprowadzenie i zastosowania Jacek Herold, WCSS Agenda Wprowadzenie Podstawowe cechy usługi Dostępne metody dostępowe Certyfikaty Kto może korzystać z usługi? Jak uzyskać konto? Agenda

Bardziej szczegółowo

Rozwój bibliotek cyfrowych w Polsce. Cezary Mazurek Tomasz Parkoła Marcin Werla

Rozwój bibliotek cyfrowych w Polsce. Cezary Mazurek Tomasz Parkoła Marcin Werla Rozwój bibliotek cyfrowych w Polsce Cezary Mazurek Tomasz Parkoła Marcin Werla Poznańskie Centrum Superkomputerowo-Sieciowe Założone w 1993 roku Afiliowane przy Instytucie Chemii Bioorganicznej PAN Obecnie

Bardziej szczegółowo

Witamy w CERN. 2014-02-24 Marek Kowalski

Witamy w CERN. 2014-02-24 Marek Kowalski Witamy w CERN Co to jest CERN? CERN European Organization for Nuclear Research oryg. fr Conseil Europeén pour la Recherche Nucléaire Słowo nuclear (Jadrowy) czysto historyczne. W czasie, gdy zakładano

Bardziej szczegółowo

Architektura komputerów

Architektura komputerów Architektura komputerów Wykład 13 Jan Kazimirski 1 KOMPUTERY RÓWNOLEGŁE 2 Klasyfikacja systemów komputerowych SISD Single Instruction, Single Data stream SIMD Single Instruction, Multiple Data stream MISD

Bardziej szczegółowo

IMP PAN. Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET. Dolina Lotnicza

IMP PAN. Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET. Dolina Lotnicza Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET Dolina Lotnicza Aero-PlAN 1 Koszty i plan realizacji Program dwuletni Hardware: budowa i uruchomienie 1 rok Platforma i procesory 2,4 mln

Bardziej szczegółowo

Prezentacja wstępna. Warsztaty Usługa powszechnej archiwizacji. Norbert Meyer, PCSS

Prezentacja wstępna. Warsztaty Usługa powszechnej archiwizacji. Norbert Meyer, PCSS Prezentacja wstępna Warsztaty Usługa powszechnej archiwizacji Norbert Meyer, PCSS PLATON-U4 Plan prezentacji Projekt PLATON 5 usług wspólnych Usługa powszechnej archiwizacji (U4) Cechy Krajowego Magazynu

Bardziej szczegółowo

i IFJ PAN w Krakowie S. Gadomski, "CERN i komputery",

i IFJ PAN w Krakowie S. Gadomski, CERN i komputery, CERN i komputery dr hab. Szymon Gadomski Uniwersytet Genewski i IFJ PAN w Krakowie S. Gadomski, "CERN i komputery", 22.05.2007 1 Komputery w CERN - WWW i GRID 1. Historia WWW (wynalazek CERN) na czym polegał

Bardziej szczegółowo

Nazwa jednostki Temat pracy (w języku polskim i angielskim) Rodzaj pracy Ilość osób realizujących pracę

Nazwa jednostki Temat pracy (w języku polskim i angielskim) Rodzaj pracy Ilość osób realizujących pracę Marian Bubak (konsultant: Piotr Nowakowski) Zarządzanie wiarygodnością i integralnością danych w federacji zasobów cloudowych Managing data reliability and integrity in federated cloud storage Magisterska

Bardziej szczegółowo

Usługi i narzędzia QCG

Usługi i narzędzia QCG Usługi i narzędzia QCG wygodny dostęp dla użytkowników do infrastruktury komputerów dużej mocy Tomasz Piontek, Bartosz Bosak, Piotr Kopta, Maciej Tronowski, Krzysztof Kurowski Poznańskie Centrum Superkomputerowo

Bardziej szczegółowo

Akademickie Centrum Komputerowe

Akademickie Centrum Komputerowe Akademickie Centrum Komputerowe Cyfronet AGH - jednostka wspierająca polskich naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków, 28 X 2014 1 Plan prezentacji 2 Czym jest

Bardziej szczegółowo

Zamawianie usługi. Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS. Warsztaty. Usługa powszechnej archiwizacji

Zamawianie usługi. Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS. Warsztaty. Usługa powszechnej archiwizacji Zamawianie usługi Warsztaty Usługa powszechnej archiwizacji Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS PLATON-U4 Plan prezentacji Użytkownicy: Kto może skorzystad z usługi Co można otrzymad Gdzie

Bardziej szczegółowo

th- Zakład Zastosowań Metod Obliczeniowych (ZZMO)

th-  Zakład Zastosowań Metod Obliczeniowych (ZZMO) Zakład Zastosowań Metod Obliczeniowych (ZZMO) - prof. dr hab. Wiesław Płaczek - prof. dr hab. Elżbieta Richter-Wąs - prof. dr hab. Wojciech Słomiński - prof. dr hab. Jerzy Szwed (Kierownik Zakładu) - dr

Bardziej szczegółowo

Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW)

Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW) Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW) Maciej Cytowski, Maciej Filocha, Maciej E. Marchwiany, Maciej Szpindler Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego

Bardziej szczegółowo

Działanie 2.3: Inwestycje związane z rozwojem infrastruktury informatycznej nauki

Działanie 2.3: Inwestycje związane z rozwojem infrastruktury informatycznej nauki Program Obliczeń Wielkich Wyzwań Nauki i Techniki POWIEW Marek Niezgódka, Maciej Filocha ICM, Uniwersytet Warszawski Konferencja Nauka idzie w biznes, Warszawa, 7.11.2012 1 Informacje ogólne Działanie

Bardziej szczegółowo

Dyrektor ACK Cyfronet AGH. z dnia 2 października 2017 roku w sprawie zmian organizacyjnych

Dyrektor ACK Cyfronet AGH. z dnia 2 października 2017 roku w sprawie zmian organizacyjnych ACK DN 021 1 18/17 Zarządzenie nr 18/2017 Dyrektora ACK Cyfronet AGH z dnia 2 października 2017 roku w sprawie zmian organizacyjnych Na podstawie 6 ust. 1, 10 ust. 1 oraz 28 ust. 3 Regulaminu Organizacyjnego

Bardziej szczegółowo

Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid

Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid Maciej Czuchry, Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Automatyki i Inżynierii Biomedycznej,

Bardziej szczegółowo

Jak znaleźć igłę w stogu siana

Jak znaleźć igłę w stogu siana Jak znaleźć igłę w stogu siana Rola obliczeń komputerowych w eksperymentach fizyki wysokich energii Krzysztof Korcyl na bazie wykładu Piotra Golonki CERN EN/ICE-SCD Użytkowanie i kopiowanie dozwolone na

Bardziej szczegółowo

się także urządzenia do odzyskiwania ciepła, które przy tak dużych maszynach obliczeniowych, zajmują dużo miejsca wyjaśnił Krawentek.

się także urządzenia do odzyskiwania ciepła, które przy tak dużych maszynach obliczeniowych, zajmują dużo miejsca wyjaśnił Krawentek. Na Akademii Górniczo-Hutniczej w Krakowie wmurowano w środę kamień węgielny pod nową halę maszyn, która będzie częścią Akademickiego Centrum Komputerowego (ACK) Cyfronet. Koszt inwestycji to 12,2 mln zł,

Bardziej szczegółowo

Budowa uniwersalnej architektury dla Laboratorium Wirtualnego

Budowa uniwersalnej architektury dla Laboratorium Wirtualnego Budowa uniwersalnej architektury dla Laboratorium Wirtualnego Projekt badawczy 4 T11F 010 24 Kierownik projektu: Katarzyna Kulińska Instytut Chemii Bioorganicznej PAN, Agenda Wstęp Koncepcja Laboratorium

Bardziej szczegółowo

PL-Grid i PLGrid Plus fundusze unijne wspierają przyspieszenie procesów innowacyjnych w obszarze e-science w Polsce

PL-Grid i PLGrid Plus fundusze unijne wspierają przyspieszenie procesów innowacyjnych w obszarze e-science w Polsce Dziedzinowo zorientowane usługi i zasoby infrastruktury PL-Grid dla wspomagania Polskiej Nauki w Europejskiej Przestrzeni Badawczej Budowa Polskiej Infrastruktury Gridowej PL-Grid. 30 kwietnia br. zakończył

Bardziej szczegółowo

Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE

Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2016 W kierunku obliczeń Exaskalowych Mirosław Kupczyk, PCSS 28.06.2016 Misja PRACE HPC Dla Przemysłu Zagwarantowanie

Bardziej szczegółowo

Nauka i społeczeństwo informacyjne a nauczanie Jana Pawła II

Nauka i społeczeństwo informacyjne a nauczanie Jana Pawła II Nauka i społeczeństwo informacyjne a nauczanie Jana Pawła II Tarnowskie Towarzystwo Naukowe 27 października 2009 r. (31 lat i 11 dni po Habemus Papam) Kazimierz Wiatr Akademickie Centrum Komputerowe CYFRONET

Bardziej szczegółowo

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań

Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań zespół PCSS/MIC: Jacek Kochan, Jerzy Mikołajczak, Marek Zawadzki 4. Konferencja MIC Nowoczesne technologie bliżej nas Poznań, 04.03.2010

Bardziej szczegółowo

Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER

Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Prof. Roman Wyrzykowski, Politechnika Częstochowska Rafał Mikołajczak, Marek Zawadzki Poznańskie

Bardziej szczegółowo

Wirtualizacja zasobów IPv6 w projekcie IIP

Wirtualizacja zasobów IPv6 w projekcie IIP Wirtualizacja zasobów IPv6 w projekcie IIP Artur Binczewski, Bartosz Gajda, Wiktor Procyk, Robert Szuman Poznańskie Centrum Superkomputerowo Sieciowe Adam Grzech, Jan Kwiatkowski, Krzysztof Chudzik Politechnika

Bardziej szczegółowo

Wykorzystanie infrastruktury chmurowej i platformy GridSpace w obliczeniach naukowych

Wykorzystanie infrastruktury chmurowej i platformy GridSpace w obliczeniach naukowych 1 Wykorzystanie infrastruktury chmurowej i platformy GridSpace w obliczeniach naukowych Daniel Harężlak, Eryk Ciepiela, Jan Meizner i Marian Bubak ACK CYFRONET AGH konferencja i3, Poznań, 16 kwietnia 2013

Bardziej szczegółowo

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego

Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Rafał Tylman 1, Bogusław Śmiech 1, Marcin Wichorowski 2, Jacek Wyrwiński 2 1 CI TASK Politechnika Gdańska,

Bardziej szczegółowo

Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE

Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2017 Nowe trendy w użytkowaniu KDM Mirosław Kupczyk, PCSS 24.5.2017 Tier-0: komputery klasy Petaflops

Bardziej szczegółowo

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej

Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej 30 maj 2011, Kraków 1 z 22 POWIEW Program Obliczeń Wielkich Wyzwań Nauki i Techniki Celem jest udostepnienie w polskich

Bardziej szczegółowo

Zakład Eksperymentu ATLAS (NZ14)

Zakład Eksperymentu ATLAS (NZ14) Zakład Eksperymentu ATLAS (NZ14) Kierownik Zakładu: dr hab. prof. IFJ PAN Adam Trzupek Zadanie statutowe: Temat 1, zadanie 6: Eksperyment ATLAS na akceleratorze LHC w CERN Badania oddziaływań proton-proton

Bardziej szczegółowo

Zasady_Funkcjonowania.odt 1.2 Zespół Planowania Strategicznego. Cyfronet, ICM, WCSS, PCSS, TASK,

Zasady_Funkcjonowania.odt 1.2 Zespół Planowania Strategicznego. Cyfronet, ICM, WCSS, PCSS, TASK, Z A S A D Y F U N K C J O N O W A N I A I N F R A S T R U K T U R Y P L - G R I D Nazwa pliku dokumentu: Zadanie: Partnerzy: Partner koordynujący: Wersja dokumentu: 0.3 Typ dokumentu: PL-Grid-ZPS_ZF-v0.6.3-Cyfronet-

Bardziej szczegółowo

e-infrastruktura: nowe strategie i wyzwania

e-infrastruktura: nowe strategie i wyzwania e-infrastruktura: nowe strategie i wyzwania C. Citko, Politechnika Białostocka S. Starzak, Politechnika Łódzka M. Stroiński, Poznańskie Centrum Superkomputerowo-Sieciowe J. Węglarz, Poznańskie Centrum

Bardziej szczegółowo

Czwarte warsztaty Biblioteki cyfrowe dzień 1. Poznań 12 listopada 2007 r.

Czwarte warsztaty Biblioteki cyfrowe dzień 1. Poznań 12 listopada 2007 r. Czwarte warsztaty Biblioteki cyfrowe dzień 1 Poznań 12 listopada 2007 r. Poznańskie Centrum Superkomputerowo-Sieciowe Założone w 1993 roku Afiliowane przy Instytucie Chemii Bioorganicznej PAN Obecnie 5

Bardziej szczegółowo

Plan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem

Plan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid Oprogramowanie Użytkownicy kto i jak może zostać użytkownikiem rejestracja kont certyfikaty Jak korzystać z usług infrastruktury

Bardziej szczegółowo

Współpraca nauki z przemysłem ICT na przykładzie Wielkopolskiego Centrum Zaawansowanych Technologii Informacyjnych Maciej Stroiński

Współpraca nauki z przemysłem ICT na przykładzie Wielkopolskiego Centrum Zaawansowanych Technologii Informacyjnych Maciej Stroiński Współpraca nauki z przemysłem ICT na przykładzie Wielkopolskiego Centrum Zaawansowanych Technologii Informacyjnych Maciej Stroiński stroins@man.poznan.pl Koncepcja WCZTI Wielkopolskie Centrum Zaawansowanych

Bardziej szczegółowo

! PL-Grid Idea! ! Projekt PL-Grid! ! Oferta Infrastruktury PL-Grid! ! Użytkownicy i realizowane projekty naukowe! ! Demonstracja!

! PL-Grid Idea! ! Projekt PL-Grid! ! Oferta Infrastruktury PL-Grid! ! Użytkownicy i realizowane projekty naukowe! ! Demonstracja! Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Plan prezentacji! PL-Grid Przestrze! Badawcza dla e-nauki Mariusz Sterzel ACK Cyfronet AGH e-mail: helpdesk@plgrid.pl!

Bardziej szczegółowo

Rola polskich bibliotek cyfrowych w zapewnianiu otwartego dostępu

Rola polskich bibliotek cyfrowych w zapewnianiu otwartego dostępu Rola polskich bibliotek cyfrowych w zapewnianiu otwartego dostępu Marcin Werla (mwerla@man.poznan.pl) Poznańskie Centrum Superkomputerowo-Sieciowe, Dział Bibliotek Cyfrowych i Platform Wiedzy Prezentacja

Bardziej szczegółowo

Petabajtowe systemy przechowywania danych dla dostawców treści

Petabajtowe systemy przechowywania danych dla dostawców treści Petabajtowe systemy przechowywania danych dla dostawców treści Krzysztof Góźdź, HP 2008 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice Rafał

Bardziej szczegółowo

Poznańskie Centrum Superkomputerowo-Sieciowe

Poznańskie Centrum Superkomputerowo-Sieciowe Poznańskie Centrum Superkomputerowo-Sieciowe Operator infrastruktury sieciowej, 7000+km światłowodów 100Gb/s 80-ty klaster obliczeniowy na liście TOP 500 Operator sieci miejskiej Projekty B+R w zakresie

Bardziej szczegółowo

Wrocławskie Centrum Sieciowo-Superkomputerowe

Wrocławskie Centrum Sieciowo-Superkomputerowe Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 27 maja 2014 Mateusz Tykierko (WCSS) 27 maja 2014 1 / 17 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca na

Bardziej szczegółowo

Przetwarzanie danych w chmurze

Przetwarzanie danych w chmurze Materiały dydaktyczne Katedra Inżynierii Komputerowej Przetwarzanie danych w chmurze Modele przetwarzania w chmurze dr inż. Robert Arsoba Robert.Arsoba@weii.tu.koszalin.pl Koszalin 2017 Wersja 1.0 Modele

Bardziej szczegółowo

elektronicznych fizyki

elektronicznych fizyki O eksperymentach elektronicznych fizyki czastek czyli o elektronicznej generacji, rejestracji i analizie oddziaływań wysokich energii M. Turała Instytut Fizyki Jądrowej PAN, Kraków M. Turała CERN, 1 Kwiecień

Bardziej szczegółowo

IT Solutions and Hardware Resources extending the National Grid Infrastructure for Polish Science

IT Solutions and Hardware Resources extending the National Grid Infrastructure for Polish Science IT Solutions and Hardware Resources extending the National Grid Infrastructure for Polish Science J. Kitowski, K. Wiatr, Ł. Dutka, T. Szepieniec, R. Pająk, M. Sterzel ACK Cyfronet AGH KU KDM 2016 17.03.2016

Bardziej szczegółowo

POLITECHNIKA POZNAŃSKA Wydział: BMiZ Kierunek: MiBM / KMiU Prowadzący: dr hab. Tomasz Stręk Przygotował: Adrian Norek Plan prezentacji 1. Wprowadzenie 2. Chłodzenie największego na świecie magnesu w CERN

Bardziej szczegółowo

Infrastruktura PL-LAB2020

Infrastruktura PL-LAB2020 Infrastruktura 2020 Bartosz Belter (Poznańskie Centrum Superkomputerowo-Sieciowe) Seminarium 2020, Warszawa, 23.03.2017 Rozproszona infrastruktura 2020 Rozproszona infrastruktura 2020 (2) Sieć szkieletowa

Bardziej szczegółowo

Lista rankingowa/suplement/korekta* Dla projektów o wartości wydatków kwalifikowanych co najmniej 15 mln PLN

Lista rankingowa/suplement/korekta* Dla projektów o wartości wydatków kwalifikowanych co najmniej 15 mln PLN Lista rankingowa/suplement/korekta* Dla projektów o wartości wydatków kwalifikowanych co najmniej 15 mln PLN Numer i nazwa działania/poddziałania: Działanie 2.3 Inwestycje związane z rozwojem infrastruktury

Bardziej szczegółowo

Akademickie Centrum Komputerowe CYFRONET AGH

Akademickie Centrum Komputerowe CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET AGH Kazimierz Wiatr Dyrektor ACK Cyfronet AGH Kolegium Rektorów Szkół Wyższych Krakowa Kraków, 30 stycznia 2013 Zadania i misja Akademickie Centrum Komputerowe

Bardziej szczegółowo

Europeana Cloud: Wykorzystanie technologii chmurowych do współdzielenia on-line baz danych dziedzictwa kulturowego

Europeana Cloud: Wykorzystanie technologii chmurowych do współdzielenia on-line baz danych dziedzictwa kulturowego Europeana Cloud: Wykorzystanie technologii chmurowych do współdzielenia on-line baz danych dziedzictwa kulturowego Cezary Mazurek, Aleksandra Nowak, Maciej Stroiński, Marcin Werla Poznańskie Centrum Superkomputerowo-Sieciowe

Bardziej szczegółowo

Architektury usług internetowych. Tomasz Boiński Mariusz Matuszek

Architektury usług internetowych. Tomasz Boiński Mariusz Matuszek Architektury usług internetowych 2016 Tomasz Boiński Mariusz Matuszek Organizacja przedmiotu 1. Wykład 2 kolokwia po 25 punktów (23 listopada i 27 stycznia) 2. 6 zadań laboratoryjnych, zadania 1-5 po 8

Bardziej szczegółowo

Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER

Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER Gdańsk, 27-28 września 2012 r. Krzysztof Pytliński Zakład Teleinformatyki Kontekst Data Center jako usługa zewnętrzna, zaspokajająca potrzeby

Bardziej szczegółowo

dr hab. Szymon Gadomski Uniwersytet Genewski i Instytut Fizyki Jądrowej PAN w Krakowie S. Gadomski, "CERN i komputery", 19.04.

dr hab. Szymon Gadomski Uniwersytet Genewski i Instytut Fizyki Jądrowej PAN w Krakowie S. Gadomski, CERN i komputery, 19.04. CERN i komputery dr hab. Szymon Gadomski Uniwersytet Genewski i Instytut Fizyki Jądrowej PAN w Krakowie S. Gadomski, "CERN i komputery", 19.04.2007 1 Komputery w CERN - WWW i GRID 1. WWW - najbardziej

Bardziej szczegółowo