W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej
|
|
- Beata Bukowska
- 8 lat temu
- Przeglądów:
Transkrypt
1 Grid komputerowy dla nauki Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków
2 Grid komputerowy Plan referatu Europejskie projekty gridowe PL-Grid i EGI Światowy Grid komputerowy LHC Perspektywy
3 GRID komputerowy
4 W Stanach Zjednoczonych jest to popularne określenie sieci elektrycznej Rozległa sieć maszyn obliczeniowych i innych zasobów zarządzanych w sposób rozproszony i niezależny szybki, niezawodny i bezpieczny system połączonych komputerów i innych urządzeń, który umożliwia łatwy dostęp do dużych, rozproszonych mocy obliczeniowych, zasobów danych i usług, bez względu na to, gdzie te zasoby są zlokalizowane. Po co się to robi? Co to jest Grid? Dlatego że sieć połączonych komputerów, nawet niewielkich, może zastąpić jeden wielki (i drogi) komputer, konieczny do wykonania skomplikowanych obliczeń Grid to nowy paradygmat usług informatycznych realizowany przez zbiory nowych technologii informatycznych z takich sieci korzystają już fizycy, chemicy, biologowie, inżynierowie, lekarze, przedsiębiorcy ci, którzy dla swych obliczeń sporadycznie potrzebują setek komputerów Europa traktuje grid jako na nowe, bardzo przydatne narzędzie, a Unia Europejska planuje utworzenie europejskiej infrastruktury gridowej. wg. J. Kitowskiego
5 Postęp w technologiach komputerowych Osiągnięcia na jednostkę kosztów w funkcji lat 10,000,000 1,000, ,000 10,000 Farm CPU box MIPS/$M Doubling in 1.2 years 1, Raid Disk GB/$M Doubling in 1.4 years Transatlantic WAN kb/s per $M/yr Doubling in 8.4 or 0.7 years from R. Mount
6 Europejska Sieć Komputerowa GEANT
7 Polska Sieć Komputerowa PIONIER R. Lichwała PCSS7
8 Europejskie projekty GRIDowe
9 Polski udział w europejskich projektach sieciowych i gridowych (do r. 2008) PIONIER, CrossGrid (koordynowany przez ACK Cyfronet AGH) i EGEE odegrały bardzo istotną rolę w rozwoju polskiej infrastruktury dla gridu komputerowegodla e-nauki Michal Turala
10 Główne cele projektu CrossGrid ( ) Ustanowić europejski Grid włączając w infrastrukturę nowe kraje Umożliwić wykorzystanie Gridu dla aplikacji interaktywnych człowiek w pętli obliczeniowej Umożliwić aplikacje równoległe z wykorzystaniem MPI Demonstracja przydatność Gridu dla kilku ważnych zastosowań Biomedycznych (symulacja krążenia krwi) Wspomaganie przewidywań powodzi Sieci neuronowe dla fizyki cząstek Warunki meteorologiczne i skażenia powietrza M. Turala
11 Gridowe klastry PC ( testbeds ) CrossGrid M. Turala Klastry gridowe testbeds w 11 krajach 16 klastrów, z kilkuset PCs, połączone w jeden system Trzy rodzaje klastów (testowe, produkcyjne, badawcze) Polączenia poprzez sieci narodowe i GEANT Ten system dawał podstawy do dołączenia do projektu EGEE i do wykorzystania Grid u dla różnych aplikacji: fizyki cząstek, chemii, biomedicyny
12 Ośrodki uczestniczące w światowej prototypowej sieci LCG ( ) We wrześniu 2003 ACK Cyfronet był pomiędzy pierwszymi 14 ośrodkami, z trzech kontynentów, które stworzyły prototyp wspólnej światowej sieci komputerowej dla fizyki around the world around the clock Michal Turala 12
13 Projekt Enabling Grid for E-SciencE ACK Cyfronet AGH uczestniczył w tym projekcie w latach i pełnił role Regionalnego Centrum Koordynującego na kraje Europy Środkowo-Wschodniej Michal Turala z prezentacji I. Birda 13
14 ACK Cyfronet AGH koordynatorem Regionalnego Centrum Operacyjnego (ROC) EGEE Coordinated by Poland Polska była również członkiem projektów BalticGrid, w których uczestniczyły kraje Europy Północno-Wschodniej, Białoruś, Estonia, Litwa, Łotwa i Szwecja Michal Turala 14
15 LCG Monitorowanie pracy centrów komputerowych w czasie rzeczywistym ICM Warsaw PCSS Poznan ACK Cyfronet AGH i IFJ PAN Krakow RTM stan z 26 paźdz. 08. Michal Turala 15
16 Krakowskie Warsztaty Gridowe od GW01 do CGW10
17 Polski udział w europejskich projektach gridowych i sieciowych (do r. 2008) GEANT GEANT2 European e- Infrastructure EGI National Grid Initiative PL-Grid M. Turala
18 PL-GRID i EGI
19 Początkowa działalność PL-Grid Utworzenie Konsorcjum Polskiego Gridu (PL-Grid) Porozumienie podpisane w styczniu 2007 Akademickie Centrum Komputerowe CYFRONET AGH w Krakowie (ACK CYFRONET AGH) koordynator Programu PL-Grid Poznańskie Centrum Superkomputerowo-Sieciowe w Poznaniu (PCSS) Wrocławskie Centrum Sieciowo - Superkomputerowe we Wrocławiu (WCSS) Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej w Gdańsku (TASK) Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego w Warszawie (ICM) Konsorcjum utworzone z pięciu największych polskich centrów superkomputerowo-sieciowych (założyciele) GEANT2 Projekt PL-Grid w ramach programu Innowacyjnej Gospodarki ( )
20 Struktura PL-Grid Dziedzinowe systemy gridowe mogą być rozwijane i utrzymywane w ramach odrębnych projektów. Takie podejście powinno umożliwić efektywne wykorzystanie dostępnych środków finansowych. Zaawansowane Platformy Usługowe Aplikacja Aplikacja Aplikacja Aplikacja Grid Dziedzi nowy Grid Dziedzi nowy Grid Dziedzi nowy Grid Dziedzi nowy Infrastruktura gridowa (usługi gridowe) PL-Grid Klastry Komputery dużej mocy Repozytoria danych Krajowa sieć komputerowa PIONIER
21 Struktura PL-Grid Infrastruktura PL-Grid będzie bazą dla Gridów dziedzinowych, obejmujących usługi i narzędzia zorientowane na specyficzne typy aplikacji Użytkownicy Warstwa dostępowa/ tworzenia aplikacji Portale gridowe, narzędzia programistyczne Usługi gridowe System Wirtualnych organizacji i bezpieczeństwa LCG/gLite (EGEE) UNICORE (DEISA) Inne systemy gridowe Podstawowe usługi gridowe Zasoby gridowe Rozproszone repozytoria danych Krajowa sieć komputerowa Rozproszone zasoby obliczeniowe
22 Struktura PL-Grid Projekt PL-Grid jest podzielony na kilka zadań wg. J. Kitowskiego, ACK Cyfronet AGH Główne wskaźniki projektu: Moc obliczeniowa: 215 Tflops Pamięć dyskowa: 2500 TB
23 Oferta Sprzętowa Projektu PL-Grid ACK Cyfronet AGH (dane z czerwca 2010) ponad 5000 rdzeni dostępnych dla użytkowników (ok. 55 TFLOPs) Ponad 300 TB pamięci masowych Klaster Zeus najmocniejszym komputerem w Polsce (Top500 miejsce 161, czerwiec 2010) Projekt PL-Grid docelowo: Moc obliczeniowa: ok. 215 TFLOPs Ponad 2500 TB pamięci masowych Infrastruktura niezbędna do utrzymania zasobów w stanie produkcyjnym 7 dni w tygodniu Efektywna klimatyzacja zasobów System zabezpieczeń na wypadek awarii zasilania 23
24 Zasoby obliczeniowe PL-Grid lista Top500 z listopada 2010 Rank Site System Cores R max (TFlops) R peak (TFlops) Cyfronet AGH Krakow Gdansk University of Technology, CI Task PCSS Poznan 373 WCSS Wrocław Cluster Platform 3000 BL2x220, L56xx, 2.26 GHz, Infiniband / 2010 Hewlett-Packard ACTION Cluster Xeon E5345 Infiniband / 2008 ACTION Cluster Platform 3000 BL 2x220, E GHz, Infiniband GDR / 2010 Hewlett-Packard Cluster Platform 3000 BL2x220, L56xx, 2.26 GHz, Infiniband / 2010 Hewlett-Packard Klaster gridowy ZEUS w ACK Cyfronet AGH Michal Turala 24
25 Oferta PL-Grid cd. Zestaw zaawansowanych narzędzi do organizacji eksperymentów obliczeniowych Pomoc w zrozumieniu zagadnień związanych z uruchamianiem aplikacji naukowych na rozległych zasobach obliczeniowych Wsparcie technologiczne i informatyczne przy projektowaniu własnych aplikacji naukowych i ich wdrażaniu na infrastrukturze PL-Grid Helpdesk wygodny system zgłaszania problemów i zapytań System zarządzania grantami obliczeniowymi (wkrótce) 25 wg. M. Sterzela, ACK Cyfronet AGH październik 2010
26 Wykorzystanie zasobów PL-Grid Użytkownicy (stan na ) Użytkownik = osoba mająca dostęp do zasobów zarejestrowanych użytkowników: wg. M. Radeckiego, ACK Cyfronet AGH
27 Jak zostać użytkownikiem PL-Grid Każda osoba prowadząca działalność naukową, związana z jednostką naukową w rozumieniu ustawy z dnia 8 października 2004r. o zasadach finansowania nauki. Współpracownicy osoby prowadzącej działalność naukową (doktoranci, studenci, współpracownicy zagraniczni) Jak się zarejestrować? Procedura w pełni on-line System rejestracji i zarzadzania kontem użytkownika PL-Grid Wymagany aktualny, własny wpis w bazie Ludzie Nauki OPI bądź wpis opiekuna naukowego Weryfikacja zgłoszenia przez stronę internetową jednostki bądź telefonicznie Źródło: Tomasz Szepieniec, Marcin Radecki 27
28 Zapraszamy do rejestracji na: Uwagi i pytania prosimy kierować na: Uwagi i pytania prosimy kierować na: helpdesk@plgrid.pl 28
29 Europejska Inicjatywa Gridowa EGI Michal Turala z prezentacji D. Kranzlmuellera 29
30 Europejska Projekt Enabling Inicjatywa Grid Gridowa for E-SciencE EGI Grid europejski (EGEE) był utrzymywany dzięki projektom europejskim; 38 europejskich Gridów Narodowych (NGI) wyraziło zainteresowanie udziałem w Europejskiej Inicjatywie Gridowej (EGI); zainteresowane są kraje Azji i obydwu Ameryk Michal Turala z prezentacji D. Kranzlmuellera 30
31 Europejska Inicjatywa Gridowa EGI.eu - organizacja lutego 2010 ustanowiono fundację ( stichting ) EGI.eu z siedzibą w Amsterdamie Rada EGI.eu, pod przewodnictwem P. Öster a (1), wybrała Zarząd Na stanowisku dyrektora EGI.eu został zatrudniony S. Newhouse (2) Michal Turala 31 1
32 Forum Użytkowników EGI Wilno, kwietnia
33 Światowy GRID komputerowy LHC
34 CERN - eksperymenty LHC ATLAS Uczestnik projektu (dla ustalenia skali ) CMS LHCb ALICE
35 Eksperyment ATLAS Ludzie! Stan we wrześniu 2005 W listopadzie 2006 prąd w magnesach osiągnął nominalną wartość 20.5 ka za pierwsza próbą Michał Turała 35
36 Eksperymenty LHC w CERN Problem doświadczalny Poszukiwanie bardzo rzadkich a złożonych zjawisk prawdopodobieństwo ich pojawienia się jest na poziomie wszystkich oddziaływań (jeden ciekawy przypadek na 10 miliardów trywialnych zdarzeń!) -> poszukiwanie igły na ogromnym polu siana oddziaływania protonów, które są obiektami złożonymi, dają przy wysokich energiach skomplikowane obrazy oddziaływań -> analiza jest trudna Michal Turala 36
37 Preselekcja danych w czasie rzeczywistym Wiele różnych procesów fizycznych - kilka poziomów filtracji - wysoka wydajność dla ciekawych przypadków - całkowity współczynnik redukcji około 3x10 5 (10 6 ) Ograniczenie ze względu na koszt dysków i taśm - rocznie PB y informacji 37
38 Komputing LHC Strumień danych z oddziaływań p-p Typowe parametry Nominalna częstość zderzeń Częstość rejestracji Rozmiar przypadku Czas naświetlania Objętość surowych danych Dane Monte Carlo - 40 x 10 6 przyp./s ~ 150 przypadków/s ~ 1.5 M Byte ów/przypadek ~ 10 7 s/ rok (~ 4 miesiące w roku) ~ 2 Peta Byte y/rok/eksperyment ~ 2 Peta Byte/rok/eksperyment W ciągu roku jeden eksperyment będzie zapisywał ilość informacji odpowiadającą ok. miliardowi fotografii lub kilkudziesięciu milionom książek! Potrzebne na to byłoby ok. 1 miliona dyskietek CD ułożone obok siebie na półkach zajęły by ok m! Michał Turała
39 Pierwotny, wielo-stopniowy model analizy danych Na podstawie modelu projektu MONARC (Models of Networked Analysis at Regional Centres for LHC Experiments) lata XX w. Wielkim problemem była dystrybucja danych koszt sieci komputerowych był b. wysoki
40 Rozwój projektów Grid owych Michal Turala 40
41 Nowy model komputingu LHC ( cloud ) W r został zaproponowany i przyjęty w CERN projekt LHC Uni ComputingGrid(LCG) x Lab m mający na celu demonstrację realizacji tej USA Lab x Lab a Brookhaven koncepcji w dużej skali USA po kilku UK latach ten FermiLab projekt Tier3 wykazał iż Grid LHC jest możliwy France The LHC Physics Tier 1 Computing CERN Tier2 Department Facility Italy Tier0 Tier1 Desktop Porozumienie o budowie Worldwide LHC NL Germany γ ComputingGrid, Lab b uwzględniające wkład Lab c β Uni y α Uni b Uni n poszczególnych krajów, zostało opracowane i podpisane przez prawie wszystkie kraje uczestniczące w programie LHC
42 Ilości danych (do rejestracji i analizy) Rate [Hz] RAW [MB] ESD Reco [MB] AOD [kb] Monte Carlo [MB/evt] Monte Carlo % of real ALICE HI ALICE pp ATLAS CMS Dla obliczeń LHC potrzeba ok. 100M SpecInt2000 co LHCb oznacza ok. 100 tys. procesorów 3GHz Pentium 4! 50 days running in seconds/year pp from 2008 on ~10 9 events/experiment 10 6 seconds/year heavy ion Dla rejestracji danych potrzeba na rok ok. 20 Peta Bytów pamięci, czyli ok. 100 tys. dysków 200 GB! Michał Turała 42
43 Komputing LHC organizacja Gridu komputerowego LCG W tym polski rozproszony Tier2 (Kraków-Poznań-Warszawa)
44 Komputing LHC podział funkcji pomiędzy poszczególne ośrodki Tier Michal Turala 44
45 Połączenie polskiego Tier2 ze Światowym Gridem LHC (WLCG) Michal Turala 45
46 Worldwide LHC Computing Grid produkcja
47 Komputing LHC dostępność i wydajność polskiego Tier2 LCG Polska podpisała porozumienie (Memorandum of Understanding) o udziale w projekcie WLCG jako rozproszony Tier2, w skład którego wchodzą centra komputerowe Krakowa (ACK Cyfronet AGH), Poznania (PSNC) i Warszawy (ICM), Zgodnie z tym porozumieniem Polska winna udostępnić eksperymentom LHC w r około 1300 procesorów i około 120 TB przestrzeni dyskowej; w roku 2009 te ilości winny zostać znacznie zwiększone. Praca poszczególnych ośrodków jest monitorowana; zestawienie dostępności i wydajności za wrzesień 2008: Reliability Availability Oct.07 Nov.07 Dec.07 Michal Turala 47
48 Perspektywy rozwoju Gridu LHC w tym i polskiego Tier2 Tier1 Tier2 Poland For ATLAS Disk/CPU=44% For ATLAS Disk/CPU=27% Michal Turala
49 Computing infrastructure and operation ATLAS wlcg world-wide computing: ~ 70 sites (including CERN Tier-0, 10 Tier-1s, ~ 40 Tier-2 federations) WLCG 49
50 MB/s per day Worldwide data distribution and analysis Total throughput of ATLAS data through the Grid: 1 st January yesterday 6 GB/s Jan Feb March April May 2009 data reprocessing Start of 7 TeV data-taking Data and MC reprocessing June July p/bunch operation Aug multi-bunch operation Sep O c t bunch trains ~2 GB/s (design) Peaks of 10 GB/s achieved Grid-based analysis in Summer 2010: > 1000 different users; > 15M analysis jobs The excellent Grid performance has been crucial for fast release of physics results. E.g.: ICHEP: the full data sample taken until Monday was shown at the conference on Friday 50
51 51
52 First resonances popped up after a few days of collisions in November 2009 K 0 s π + π - Λ pπ - π 0 γγ η γγ 52
53 Nowe wyniki ATLAS (Pb-Pb)... CERN press realase, 26 November 2010:.the first direct observation of a phenomenon known as jet quenching has been made by both the ATLAS and CMS collaborations. This result is reported in a paper from the ATLAS collaboration accepted for publication yesterday in the scientific journal Physical Review Letters Michał Turała 53
54 Perspektywy
55 GAUSSIAN w Gridzie GAUSSIAN w Gridzie Gaussian VO - utworzona i wspierana przez 2 Partnerów (działalność EGEE ) Zaakceptowane przez dostawcę oprogramowania Rejestracja: Kierownik VO: Mariusz Sterzel (CYFRONET), koordynator ds.chemii Obliczeniowej (EGEE II) m.sterzel@cyfronet.pl t.szepieniec@cyfronet.pl
56 Chemia kwantowa Oferujemy dostęp do komercyjnych i darmowych pakietów oprogramowania: Turbomole, ADF, Gaussian, GAMESS i inne 56
57 Never Born Protein Folding 4. Visualize 2. Transfer application AABTDDSAD User Interface Portal 1. Submit sequence Prof. Irena Roterman (CM UJ) i projekt EUChinagrid Storage Element PDB Store protein Computing Element Euchina Virtual Organization (EGEE) t.szepieniec@cyfronet.pl
58 Biologia i pokrewne Dostępne pakiety Gromacs, NAMD, AutoDOCK oraz AMBER (wkrótce). Możliwość instalacji własnych pakietów użytkowników. Podziękowania: Jacek Czub, Anna Neumann, PG 58
59 Chmury komputerowe (Cloud computing) H. Pałka na CGW10
60 Cracow Cloud 1 H. Pałka/ M. Witek IFJ PAN
61 Do rozwoju polskiego Gridu dla nauki przyczynili się w zasadniczym stopniu:.. z CERN: I.Bird, F.Gagliardi, R.Jones, L.Robertson, W.von Rueden i wielu innych.. z Europy: D.Kranzlmueller (GUP Linz), J.Marco (CSIC Santander), P.Sloot (UvA Amsterdam), W.Gentzsch (D-Grid), H.Martin i K-P.Mickel (FZK Karlsruhe), J.Gomez (LIP Lisbon) i wielu innych. z Polski: R.Gokieli (IPJ), M. Niezgódka (ICM), N.Meyer (PCSS), J. Nabrzyski (PCSS), K.Nawrocki (ICM), J. Węglarz (PCSS), W.Wiślicki (ICM) i wielu innych.. z Krakowa: M.Bubak (ACK), J.Kitowski (ACK), K.Korcyl (IFJ), A.Kusznir (ACK), P.Lasoń (ACK), P.Malecki (IFJ), Z.Mosurska (ACK), J.Niwicki (ACK), M.Noga (ACK), P.Nyczyk (ACK), A.Olszewski (IFJ), A.Oziebło (ACK), H.Pałka (IFJ), M.Radecki (ACK), M.Sterzel (ACK), T.Szepieniec (ACK), T.Szymocha (IFJ), M.T. (IFJ), K.Wiatr (ACK), M.Witek (IFJ) i wielu innych Michał Turała 61
62 Dziękuję za uwagę Michał Turała 62
Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków
Światowy Grid komputerowy LHC Michał Turała IFJ PAN/ ACK Cyfronet AGH, Kraków 2009-01-13 1 CERN - eksperymenty LHC ATLAS Uczestnik projektu (dla ustalenia skali ) CMS LHCb ALICE Eksperyment ATLAS Ludzie!
Bardziej szczegółowoPLGrid: informatyczne usługi i narzędzia wsparcia w nauce
PLGrid: informatyczne usługi i narzędzia wsparcia w nauce Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Wydział Rolniczo-Ekonomiczny, UR Kraków 19.01.2015 Plan prezentacji Infrastruktura PLGrid Oferta
Bardziej szczegółowoInfrastruktura PLGrid dla młodych naukowców
Infrastruktura PLGrid dla młodych naukowców Mariola Czuchry ACK Cyfronet AGH Koło Naukowe Geodetów Dahlta, AGH, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura PLGrid PLGrid to Struktura
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek, Mariusz Sterzel ACK Cyfronet AGH Katedra Katedra Fizykochemii i Modelowania Procesów WIMiC, AGH,
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Wydział Fizyki, Astronomii i Informatyki Stosowanej, Kraków 2015 Agenda ACK Cyfronet
Bardziej szczegółowoInfrastruktura PLGrid (nie tylko) dla młodych naukowców
Infrastruktura PLGrid (nie tylko) dla młodych naukowców Mariola Czuchry, Mariusz Sterzel ACK Cyfronet AGH Wydział Mechaniczny, PK, Kraków 16 XI 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Robotyki i Mechatroniki, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych w służbie nauki Maciej Czuchry, Mariola Czuchry ACK Cyfronet AGH Katedra Biochemii i Neurobiologii, Kraków 2015 Agenda ACK Cyfronet AGH główne kompetencje
Bardziej szczegółowoInfrastruktura PLGrid dla młodych polskich naukowców
Infrastruktura PLGrid dla młodych polskich naukowców Mariola Czuchry ACK Cyfronet AGH WFiIS, AGH, Kraków 5 X 2015 Agenda ACK Cyfronet AGH Infrastruktura PLGrid Charakterystyka Struktura Oferta Dostęp do
Bardziej szczegółowoInfrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki
Infrastruktura PLGrid Nowa jakość usług informatycznych dla Polskiej Nauki Maciej Czuchry, Klemens Noga ACK Cyfronet AGH Seminarium Katedry Informatyki Stosowanej, AGH, Kraków 2015 Agenda ACK Cyfronet
Bardziej szczegółowoZasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego
Zasoby i usługi Wrocławskiego Centrum Sieciowo-Superkomputerowego Mateusz Tykierko WCSS 20 stycznia 2012 Mateusz Tykierko (WCSS) 20 stycznia 2012 1 / 16 Supernova moc obliczeniowa: 67,54 TFLOPS liczba
Bardziej szczegółowoWrocławskie Centrum Sieciowo-Superkomputerowe
Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 26 czerwca 2012 Mateusz Tykierko (WCSS) 26 czerwca 2012 1 / 23 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca
Bardziej szczegółowoUsługi HEP w PLGrid. Andrzej Olszewski
Usługi HEP w PLGrid Andrzej Olszewski Konsorcjum PLGrid 2 ACK CYFRONET AGH - Akademickie Centrum Komputerowe CYFRONET AGH w Krakowie ICM UW - Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego
Bardziej szczegółowoPolityka wspierania prac naukowych i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce
i wdrożeniowych w obszarze informatyki jako element budowy społeczeństwa informacyjnego w Polsce Kazimierz Wiatr Światowy Zjazd Inżynierów Polskich Warszawa Politechnika Warszawska 8 września 2010 r. Kazimierz
Bardziej szczegółowoInfrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce. Mariola Czuchry, Klemens Noga, Katarzyna Zaczek. ACK Cyfronet AGH
Infrastruktura PLGrid: narzędzia wsparcia w nauce i dydaktyce Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Metalurgii Stopów Żelaza, Kraków 2015 Plan prezentacji
Bardziej szczegółowoInfrastruktura PLGrid
Infrastruktura PLGrid Andrzej Zemła ACK Cyfronet AGH Konferencja Użytkowników Komputerów Dużej Mocy Zakopane 2019 Zakopane, 2019.03.07 Infrastruktura PLGrid Polska Infrastruktura Informatycznego Wspomagania
Bardziej szczegółowoInfrastruktura gridowa
Infrastruktura gridowa Zadaniem ogólnopolskiej infrastruktury gridowej jest wspieranie badań naukowych w sposób umożliwiający integrację danych doświadczalnych i wyników zaawansowanych symulacji komputerowych.
Bardziej szczegółowoInfrastruktura PL-Grid wsparciem dla naukowców
Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid
Bardziej szczegółowoHigh Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009
High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych
Bardziej szczegółowoUSŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM. Juliusz Pukacki,PCSS
USŁUGI HIGH PERFORMANCE COMPUTING (HPC) DLA FIRM Juliusz Pukacki,PCSS Co to jest HPC (High Preformance Computing)? Agregowanie dużych zasobów obliczeniowych w sposób umożliwiający wykonywanie obliczeń
Bardziej szczegółowoInfrastruktura PL-Grid wsparciem dla naukowców
Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 1 Plan prezentacji 2 Infrastruktura PL-Grid Zasoby i usługi oferowane przez PL-Grid
Bardziej szczegółowoCyfronet w CTA. Andrzej Oziębło DKDM
Cyfronet w CTA Andrzej Oziębło DKDM ACK CYFRONET AGH Akademickie Centrum Komputerowe CYFRONET Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie ul. Nawojki 11 30-950 Kraków 61 tel. centrali:
Bardziej szczegółowoKlaster obliczeniowy
Warsztaty promocyjne Usług kampusowych PLATON U3 Klaster obliczeniowy czerwiec 2012 Przemysław Trzeciak Centrum Komputerowe Politechniki Łódzkiej Agenda (czas: 20min) 1) Infrastruktura sprzętowa wykorzystana
Bardziej szczegółowoJacek Kitowski i Łukasz Dutka ACK CYFRONET AGH, Kraków, Polska
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Aktualne postępy i osiągnięcia Polskiej Inicjatywy Gridowej w ramach Projektu PL-Grid Jacek Kitowski i Łukasz
Bardziej szczegółowoPrace informatyczne dla projektu CTA
Prace informatyczne dla projektu CTA Anna Barnacka Centrum Astronomiczne im. Mikołaja Kopernika Tomasz Szepieniec, Joanna Kocot, Mariusz Sterzel, Tomasz Twaróg, Piotr Wójcik, Tomasz Grabarczyk, Rafał Niester,
Bardziej szczegółowoWydział Fizyki AGH" Kraków, 11 grudnia 2009"
Wydział Fizyki AGH" Kraków, 11 grudnia 2009" Co to jest grid?! Enabling Grids for E-scienceE! Europejska Inicjatywa Gridowa (EGI)! Czym jest projekt PL-Grid! idea i struktura PL-Grid" dostępne i planowane
Bardziej szczegółowoPiotr Dziubecki Piotr Grabowski, Tomasz Kuczyński Tomasz Piontek, Dawid Szejnfeld, PCSS
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Wprowadzenie do użytkowaania infrastruktury PL-Grid Dedykowane rozwiązania portalowe i usługi PL-Grid dla nanotechnologii
Bardziej szczegółowoInfrastruktura PLGrid Usługi dla chemii obliczeniowej
Infrastruktura PLGrid Usługi dla chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 15 maj 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura
Bardziej szczegółowoRównoległe aplikacje duŝej skali w środowisku PL-Grid. Kick-off PL-GRID Kraków, 16-17 kwietnia 2009
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Równoległe aplikacje duŝej skali w środowisku PL-Grid Tomasz Piontek, Krzysztof Kurowski, Piotr Kopta, Mariusz
Bardziej szczegółowoGRID - globalny system przetwarzania danych
GRID - globalny system przetwarzania danych Dlaczego GRID? Jak jest zbudowany, zorganizowany i jak działa Międzynarodowe i krajowe inicjatywy gridowe Zastosowania Trudne do pogodzenia sprzeczności interesów
Bardziej szczegółowoUslugi chmurowe dla nauki na podstawie BonFIRE
Building service testbeds on FIRE Uslugi chmurowe dla nauki na podstawie BonFIRE Michał Giertych, Bartosz Belter PCSS Agenda Platforma chmurowa BonFIRE Konkursy na nowe pomysły Open Calls Dostęp dla każdego
Bardziej szczegółowo"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1
"System CC1 jak zbudować prywatną chmurę obliczeniową w jedno popołudnie. M. Witek, M. Zdybał w imieniu CC1 Tło Jednolity dostęp do informacji, bez względu na miejsce na Ziemi. WWW Tło Jednolity dostęp
Bardziej szczegółowoJak znaleźć igłę w stogu siana
Jak znaleźć igłę w stogu siana Rola obliczeń komputerowych w eksperymentach fizyki wysokich energii Piotr Golonka CERN EN/ICE-SCD Plan Co jest igłą a co stogiem siana... między teorią a doświadczeniem
Bardziej szczegółowoEfektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej
Efektywne wykorzystanie zasobów PLGrid w chemii obliczeniowej Klemens Noga ACK Cyfronet AGH Wydział Chemii Uniwersytetu Jagiellońskiego, Kraków 23 X 2015 Agenda ACK Cyfronet AGH główne kompetencje Infrastruktura
Bardziej szczegółowoSieć PIONIER i sieci miejskie Warsztaty
Sieć PIONIER i sieci miejskie Warsztaty Usługa powszechnej archiwizacji Marek Bazyly, PCSS Zbigniew Sender PŚk Historia powstania Konsorcjum PIONIER (1) 1991 Naukowa Akademicka Sied Komputerowa Organizacja
Bardziej szczegółowoSkalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych
1 Skalowalna Platforma dla eksperymentów dużej skali typu Data Farming z wykorzystaniem środowisk organizacyjnie rozproszonych D. Król, Ł. Dutka, J. Kitowski ACC Cyfronet AGH Plan prezentacji 2 O nas Wprowadzenie
Bardziej szczegółowoWprowadzenie do użytkowania infrastruktury PL Grid. Bartosz Bosak Piotr Kopta Tomasz Piontek
Wprowadzenie do użytkowania infrastruktury PL Grid Bartosz Bosak Piotr Kopta Tomasz Piontek Agenda WSTĘP (PL-GRID) Konsorcjum PL-Grid Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej
Bardziej szczegółowoGRIDY OBLICZENIOWE. Piotr Majkowski
GRIDY OBLICZENIOWE Piotr Majkowski Wstęp Podział komputerów Co to jest grid? Różne sposoby patrzenia na grid Jak zmierzyć moc? Troszkę dokładniej o gridach Projekt EGEE Klasyfikacja Flynn a (1972) Instrukcje
Bardziej szczegółowoKomputery Dużej Mocy w Cyfronecie. Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś
Komputery Dużej Mocy w Cyfronecie Andrzej Oziębło Patryk Lasoń, Łukasz Flis, Marek Magryś Administratorzy KDM Baribal, Mars, Panda, Platon U3: Stefan Świąć Piotr Wyrostek Zeus: Łukasz Flis Patryk Lasoń
Bardziej szczegółowoUsługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych. Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński
Usługi przechowywania danych KMD/PLATON-U4 dla bibliotek cyfrowych Maciej Brzeźniak, Norbert Meyer, Rafał Mikołajczak, Maciej Stroiński PLATON-U4 Plan prezentacji KMD/PLATON-U4: Motywacje, cel, założenia
Bardziej szczegółowoInfrastruktura PL-Grid wsparciem dla naukowców
Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Energoelektroniki i Automatyki Systemów Przetwarzania Energii, Kraków
Bardziej szczegółowoLaboratorium Chmur obliczeniowych. Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz
Laboratorium Chmur obliczeniowych Paweł Świątek, Łukasz Falas, Patryk Schauer, Radosław Adamkiewicz Agenda SANTOS Lab laboratorium badawcze Zagadnienia badawcze Infrastruktura SANTOS Lab Zasoby laboratorium
Bardziej szczegółowoLaboratorium Wirtualne
Obliczenia wielkiej skali i wizualizacja do zastosowań w wirtualnym laboratorium z użyciem klastra SGI Laboratorium Wirtualne Instytut Chemii Bioorganicznej PAN Poznańskie Centrum Superkomputerowo Sieciowe
Bardziej szczegółowoNowe aplikacje i usługi w środowisku Grid
Nowe aplikacje i usługi w środowisku Grid Wstęp Pojęcie GRID Aplikacje/Usługi Laboratorium Wirtualne Krajowy Magazyn Danych Zastosowanie Skala i zasięg Użytkownik końcowy Uwarunkowania ekonomiczne Laboratorium
Bardziej szczegółowoJak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej?
1 Jak wykorzystać Wirtualne Laboratorium Cyfronetu w pracy naukowej? Klemens Noga ACK Cyfronet AGH Kraków, 8 VI 2013 Plan prezentacji 2! Czym jest ACK Cyfronet AGH! Dostępne zasoby! Narzędzia ułatwiające
Bardziej szczegółowoInfrastruktura informatyczna dla nauki w Polsce
Infrastruktura informatyczna dla nauki w Polsce Kazimierz Wiatr KRASP, 16 listopada 2018 Struktura infrastruktury informatycznej dla nauki w Polsce Infrastruktura ogólnopolska Sieć komputerowa PIONIER
Bardziej szczegółowoSterowany jakością dostęp do usług składowania danych dla e-nauki
Sterowany jakością dostęp do usług składowania danych dla e-nauki Renata Słota 1,2, Darin Nikolow 1,2, Marek Pogoda 1, Stanisław Polak 2 and Jacek Kitowski 1,2 1 Akademickie Centrum Komputerowe Cyfronet
Bardziej szczegółowoInfrastruktura PL-Grid wsparciem dla naukowców
Infrastruktura PL-Grid wsparciem dla naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków 2014 Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid
Bardziej szczegółowoStanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki
Stanisław Rejowski Dyrektor Działu Produkcji Serwerów ACTION S.A. Polskie serwery w służbie nauki Kompleksowa oferta. Doświadczenie w budowie gotowych rozwiązań. ACTION S.A. uznany producent 4-te miejsce
Bardziej szczegółowoTechnologie taśmowe wprowadzenie i zastosowania. Jacek Herold, WCSS
Technologie taśmowe wprowadzenie i zastosowania Jacek Herold, WCSS Agenda Wprowadzenie Podstawowe cechy usługi Dostępne metody dostępowe Certyfikaty Kto może korzystać z usługi? Jak uzyskać konto? Agenda
Bardziej szczegółowoRozwój bibliotek cyfrowych w Polsce. Cezary Mazurek Tomasz Parkoła Marcin Werla
Rozwój bibliotek cyfrowych w Polsce Cezary Mazurek Tomasz Parkoła Marcin Werla Poznańskie Centrum Superkomputerowo-Sieciowe Założone w 1993 roku Afiliowane przy Instytucie Chemii Bioorganicznej PAN Obecnie
Bardziej szczegółowoWitamy w CERN. 2014-02-24 Marek Kowalski
Witamy w CERN Co to jest CERN? CERN European Organization for Nuclear Research oryg. fr Conseil Europeén pour la Recherche Nucléaire Słowo nuclear (Jadrowy) czysto historyczne. W czasie, gdy zakładano
Bardziej szczegółowoArchitektura komputerów
Architektura komputerów Wykład 13 Jan Kazimirski 1 KOMPUTERY RÓWNOLEGŁE 2 Klasyfikacja systemów komputerowych SISD Single Instruction, Single Data stream SIMD Single Instruction, Multiple Data stream MISD
Bardziej szczegółowoIMP PAN. Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET. Dolina Lotnicza
Zaplecze obliczeniowe Centrum Zaawansowanych Technologii AERONET Dolina Lotnicza Aero-PlAN 1 Koszty i plan realizacji Program dwuletni Hardware: budowa i uruchomienie 1 rok Platforma i procesory 2,4 mln
Bardziej szczegółowoPrezentacja wstępna. Warsztaty Usługa powszechnej archiwizacji. Norbert Meyer, PCSS
Prezentacja wstępna Warsztaty Usługa powszechnej archiwizacji Norbert Meyer, PCSS PLATON-U4 Plan prezentacji Projekt PLATON 5 usług wspólnych Usługa powszechnej archiwizacji (U4) Cechy Krajowego Magazynu
Bardziej szczegółowoi IFJ PAN w Krakowie S. Gadomski, "CERN i komputery",
CERN i komputery dr hab. Szymon Gadomski Uniwersytet Genewski i IFJ PAN w Krakowie S. Gadomski, "CERN i komputery", 22.05.2007 1 Komputery w CERN - WWW i GRID 1. Historia WWW (wynalazek CERN) na czym polegał
Bardziej szczegółowoNazwa jednostki Temat pracy (w języku polskim i angielskim) Rodzaj pracy Ilość osób realizujących pracę
Marian Bubak (konsultant: Piotr Nowakowski) Zarządzanie wiarygodnością i integralnością danych w federacji zasobów cloudowych Managing data reliability and integrity in federated cloud storage Magisterska
Bardziej szczegółowoUsługi i narzędzia QCG
Usługi i narzędzia QCG wygodny dostęp dla użytkowników do infrastruktury komputerów dużej mocy Tomasz Piontek, Bartosz Bosak, Piotr Kopta, Maciej Tronowski, Krzysztof Kurowski Poznańskie Centrum Superkomputerowo
Bardziej szczegółowoAkademickie Centrum Komputerowe
Akademickie Centrum Komputerowe Cyfronet AGH - jednostka wspierająca polskich naukowców Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Kraków, 28 X 2014 1 Plan prezentacji 2 Czym jest
Bardziej szczegółowoZamawianie usługi. Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS. Warsztaty. Usługa powszechnej archiwizacji
Zamawianie usługi Warsztaty Usługa powszechnej archiwizacji Bartłomiej Balcerek, WCSS Maciej Brzeźniak, PCSS PLATON-U4 Plan prezentacji Użytkownicy: Kto może skorzystad z usługi Co można otrzymad Gdzie
Bardziej szczegółowoth- Zakład Zastosowań Metod Obliczeniowych (ZZMO)
Zakład Zastosowań Metod Obliczeniowych (ZZMO) - prof. dr hab. Wiesław Płaczek - prof. dr hab. Elżbieta Richter-Wąs - prof. dr hab. Wojciech Słomiński - prof. dr hab. Jerzy Szwed (Kierownik Zakładu) - dr
Bardziej szczegółowoProgram Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW)
Program Obliczeń Wielkich Wyzwań Nauki i Techniki (POWIEW) Maciej Cytowski, Maciej Filocha, Maciej E. Marchwiany, Maciej Szpindler Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego
Bardziej szczegółowoDziałanie 2.3: Inwestycje związane z rozwojem infrastruktury informatycznej nauki
Program Obliczeń Wielkich Wyzwań Nauki i Techniki POWIEW Marek Niezgódka, Maciej Filocha ICM, Uniwersytet Warszawski Konferencja Nauka idzie w biznes, Warszawa, 7.11.2012 1 Informacje ogólne Działanie
Bardziej szczegółowoDyrektor ACK Cyfronet AGH. z dnia 2 października 2017 roku w sprawie zmian organizacyjnych
ACK DN 021 1 18/17 Zarządzenie nr 18/2017 Dyrektora ACK Cyfronet AGH z dnia 2 października 2017 roku w sprawie zmian organizacyjnych Na podstawie 6 ust. 1, 10 ust. 1 oraz 28 ust. 3 Regulaminu Organizacyjnego
Bardziej szczegółowoWsparcie polskich naukowców infrastrukturą informatyczną PLGrid
Wsparcie polskich naukowców infrastrukturą informatyczną PLGrid Maciej Czuchry, Mariola Czuchry, Klemens Noga, Katarzyna Zaczek ACK Cyfronet AGH Seminarium Katedry Automatyki i Inżynierii Biomedycznej,
Bardziej szczegółowoJak znaleźć igłę w stogu siana
Jak znaleźć igłę w stogu siana Rola obliczeń komputerowych w eksperymentach fizyki wysokich energii Krzysztof Korcyl na bazie wykładu Piotra Golonki CERN EN/ICE-SCD Użytkowanie i kopiowanie dozwolone na
Bardziej szczegółowosię także urządzenia do odzyskiwania ciepła, które przy tak dużych maszynach obliczeniowych, zajmują dużo miejsca wyjaśnił Krawentek.
Na Akademii Górniczo-Hutniczej w Krakowie wmurowano w środę kamień węgielny pod nową halę maszyn, która będzie częścią Akademickiego Centrum Komputerowego (ACK) Cyfronet. Koszt inwestycji to 12,2 mln zł,
Bardziej szczegółowoBudowa uniwersalnej architektury dla Laboratorium Wirtualnego
Budowa uniwersalnej architektury dla Laboratorium Wirtualnego Projekt badawczy 4 T11F 010 24 Kierownik projektu: Katarzyna Kulińska Instytut Chemii Bioorganicznej PAN, Agenda Wstęp Koncepcja Laboratorium
Bardziej szczegółowoPL-Grid i PLGrid Plus fundusze unijne wspierają przyspieszenie procesów innowacyjnych w obszarze e-science w Polsce
Dziedzinowo zorientowane usługi i zasoby infrastruktury PL-Grid dla wspomagania Polskiej Nauki w Europejskiej Przestrzeni Badawczej Budowa Polskiej Infrastruktury Gridowej PL-Grid. 30 kwietnia br. zakończył
Bardziej szczegółowoDostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE
Dostęp do europejskich systemów obliczeniowych Tier-0 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2016 W kierunku obliczeń Exaskalowych Mirosław Kupczyk, PCSS 28.06.2016 Misja PRACE HPC Dla Przemysłu Zagwarantowanie
Bardziej szczegółowoNauka i społeczeństwo informacyjne a nauczanie Jana Pawła II
Nauka i społeczeństwo informacyjne a nauczanie Jana Pawła II Tarnowskie Towarzystwo Naukowe 27 października 2009 r. (31 lat i 11 dni po Habemus Papam) Kazimierz Wiatr Akademickie Centrum Komputerowe CYFRONET
Bardziej szczegółowoWirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań
Wirtualizacja Hyper-V: sposoby wykorzystania i najnowsze wyniki badań zespół PCSS/MIC: Jacek Kochan, Jerzy Mikołajczak, Marek Zawadzki 4. Konferencja MIC Nowoczesne technologie bliżej nas Poznań, 04.03.2010
Bardziej szczegółowoNiezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER
Niezawodne usługi outsourcingowe na przykładzie usług kampusowych i Krajowego Magazynu Danych w sieci PIONIER Prof. Roman Wyrzykowski, Politechnika Częstochowska Rafał Mikołajczak, Marek Zawadzki Poznańskie
Bardziej szczegółowoWirtualizacja zasobów IPv6 w projekcie IIP
Wirtualizacja zasobów IPv6 w projekcie IIP Artur Binczewski, Bartosz Gajda, Wiktor Procyk, Robert Szuman Poznańskie Centrum Superkomputerowo Sieciowe Adam Grzech, Jan Kwiatkowski, Krzysztof Chudzik Politechnika
Bardziej szczegółowoWykorzystanie infrastruktury chmurowej i platformy GridSpace w obliczeniach naukowych
1 Wykorzystanie infrastruktury chmurowej i platformy GridSpace w obliczeniach naukowych Daniel Harężlak, Eryk Ciepiela, Jan Meizner i Marian Bubak ACK CYFRONET AGH konferencja i3, Poznań, 16 kwietnia 2013
Bardziej szczegółowoSkładowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego
Składowanie, archiwizacja i obliczenia modelowe dla monitorowania środowiska Morza Bałtyckiego Rafał Tylman 1, Bogusław Śmiech 1, Marcin Wichorowski 2, Jacek Wyrwiński 2 1 CI TASK Politechnika Gdańska,
Bardziej szczegółowoDostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE
Dostęp do europejskich systemów obliczeniowych Tier-0/Tier-1 w ramach PRACE KONFERENCJA UŻYTKOWNIKÓW KDM 2017 Nowe trendy w użytkowaniu KDM Mirosław Kupczyk, PCSS 24.5.2017 Tier-0: komputery klasy Petaflops
Bardziej szczegółowoWykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej
Wykorzystanie platformy GPGPU do prowadzenia obliczeń metodami dynamiki molekularnej 30 maj 2011, Kraków 1 z 22 POWIEW Program Obliczeń Wielkich Wyzwań Nauki i Techniki Celem jest udostepnienie w polskich
Bardziej szczegółowoZakład Eksperymentu ATLAS (NZ14)
Zakład Eksperymentu ATLAS (NZ14) Kierownik Zakładu: dr hab. prof. IFJ PAN Adam Trzupek Zadanie statutowe: Temat 1, zadanie 6: Eksperyment ATLAS na akceleratorze LHC w CERN Badania oddziaływań proton-proton
Bardziej szczegółowoZasady_Funkcjonowania.odt 1.2 Zespół Planowania Strategicznego. Cyfronet, ICM, WCSS, PCSS, TASK,
Z A S A D Y F U N K C J O N O W A N I A I N F R A S T R U K T U R Y P L - G R I D Nazwa pliku dokumentu: Zadanie: Partnerzy: Partner koordynujący: Wersja dokumentu: 0.3 Typ dokumentu: PL-Grid-ZPS_ZF-v0.6.3-Cyfronet-
Bardziej szczegółowoe-infrastruktura: nowe strategie i wyzwania
e-infrastruktura: nowe strategie i wyzwania C. Citko, Politechnika Białostocka S. Starzak, Politechnika Łódzka M. Stroiński, Poznańskie Centrum Superkomputerowo-Sieciowe J. Węglarz, Poznańskie Centrum
Bardziej szczegółowoCzwarte warsztaty Biblioteki cyfrowe dzień 1. Poznań 12 listopada 2007 r.
Czwarte warsztaty Biblioteki cyfrowe dzień 1 Poznań 12 listopada 2007 r. Poznańskie Centrum Superkomputerowo-Sieciowe Założone w 1993 roku Afiliowane przy Instytucie Chemii Bioorganicznej PAN Obecnie 5
Bardziej szczegółowoPlan prezentacji. Infrastruktura PLGrid. Zasoby i usługi oferowane przez PLGrid. Oprogramowanie. Użytkownicy. kto i jak może zostać użytkownikiem
Plan prezentacji 2 Infrastruktura PLGrid Zasoby i usługi oferowane przez PLGrid Oprogramowanie Użytkownicy kto i jak może zostać użytkownikiem rejestracja kont certyfikaty Jak korzystać z usług infrastruktury
Bardziej szczegółowoWspółpraca nauki z przemysłem ICT na przykładzie Wielkopolskiego Centrum Zaawansowanych Technologii Informacyjnych Maciej Stroiński
Współpraca nauki z przemysłem ICT na przykładzie Wielkopolskiego Centrum Zaawansowanych Technologii Informacyjnych Maciej Stroiński stroins@man.poznan.pl Koncepcja WCZTI Wielkopolskie Centrum Zaawansowanych
Bardziej szczegółowo! PL-Grid Idea! ! Projekt PL-Grid! ! Oferta Infrastruktury PL-Grid! ! Użytkownicy i realizowane projekty naukowe! ! Demonstracja!
Polska Infrastruktura Informatycznego Wspomagania Nauki w Europejskiej Przestrzeni Badawczej Plan prezentacji! PL-Grid Przestrze! Badawcza dla e-nauki Mariusz Sterzel ACK Cyfronet AGH e-mail: helpdesk@plgrid.pl!
Bardziej szczegółowoRola polskich bibliotek cyfrowych w zapewnianiu otwartego dostępu
Rola polskich bibliotek cyfrowych w zapewnianiu otwartego dostępu Marcin Werla (mwerla@man.poznan.pl) Poznańskie Centrum Superkomputerowo-Sieciowe, Dział Bibliotek Cyfrowych i Platform Wiedzy Prezentacja
Bardziej szczegółowoPetabajtowe systemy przechowywania danych dla dostawców treści
Petabajtowe systemy przechowywania danych dla dostawców treści Krzysztof Góźdź, HP 2008 Hewlett-Packard Development Company, L.P. The information contained herein is subject to change without notice Rafał
Bardziej szczegółowoPoznańskie Centrum Superkomputerowo-Sieciowe
Poznańskie Centrum Superkomputerowo-Sieciowe Operator infrastruktury sieciowej, 7000+km światłowodów 100Gb/s 80-ty klaster obliczeniowy na liście TOP 500 Operator sieci miejskiej Projekty B+R w zakresie
Bardziej szczegółowoWrocławskie Centrum Sieciowo-Superkomputerowe
Wrocławskie Centrum Sieciowo-Superkomputerowe Mateusz Tykierko WCSS 27 maja 2014 Mateusz Tykierko (WCSS) 27 maja 2014 1 / 17 Wstęp Wrocławskie Centrum Sieciowo-Superkomputerowe Jednostka działająca na
Bardziej szczegółowoPrzetwarzanie danych w chmurze
Materiały dydaktyczne Katedra Inżynierii Komputerowej Przetwarzanie danych w chmurze Modele przetwarzania w chmurze dr inż. Robert Arsoba Robert.Arsoba@weii.tu.koszalin.pl Koszalin 2017 Wersja 1.0 Modele
Bardziej szczegółowoelektronicznych fizyki
O eksperymentach elektronicznych fizyki czastek czyli o elektronicznej generacji, rejestracji i analizie oddziaływań wysokich energii M. Turała Instytut Fizyki Jądrowej PAN, Kraków M. Turała CERN, 1 Kwiecień
Bardziej szczegółowoIT Solutions and Hardware Resources extending the National Grid Infrastructure for Polish Science
IT Solutions and Hardware Resources extending the National Grid Infrastructure for Polish Science J. Kitowski, K. Wiatr, Ł. Dutka, T. Szepieniec, R. Pająk, M. Sterzel ACK Cyfronet AGH KU KDM 2016 17.03.2016
Bardziej szczegółowoPOLITECHNIKA POZNAŃSKA Wydział: BMiZ Kierunek: MiBM / KMiU Prowadzący: dr hab. Tomasz Stręk Przygotował: Adrian Norek Plan prezentacji 1. Wprowadzenie 2. Chłodzenie największego na świecie magnesu w CERN
Bardziej szczegółowoInfrastruktura PL-LAB2020
Infrastruktura 2020 Bartosz Belter (Poznańskie Centrum Superkomputerowo-Sieciowe) Seminarium 2020, Warszawa, 23.03.2017 Rozproszona infrastruktura 2020 Rozproszona infrastruktura 2020 (2) Sieć szkieletowa
Bardziej szczegółowoLista rankingowa/suplement/korekta* Dla projektów o wartości wydatków kwalifikowanych co najmniej 15 mln PLN
Lista rankingowa/suplement/korekta* Dla projektów o wartości wydatków kwalifikowanych co najmniej 15 mln PLN Numer i nazwa działania/poddziałania: Działanie 2.3 Inwestycje związane z rozwojem infrastruktury
Bardziej szczegółowoAkademickie Centrum Komputerowe CYFRONET AGH
Akademickie Centrum Komputerowe CYFRONET AGH Kazimierz Wiatr Dyrektor ACK Cyfronet AGH Kolegium Rektorów Szkół Wyższych Krakowa Kraków, 30 stycznia 2013 Zadania i misja Akademickie Centrum Komputerowe
Bardziej szczegółowoEuropeana Cloud: Wykorzystanie technologii chmurowych do współdzielenia on-line baz danych dziedzictwa kulturowego
Europeana Cloud: Wykorzystanie technologii chmurowych do współdzielenia on-line baz danych dziedzictwa kulturowego Cezary Mazurek, Aleksandra Nowak, Maciej Stroiński, Marcin Werla Poznańskie Centrum Superkomputerowo-Sieciowe
Bardziej szczegółowoArchitektury usług internetowych. Tomasz Boiński Mariusz Matuszek
Architektury usług internetowych 2016 Tomasz Boiński Mariusz Matuszek Organizacja przedmiotu 1. Wykład 2 kolokwia po 25 punktów (23 listopada i 27 stycznia) 2. 6 zadań laboratoryjnych, zadania 1-5 po 8
Bardziej szczegółowoPrzetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER
Przetwarzanie i zabezpieczenie danych w zewnętrznym DATA CENTER Gdańsk, 27-28 września 2012 r. Krzysztof Pytliński Zakład Teleinformatyki Kontekst Data Center jako usługa zewnętrzna, zaspokajająca potrzeby
Bardziej szczegółowodr hab. Szymon Gadomski Uniwersytet Genewski i Instytut Fizyki Jądrowej PAN w Krakowie S. Gadomski, "CERN i komputery", 19.04.
CERN i komputery dr hab. Szymon Gadomski Uniwersytet Genewski i Instytut Fizyki Jądrowej PAN w Krakowie S. Gadomski, "CERN i komputery", 19.04.2007 1 Komputery w CERN - WWW i GRID 1. WWW - najbardziej
Bardziej szczegółowo