High Performance Computing

Wielkość: px
Rozpocząć pokaz od strony:

Download "High Performance Computing"

Transkrypt

1

2 High Performance Computing

3 Dlaczego rynek HPC jest taki ciekawy? Prawdopodobnie w połowie tego dziesięciolecia klastry zdominują rynek wysokowydajnych systemów komputerowych. Dr. Thomas Sterling (ca. 1990) JPL/CalTech 3

4 High Performance Computing? Przetwarzanie, które ustala poziom nieosiągalny wcześniej Przetwarzanie, które może być osiągnięte przez więcej niż pojedynczy procesor, komputer czy serwer. Przetwarzanie wymagające specjalnej optymalizacji do osiągnięcia maksymalnej wydajności, pod względem mocy obliczeniowej. Superkomputery to nie to samo co HPC. HPC zawiera szerokie spektrum systemów nie tylko wielkie maszyny (big-iron). 4

5 Levels of Parallelism - in general ILP: Instruction-Level Parallelism Pipelining Superscalar VLIW and beyond SMP: Symmetric Multi-Processing Real Shared Memory Multi-Threaded Apps M Multiprocessors Distributed Shared Memory Virtual Shared Memory Apps Clusters: Multi-Computer Systems Client-Server, Distributed Apps Virtual Shared Memory Apps M M 5

6 Współbieżność i przetwarzanie równoległe Współbieżność to jedno z podstawowych podejść przy budowie wydajnych systemów: Współbieżność: Przetwarzanie gdzie wiele zadań jest realizowanych w tym samym czasie. Współbieżność może być używana na wiele sposobów: Współbieżność jest jednym ze sposobów na ukrycie opóźnień przez większość współczesnych Systemów Operacyjnych Współbieżność wspólnie z redundancją są używane do budowy systemów Fault Tolerance. Przetwarzanie równoległe wykorzystuje współbieżność do obniżenia czasu wykonywania. HPC bazuje na pojęciu przetwarzania równoległego 6

7 Przetwarzanie równoległe Przetwarzanie N niezależnych zadań przez jeden procesor Load Data Compute T 1 Compute T N Consume Results T total (1) = T load + T consume + N*T task Przetwarzanie N niezależnych zadań przez P procesorów Load Data Compute T 1 Compute T N Consume Results Idealne rozwiązanie obcięcie runtime ~1/P (przetwarzanie równoległe przyspiesza tylko współbieżną cześć T total (P) = T load + T consume + (N/P)*T task 7

8 Ewolucja HPC Lata 80, to czas Vector SMP. Wszystkie elementy unikalne Lata 90 to okres Massively Parallel Computer. COTS CPUs, Pozostałe elementy unikalne. COTS = Commercial off the shelf dziś. To era klastrów COTS = wszystkie komponenty 8

9 Architektury równoległe Modele maszyn równoległych Instruction flow Data flow SIMD MIMD Network Mechanizm sterowania Master /Slave SMP MPP Cluster Distributed Organizacja przestrzeni adresowej Pipeline Tree Ring Network Homo. Hetero. Homo. Hetero. Parallel Machine Models 9

10 10

11 (3 + 1) Ery Komputerów Shared Memory Vector Processors Cray X-MP Distributed Memory Systems TMC CM-2 Cray Y-MP Alliant FX/80 Cray-2 Convex C2 Convex C3 IBM SP2 Cray T90 TMC CM-5 HP Cluster Intel Paragon Scalable Parallel Computing SPP1000 SPP1600 S/X Class SGI PC XL NEC SX4 Cray T3D/E Source: NCSA University of Illinois at Urbana-Champaign ASCI Initiative Los Alamos Origin2k IBM RS/6k SP Sandia Lawrence Livermore 11

12 Najcześciej... 12

13 Programming complexity factors the problem the available architecture the algorithm and its computer implementations programming environments 13

14 Modele programowania równoległego message-passing (explicit parallel programming) Parallel Virtual Machine (PVM) Message Passing Interface (MPI) Network Linda Parasoft Express MPL (IBM RS6000 SP) p4 and others - Wymiana komunikatów data-parallel programming (implicit parallel programming) High Performance Fortran (HPF) CM Fortran, SPP Fortran, Vienna Fortran... C* -Wielowątkowość -Distributed shared memory (DSM) (Shared Virtual Memory SVM) -OpenMP Heterogeneous programming - hierarchiczność 14

15 Modele programowania równoległego Message passing - przesyłanie komunikatów (a także: Task and channel - zadania i kanały). Data parallelism - równoległość danych (a także: Single Program Multiple Data - SPMD - jeden program, wiele danych). Shared memory - wspólna pamięć (również teoretyczny model obliczeń równoległych). 15

16 Model obliczeń równoległych PRAM Maszyna o dostępie swobodnym - RAM (Random Access Machine): model obliczeń sekwencyjnych. Równoległa maszyna o dostępie swobodnym - PRAM (Parallel RAM): model obliczeń równoległych. Ocena zachowania się algorytmów równoległych względem siebie dla PRAM i komputera rzeczywistego pozostaje taka sama. Założenie: czas działania może być mierzony liczbą równoległych dostępów do pamięci. Dostępy do pamięci: EREW, CREW, ERCW, CRCW C - concurrent (jednoczesny), E - exclusive(wyłączny), R - read, W - write. 16

17 Model PRAM c.d. EREW PRAM (nie musi zapewniać obsługi konfliktów w dostępach do pamięci). CRCW PRAM (założenie o nierozróżnialności modeli CRCW, CREW i ERCW): jednolity (ang. common) CRCW - wiele procesorów zapisuje tą samą wartość, dowolny (ang. arbitrary) CRCW - zapamiętywana jest dowolna wartość z zapisywanych, priorytetowy (ang. prority) CRCW - zapamiętywana jest wartość od procesora o najniższym numerze, mieszany (ang. combining) CRCW - zapamiętywana wartość jest ściśle określoną kombinacją zapisywanych wartości (dodawanie, maksimum). Synchronizacja i sterowanie (działanie algorytmów dla PRAM tylko w przypadku pełnej synchronizacji; sieci testujące zakończenie pętli - CRCW PRAM nie potrzebuje). 17

18 Analiza szczegółowa Według Mechanizmu sterowania Organizacji przestrzeni adresowej Granulacji procesów/procesorów Warstwy komunikacyjnej 18

19 Mechanizm sterowania - taxonomia Flynna, 1966 (! ) Functional taxonomy based on the notion of streams of information: data and instructions Platforms are classified according to whether they have a single (S) or multiple (M) stream of each of the above Single Instruction Stream/Single Data Stream - SISD (von Neumann architectures) Single Instruction Stream/Multiple Data Stream - SIMD examples: ICL DAP DEC MPP TMC CM2/CM200 MasPar MP1/2 Single Instruction Multiple Instruction Single Data SISD MISD Multipl e Data SIMD MIMD Multiple Instruction Stream/Multiple Data Stream - MIMD examples: SGI Power Challenge IBM RS/6000 SP TMC CM5 HP/Convex Exemplar SPP SGI/Cray T3D/T3E Intel Paragon XP/S MISD Multiple Instructions, Single Data, rare systolic Arrays 19

20 Flynn s taxonomy cont d 20

21 SISD - sekwencyjne Architektura von Neumanna - zwana inaczej - sekwencyjną The Turing Machine Von Neumann Architecture (Report on the EDVAC 1945) Los Alamos; bomba wodorowa Sterowanie - Układ we/wy Magistrala Arch. Klasyczna - mainframes Arch. Magistralowa - wspołczesna Alan Turing Pamięć operacyjna L2 cache L1 cache Procesor Magistrala Obecny pogląd Schemat funcjonalny Central Processing Unit (CPU) linearly addressed address space (operational memory) control unit Sequence of instructions operates on sequence of data - sequential computers 21

22 Hardware a Przetwarzanie Równoległe Przetwarzanie równoległe Single Instruction Multiple Data (SIMD)* Multiple Instruction Multiple Data (MIMD) Wspólna przestrzeń adresowa Rozłączna przestrzeń adresowa Symmetric Multiprocessor (SMP) Non-uniform Memory Architecture (NUMA) Massively Parallel Processor (MPP) Klaster Distributed Computing GRID *SIMD nie sprawdziło się w systemach z dużą liczbą procesorów, ale jest podstawowym mechanizmem zwiększający ILP wykorzystywanym w nowoczesnych procesorach (MMX). 22

23 SIMD, MIMD, NOW MIMD Computers SIMD Computers One control unit - less hardware Suited for data-parallel programs Automatic synchronization among processors in each cycle For programs with high synchronization requirements Number of processors - thousands loss of significance at present komputery wektorowe Cray YMP, T90, NEC SXx komputery macierzowe ICL DAP, MasPar, CM2/200 "off the shelf" processors message-passing programming extra hardware for fast synchronization for data-parallel programming sophisticated interconnection layer number of processors - up to thousands multiprocessors and multicomputers getting more interest at present Network of computers clusters distributed architecture high speed interconnection network ATM Fibre Channel 100Base-T, 100VG AnyLAN (Ethernet, TokenRing) 23

24 SIMD - macierzowe single stream of instructions Control Unit fetch decode broadcast Processing Element Processing Element Processing Element Processing Element Processing Element All processors execute the same instruction using one control unit and many data paths Local control is limited to the following: Local data-dependent execution of broadcast instruction (1 local bit flag) Local data modification of broadcast address (local offset register) PEs can be deactivated and activated on-the-fly Vector processing (e.g., vector add) is easy to implement on SIMD SIMD 24

25 25

26 26

27 SIMD ILLIAC-IV, TMC CM-1, MasPar MP-1 Expensive logic for CU, but there is only one Cheap logic for PEs and there can be a lot of them 32 procs on 1 chip of the MasPar, 1024-proc system with 32 chips that fit on a single board! 65,536 processors for the CM-1 Thinking Machine s gimmick was that the human brain consists of many simple neurons that are turned on and off, and so was their machine CM-5 hybrid SIMD and MIMD Death pin-out scalability Machines not popular, but the programming model is. Vector processors often labeled SIMD because that s in effect what they do but they are not SIMD (classical) machines Led to the MPP terminology (Massively Parallel Processor) Ironic because none of today s MPPs are SIMD Getting popularity at present in small scale concurrency in PROCESSORS as functional units 27

28 SIMD wektorowe 28

29 Vector Processors Vector architectures were based on a single processor Multiple functional units All performing the same operation Instructions may specify large amounts of parallelism (e.g., 64- way) but hardware executes only a subset in parallel Historically important Overtaken by MPPs in the 90s as seen in Top500 Re-emerging in recent years At a large scale in the Earth Simulator (NEC SX6) and Cray X1 At a small scale in SIMD media extensions to microprocessors SSE, SSE2 (Intel: Pentium/IA64) Altivec (IBM/Motorola/Apple: PowerPC) VIS (Sun: Sparc) Key idea: Compiler does some of the difficult work of finding parallelism 29

30 Vector Processors Definition: a processor that can do element-wise operations on entire vectors with a single instruction, called a vector instruction These are specified as operations on vector registers A processor comes with some number of such registers r1 r2 vr1 vr2 + + r3 vr3 (logically, performs #elts adds in parallel) A vector register holds ~32-64 elements The number of elements is larger than the amount of parallel hardware, called vector pipes or lanes, say 2-4 The hardware performs a full vector operation in #elements-per-vector-register / #pipes vr1 vr (actually, performs #pipes adds in parallel) 30

31 Porównanie Vector Scalar Processing execute this loop 10 times read the next instruction and decode it fetch this number fetch that number add them put the result here end loop But to a vector processor, this task looks considerably different: read instruction and decode it fetch these 10 numbers fetch those 10 numbers add them put the results here Cray chaining (łańcuchowanie): a*b + y read instruction and decode it fetch these 10 numbers fetch those 10 numbers fetch another 10 numbers add and multiply them put the results here 31

32 Vector Processors Advantages quick fetch and decode of a single instruction for multiple operations the instruction provides the processor with a regular source of data, which can arrive at each cycle, and processed in a pipelined fashion The compiler does the work for you of course Memory-to-memory no registers can process very long vectors, but startup time is large appeared in the 70s and died in the 80s Cray, Fujitsu, Hitachi, NEC 32

33 33

34 34

35 35

36 36

37 37

38 38

39 Przetwarzanie sekwencyjne, wektorowe i SIMD zi = xi + yi xi + yi zi Vector Sequential SIMD z1... z1 z1... zn 1cycle/result zi... N processors 6 cycle/n results zi 6 cycle/1 result 39

40 MIMD Most general category Other taxonomies Shared- vs. Distributed- memory is a common distinction among machines + hybrid 40

41 41

42 Hardware a Przetwarzanie Równoległe Przetwarzanie równoległe Single Instruction Multiple Data (SIMD)* Multiple Instruction Multiple Data (MIMD) Wspólna przestrzeń adresowa Rozłączna przestrzeń adresowa Symmetric Multiprocessor (SMP) Non-uniform Memory Architecture (NUMA) Massively Parallel Processor (MPP) Klaster Distributed Computing GRID *SIMD nie sprawdziło się w systemach z dużą liczbą procesorów, ale jest podstawowym mechanizmem zwiększający ILP wykorzystywanym w nowoczesnych procesorach (MMX). 42

43 Organizacja przestrzeni adresowej Shared address space architecture Distributed memory architecture Virtually-shared physically distributed memory architecture Distributed Shared Memory Virtual Shared Memory 43

44 Gentle Comparision 44

45 Shared space organization Features: One OS, multiple CPUs sharing memory and I/O typical for small number of processors potential bottleneck for data read/write access examples vector machines (Cray T90, NEC SXx) UMA computers with SMP for equal load of processors Simple programming model Easy performance scaling Cache coherence via snoopy caches SMP P P P Mem I/O Hardware support for read and write access by all processors to a physically shared memory. Example: Examples: SGI Power Challenge with 36 x R10000 IBM S80 (24xRS64III) SUN E10000 (64xUSparcII) SUN E14K, E25K (72xUSIV+, 144 thread 45

46 HP 9000 K Class System Diagram SMP Example PA-RISC PA-RISC CPU 1... CPU n Memory 768 MB/sec. Processor-Memory Bus 20 MB/sec. Fast/Wide/Diff. SCSI-2 High Performance I/O Subsystem High Performance I/O Subsystem Disk HP-PB and High Speed System Connect(HP-HSC) Interfaces 128 MB/sec. 128 MB/sec. HP-PB and High Speed System Connect(HP-HSC) Interfaces 46

47 Global Address Space Cray T3D, T3E, X1, and HP Alphaserver cluster Network interface supports Remote Direct Memory Access NI can directly access memory without interrupting the CPU One processor can read/write memory with one-sided operations (put/get) Not just a load/store as on a shared memory machine Remote data is typically not cached locally (remember the MPI-2 extension) P0 NI P1 NI Pn NI memory memory... memory interconnect 47

48 Distributed memory Clusters, Constellations, MPP Message-passing architecture - classical case for no additional hardware for global operations up to hundreds of independent uniprocessors (1 node = 1 CPU) many OS and software images (1 per node) complex programming model loosely coupled processors - multicomputers MPP High Speed Communications Fabric M I/O P M I/O P M I/O P M I/O P examples: IBM RS/6000 SP (512xPower2 or 472xPower2SC) Intel Paragon XP/S (3680 x i860) 48

49 Constellations??? Commodity clusters that differ from the previous ones by the dominant level of parallelism Clusters consist of nodes, and nodes are typically SMPs If there are more procs in an node than nodes in the cluster, then we have a constellation Typically, constellations are space-shared among users, with each user running openmp on a node, although an app could run on the whole machine using MPI/openMP To be honest, this term is not very useful and not very used. 49

50 Virtually-shared physically distributed aka Distributed Shared Memory Additional hardware to emulate physically shared memory common operating system (with multithreaded Mach kernel) - tighly coupled muliprocessors or parallel computers NUMA (nonuniform memory access) architecture cache coherency mechanism (to overcome potential problems with processor cache contents) - cc-numa often Parallel SMP (hybrid SMP/MPP) Parallel SMP M e m P P P P Examples: HP Exemplar V2500SCA (128 x PA8500) HP SuperDome (64xPA8600) SGI Origin3000 (512 x R12000) --?? Cray T3E/900 (1024 x Alpha) I/O P P P P M e m I/O P P P P M e m I/O High Speed Communication Fabric I/O M e m P P P P I/O M e m P P P P P P P I/O P M e m 50

51 UMA vs. NUMA 51

52 NUMA - więcej SUN x500, E10K SGI Origin 2x00 HP V

53 Convex SPP1600 Hypernode Interconnect 2.4 GByte/sec bandwidth 2-3 sec latency CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory I/O Hypernode 1 I/O Hypernode 2 CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory I/O Hypernode n 2.4 GByte/sec * N bandwidth.5 sec latency 53

54 SGI Origin

55 SGI Altix 3700/

56 Distributed Shared Memory cont d Memory is logically shared, but physically distributed in banks Any processor can access any address in memory Cache lines (or pages) are passed around the machine Cache coherence: Distributed Directories NUMA: Non-Uniform Memory Access (some processors may be closer to some banks) P1 P2 Pn $ $ $ memory network memory memory memory SGI Origin2000 is a canonical example 56

57 Cache protocols - introduction Two typical Write through: as soon as a cache line is modified, it is written to memory Write back: a cache line is written to memory only when its location is needed to hold other data On a single CPU system, either protocol is straightforward Cache coherency on a MPP more complicated - multiple copies of the same variable in caches and memory Write through: easy solution - a lot of memory bus traffic Write back: more efficient solution - HW/SW support needed to maintain coherency 57

58 Processor granularity Granularity: Ratio of time for basic communication to time for basic computation Fine-grain computers small granularity - frequent communications SMP and SIMD machines Coarse-grain computers high granularity - rare communications parallel vector processors, network of computers Medium-grain machines MIMD parallel computers with additional H/W and support from OS to minimize comm./comp. ratio SIMD SMP MPP Cluster Message Passing Shared Memory Inter Host Intra Host Coarse Grain Homo. Fine Grain Hetero. 58

59 Warstwa komunikacyjna Static Dynamics Major factor differentiate modern multiprocessor architectures 59

60 60

61 Network Topologies People have experimented with different topologies for distributed memory machines, or to arrange memory banks in NUMA shared-memory machines Examples include: Ring: KSR (1991) 2-D grid: Intel Paragon (1992) Torus Hypercube: ncube, Intel ipsc/860, used in the SGI Origin 2000 for memory Fat-tree: IBM Colony and Federation Interconnects (SP-x) Arrangement of switches pioneered with Butterfly networks like in the BBN TC2000 in the early MHz processors in a multi-stage network of switches Virtually Shared Distributed memory (NUMA) I actually worked with that one! 61

62 Static interconnection networks Completely-connected network. Each pocessor has a direct link to every processor. Ideal non-blocking case between any pair of processors and non-blocking broadcast. Star-connected network. One processor acts as the central processor. Similar to Ethernet network. Linear array or ring of processors (often transputers). Typically used for systolic algorithms. Mesh network (2/3D). Each processor has direct link to 4/6 neighbour processors. Extensions: wraparound mesh or torus. Tree network of processors - with only one path between processors. To avoid communication bottleneck closer to the root fat tree topology introduced. Hypercube network - multidimensional mesh with exactly two processors in each direction. d-dim. hypercube has p=2^d d processors. Shortest path has d links at most. Very general. 62

63 (a) (b) (c) 63

64 Static Hypercube Defined by its dimension, d 1D 2D 3D 4D 64

65 Hypercube Properties Has 2 d nodes The number of hops between two nodes is at most d The diameter of the network grows logarithmically with the number of nodes, which was the key for interest in hypercubes But each node needs d neighbors, which is a problem Routing and Addressing d-bit address routing from xxxx to yyyy: just keep going to a neighbor that has a smaller hamming distance reminiscent of some p2p things TONS of Hypercube research (even today!!) 65

66 Static 66

67 Dynamic interconnection networks Bus-based bottleneck Example: SGI PC XL with packet data bus Crossbar switch non-blocking network Examples: Cray YMP, Fujitsu VP500 (224x224) - Complexity: p 2 Multistage interconnection most advanced solution between two extremes Omega network: log p stages, p - number of i/o complexity: p log p typical example: BBN Butterfly Multilevel interconnections Parallel SMP - "Hybrid" SMP/MPP crossbar/smp and hypernode interconnections Examples: HP/Convex Exemplar, IBM RS/6K (SMP) SP, SGI/Cray O2K 67

68 Warstwa komunikacyjna dynamic 68

69 P M M M M P M P P M P P M P M P Crossbar Przełącznica krzyżowa Switching newtwork Sieć przełączająca 69

70 Więcej 70

71 71

72 Komunikacja- przykłady Komputer Rok t_ini, us B, MB/s CM Paragon IBM RS6K SP Cray T3D, PVM NOW, Eth SGI Power Chal SUN E

73 Własności warstwy sieciowej PROPERTY BUS CROSSBAR MULTISTAGE Speed low high high Cost low high moderate Reliability low high high Configurability high low moderate Complexity low high moderate 73

74 SGI Origin

75 Communication Layer in SGI 2800/128 75

76 SGI 2800 grizzly.cyf-kr.edu.pl IRIX xR10K/ xR12K/300 Peak 73,6 Gflops 76

77 SGI Altix 3700/

78 Non-Traditional Topologies 28 G FLOPS Recognition Engine 8 G bytes of RAM MHz 72-Bit Reg DDR AMD Opteron 940 PGA AMD Opteron 940 PGA MHz 72-Bit Reg DDR - PCI-X - StarFabric - SCSI - SPI GigE / OC-12 Programmable I/O Device 16x MT/s 8x8 800MT/s AMD Opteron 940 PGA 8 G bytes of RAM MHz 72-Bit Reg DDR SIO VGA PCI Graphics FLASH Management 10/100 Phy Legacy PCI LPC AMD-8111 TM I/O Hub USB1.0,2.0 AC97 UDMA133 10/100 Ethernet 8 G bytes of RAM 4 G bytes of RAM 4 G bytes of RAM 754 PGA 4 G bytes of RAM 754 PGA 4 G bytes of RAM 754 AMD PGAAthlon 754 PGA 100 BaseT Management LAN 78

79 AMD Opteron Cubed 8P Server Topology MHz 72-Bit Reg DDR AMD Opteron 940 PGA Up to 8 G bytes of RAM 16x MT/s Only three nodes are 3 hops away No nodes are 4 hops away More redundant Paths To 8111 To I/O device To 8111 To I/O device 79

80 Podsumowanie Pamięć wspólna (współdzielona) - shared memory łatwość programowania - trudno skalowalna Pamięć rozproszona - distributed memory trudno programować - łatwiejsza skalowalność Pamięć wirtualnie wspólna - virtual shared OpenMP SM DSM DM 80

81 Hardware a Przetwarzanie Równoległe czyli o czym mówiliśmy do tej pory Przetwarzanie równoległe Single Instruction Multiple Data (SIMD)* Multiple Instruction Multiple Data (MIMD) Wspólna przestrzeń adresowa Rozłączna przestrzeń adresowa Symmetric Multiprocessor (SMP) Non-uniform Memory Architecture (NUMA) Massively Parallel Processor (MPP) Klaster Distributed Computing GRID 81

82 View of Parallel Architectures Physically Shared Memory Systems Tighly Coupled MPP's Loosely Coupled MPP's WS-Clusters Loop level Parallelism Virtual Shared Memory HPF, OpenMP MPI PVM Explicit Message Passing Low Latency High 82

83 HPTC is Changing Proprietary Industry Standards Building Blocks Hardware Intel Architecture Software Windows, Linux Parallel Paradigm OpenMP, MPI, OpenMPI Copyright , Intel Corporation. All rights reserved. 83

84 Klastry NOW: Network of Workstations 84

85 Klastry Klastry - podklasa Parallel SMP Systemy sieciowe (rozproszone) versus klastry Klastry (systemy rozproszone): przeznaczenie do obliczeń o wysokiej złożoności (rozproszenie aplikacji / większa pamięć) wysokiej dostępności (realizacja lokalna aplikacji z migracją procesów) użytkowanie dedykowane sieciowe zasoby dyski dzielone dyski lokalne SMP z pamięcią dzieloną Grid Computing 85

86 The Emergence of Linux Cluster Computing parallelism commoditization and performance 1994 first Beowulf cluster - NASA open source 86

87 Beowulf and Linux High Performance Clusters Beowulf and Linux clusters utilizes a lot of small, inexpensive pieces of hardware, and freely available software to create a parallel processing computing environment to tackle very complex problems Beowulf is one open source implementation of cluster management (at CERN) In late 1993, Donald Becker and Thomas Sterling began sketching the outline of a commodity-based cluster system designed as a cost-effective alternative to large supercomputers. In early 1994, working at CESDIS under the sponsorship of the HPCC/ESS project, the Beowulf Project was started. The initial prototype was a cluster computer consisting of 16 DX4 processors connected by channel bonded Ethernet. The machine was an instant success and their idea of providing COTS (Commodity Off The Shelf) based systems to satisfy specific computational requirements quickly spread through NASA and into the academic and research communities. 87

88 Compute Nodes 1-4P, Max Memory, Small disk Server Unit Server Unit Server Unit Server Unit Server Unit Server Unit Server Unit Server Unit Server Unit Server Unit Beowolf Schematic: Logical View Interconnect 10/100 Enet, Gbit Enet, Myrinet Elements Linux Master Node NFS file server/ Gateway Message Passing Interface (MPI) Parallel Virtual Machine (PVM) Cluster management software Resource management software Parallel file systems WAN LAN Mgmt console Admin node Job Scheduler Control Point 88

89 System Management Node Used by system administrators Requires monitor and keyboard Monitor system without login to compute node Begin boot process of compute nodes May be used as user login node Often different type of system than compute nodes 89

90 Klastry dziś (do obliczeń owysokiej złożoności) Klaster to zespół połączonych niezależnych komputerów pracujących nad rozwiązaniem wspólnego zadania Klaster: System zbudowany z komercyjnie dostępnych komponentów. Współpraca: Intel, IBM, ORNL, NCSA, Dell, SGI, Veridian, MSC.software 90

91 Examples IA-32 Latest Performance Technologies 2 x Core 2 Duo/Quatro PCI-X expansion slots (2 hot plug) 6GB 200MHz 2-way interleaved DDR 2 x 10/100/1000 NICs Remote boot and management Powerful Integrated Lights-Out (ilo) technology embedded High Availability Features Online Spare Memory and Advanced ECC protection Hot Plug redundant power supplies Redundant ROMs 1U form factor IA-64 2 x Montecito 2U form factor, rack mount 91

92 Traditional Cluster Install Traditional Cluster Installs Exhaust Front to Back Causing Hot Spots 92

93 BladeRack Installation Hot Spots In Data Centers are Less Likely To Occur where BladeRack Technology is used due to our Patented VCS (Vertical Cooling System) Technology 93

94 Warstwa sieciowa TCP/IP FE GE Specjalizowane Dolphin (Scali) Myrinet Quadrics InfiniBand 94

95 95

96 Scali summary Development started in 1994 for a specific application (SAR for Military, funded by NDRE and the Kongsberg Group) Scali was founded in 1997 Main Office in Oslo Branch Office in Houston Scali Universe and UniverseXE: versatile and easy-to-use system mgmt for remote admin of cluster ClusterEdge: application suite that addresses both cluster management and interconnect communication software Available as ClusterBlocks solution with Itanium2 or Xeon based systems 96

97 Dolphin Scali Wulfkit SCI packet based protocol Unidirectional 5.33 Gbit/s (64-bit, 66MHz PCI-SCI adapter) SCALI MPI Software 97

98 Dolphin Performance 98

99 Myrinet 99

100 Myricom Network Myricom Interconnect 128 host switch Low-latency, cut-through crossbar switches 16-port switch chips configurable to tens of thousands of ports Path redundancy Theoretical crossbar bisection Bisection bandwidth scales N Log(N) connections Current generation 250 MB/s per rail, 8 ms latency 100

101 Myrinet 101

102 Quadrics Interconnect QsNet Fat tree (CLOS) 16 way, 128 way, and up to 1024 way Federated Configuration Theoretical crossbar bisection N Log(N) connections Bisection bandwidth scales Hardware Broadcast/Barrier Adaptive/wormhole routing Current generation 320 MB/s per rail, 3 ms latency 102

103 InfiniBand Communication Stack 103

104 104

105 System Bus Link Link Infiniband Architecture Target Channel Adapter Interface to I/O controller SCSI, FC-AL, etc I/O Cntlr e.g, Gb Enet Mgt. Services Link High speed serial x1, x4 & x12 TCA scalable 2.5Gb/s to 30Gb/s links CPU CPU Mem Cntlr HCA Link Multi Stage Switch Link TCA I/O Cntlr e.g., FC-AL or SCSI Sys Mem Host Channel Adapter Protocol engine Moves data via messages queued in memory TCA I/O Cntlr Switch Simple, low cost, multistage network IX Bus IXA Router LAN/ WAN Interface Router Connects Subnets together Copyright , Intel Corporation. All rights reserved. 105

106 Copyright , Intel Corporation. All rights reserved. 106

107 107

108 108

109 Nieformalne porównanie infiniband Interconn BW, MBytes/s Laten, us Cost euro QsNet (quadric) 360, bi Myrinet (Myricom) 245, bi SCI Dolphin 2D, 5x , uni SCI Dolphin 3D, 5x5x , uni clan Giganet 100, bi Gigabit Ethernet 125, bi Fast Ethernet 12, bi

110 IA32 110

111 IA64 111

112 Markets for Linux Clusters Materials Science Life Sciences, Manufacturing, Seismic Processing Incyte, Glaxo, Genentech Ford, BMW, Boeing Shell, Amarada Hess, BP Visualization, Finance DreamWorks,ILM, The Mill (UK) Morgan Stanley, First Boston Government/defense Sandia, LLNL, Army, NSA, Mitre Corp, JPL, Martin Marietta Higher Education every major university Bioinformatics Cancer Research Computational Chemistry National Labs 112

113 Advantages of Linux Clusters Price-performance: exploits application parallelism distributed work load across low-cost platforms Processors and interconnects Expandability and resiliency can grow size of system as need requires fewer points of failure Based on open source large community of talent focused on clustering new tools support no proprietary lock in 113

114 What Applications Fit Well in Linux Clusters? Highly parallel or coarse grain applications Image or frame processing (Bluesky, ISTAR) Sequence Research in Life Science (Genprot) Parameter Study (stochastic crash test) Fine grain applications as finite element analysis, or computational chemistry depend upon program design and data size Problems with high level of inter-nodal communications may drive latency beyond today s cluster capabilities Any application whose users seek pay for performance as required by workload, and a centrally managed resource center 114

115 Client Installations Veritas DGC (A Geophysical Company) has approximately 9,000 compute nodes installed world-wide processing seismic data 24/7. 115

116 Lustre filesystem Open Source file system funded by ASCI Path Forward (Livermore, Los Alamos, Sandia) scalable metadata access single sharable image single name space parallel-coherent access high bandwidth transports Myrinet, Quadrics, very highly scalable scalable bandwidth multiple data servers parallel filesystems scalable storage petabytes of disks 121

117 Lustre Lustre filesystem highlights: Peter Braam is the visionary behind Lustre. 100% Open source designed to work on distributed heterogeneous clusters. IA32 work being done by DOE Tri-Labs, Cluster Filesystem Inc, Intel and HP Porting to IA64 being done by PNNL, CFS, HP Lustre has demonstrated >220MB/s from a single client at LLNL. Clients Clients Clients System & Parallel File I/O File Locking Object Object Object Storage Storage Storage Targets Targets Targets Recovery File Status File Creation Directory, Metadata & Concurrency Metadata Metadata Metadata Servers Servers Servers 122

118 O czym mówiliśmy do tej pory? Taksonomie architektur komputerowych mechanizm sterowania organizacja przestrzeni adresowej granulacja warstwa komunikacyjna Klastry 123

119 The Grid: Blueprint for a New Computing Infrastructure Ian Foster, Carl Kesselman (Eds), Morgan Kaufmann, 1999 Published July 1998; ISBN chapters by expert authors including: Andrew Chien, Jack Dongarra, Tom DeFanti, Andrew Grimshaw, Roch Guerin, Ken Kennedy, Paul Messina, Cliff Neuman, Jon Postel, Larry Smarr, Rick Stevens, Charlie Catlett John Toole and many others A source book for the history of the future -- Vint Cerf 124

120 Grid Computing Typical Distributed computing - synchronous processing High throughput computing - asynchronous OnDemand Computing - dynamic resources Data intensive computing - databases Collaborative computing scientists What is Grid Computing?? 125

121 The Grid Dependable, consistent, pervasive access to [high-end] resources Dependable: Can provide performance and functionality guarantees Consistent: Uniform interfaces to a wide variety of resources Pervasive: Ability to plug in from anywhere Many definitions exist Balance needed innovation software functionality support 126

122 The Grid according to Ian Foster/others Coordinates resources that are NOT subject of centalized control Using standard, open, general-purpose protocols and interfaces Delivers nontrival quality of services Others: Grid Computing resource sharing and coordinated problem solving in dynamic, multiinstitutional virtual organizations democratisation accessibility (not a SuperPerson to do SuperComputing) speculative science (unbounded computing power) function shipping (computational mobility) High Throughput Computing is a 24x7x365 activity 127

123 Description of grid flexible, secure, coordinated resource sharing among dynamic collections of individuals, institutions and resources (The anatomy of the grid) single, seamless, computational environment in which cycles, communication and data are shared (Legion: the Next Step Toward a Nationwide Virtual Computer) widearea environment that transparently consists of workstations, personal computers, graphic rendering engines, supercomputers and nontraditional devices (Legion - A View from 50,000 Feet) collection of geographically separated resources connected by a high speed network, a software layer which transforms a collection of independent resources into a single, coherent virtual machine (Metacomputing - What s in it for me) 128

124 Grid is a Journey... Old World New World Static Silo Physical Manual Application Courtesy Mark Linesch, GGF Dynamic Shared Virtual Automated Service W.Gentzsch 129

125 Context #6: Global Grid Community W.Gentzsch 130

126 The EGEE project Objectives Large-scale, production-quality infrastructure for e-science leveraging national and regional grid activities worldwide consistent, robust and secure improving and maintaining the middleware attracting new resources and users from industry as well as science EGEE 1st April March leading institutions in 27 countries, federated in regional Grids Courtesy Dieter Kranzlmueller EGEE-II Proposed start 1 April 2006 (for 2 years) Expanded consortium > 90 partners in 32 countries (also non-european partners) Related projects, incl. BalticGrid, SEE-GRID, EUMedGrid, EUChinaGrid, EELA W.Gentzsch 131

127 Grids in Europe Great investment in developing Grid technology Sample of National Grid projects: Austrian Grid Initiative DutchGrid France: e-toile; ACI Grid Germany: D-Grid; Unicore Greece: HellasGrid Grid Ireland Italy: INFNGrid; GRID.IT NorduGrid Poland: PROGRESS, SGI-Grid, Clusterix, PL-Grid UK e-science: National Grid Service; OMII; GridPP EGEE provides framework for national, regional and thematic Grids W.Gentzsch 132

128

129 Grid A proposed distributed computing infrastructure for advanced science and engineering.(mid1990s) Coordinated resource sharing and problem solving in dynamic, multi-institutional virtual organizations. VO have the potential to change dramatically the way we use computers to solve problems. 134

130 The Nature of Grid Architecture A protocol architecture: VO users. Resources negotiate. Establish, manage, and exploit sharing relationship. Standard services: Access to computation. Access to Data. Resource discovery. Coscheduling. Data replication. Emphasizes: Identification and definition of protocols and services. APIs and SDKs. 135

131 Grid Architecture Description The neck of the hourglass consists of Resource and Connectivity protocols. 136

132 Grid Architecture in Practice 137

133 Informal Comparison Distributed On the Grid 140

134 Conventional distributed environments and grids Distributed resources are virtually unified by a software layer A virtual machine is introduced between the application and the physical layer Provides a single system image to the application Types Conventional (PVM, some implementations of MPI) Grid (Globus, Legion) 143

135 The grid: abstraction Semantically: the grid is nothing but abstraction Resource abstraction Physical resources can be assigned to virtual resource needs (matched by properties) Grid provides a mapping between virtual and physical resources User abstraction User of the physical machine may be different from the user of the virtual machine Grid provides a temporal mapping between virtual and physical users 144

136 Conventional distributed environments and grids Smith 4 nodes Smith 1 CPU Smith, 4 CPU, memory, storage 145

137 Globus Approach Focus on architecture issues Propose set of core services as basic infrastructure Use to construct high-level, domain-specific solutions Design principles Keep participation cost low Enable local control Support for adaptation A p p l i c a t i o n s Diverse global svcs Core Globus services Local OS 154

138 Globus Toolkit: Core Services Scheduling (Globus Resource Alloc. Manager) Low-level scheduler API Information (Metacomputing Directory Service) Uniform access to structure/state information Communications (Nexus) Multimethod communication + QoS management Security (Globus Security Infrastructure) Single sign-on, key management Health and status (Heartbeat monitor) Remote file access (Global Access to Secondary Storage) 155

139 New emerging paradigm Cloud Computing 156

140 Przykłady Architektur

141 Clusters/Cores Intel/Sandia: 9000 Pentium Pro LLNL/IBM: 488x8x3 PowerPC (SP2) LNL/Cray: 6144 P in DSM clusters Maui Supercomputer Center 512x1 SP2 200

142 Convex SPP1600 Hypernode Interconnect 2.4 GByte/sec bandwidth 2-3 sec latency CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory I/O Hypernode 1 I/O Hypernode 2 CPU CPU CPU CPU CPU CPU CPU CPU Memory Memory Memory Memory I/O Hypernode n 2.4 GByte/sec * N bandwidth.5 sec latency 201

143 SGI Origin

144 SGI 2000, cd Interface Memory Node Card Crossbow Module Rack Sustained Bandwidth/Peak 780 MB/s / 780 MB/s 1.25 GB/s / 1.56 GB/s 2.5 GB/s / 3.12 GB/s 5.0 GB/s / 6.24 GB/s 80 GB/s / 100 GB/s 203

145 Superkomputer SGI 2800 Cyfronet AGH nazwa komputera: grizzly.cyfronet.krakow.pl system operacyjny: IRIX 6.5 konfiguracja: 128 procesorów R14000 z zegarem 500 MHz pamięć operacyjna 64 GB pamięć dyskowa 1267 GB GB (z macierzy dyskowej) CDROM Drive, DAT Drive interface sieciowy FDDI, ATM, Ethernet, hippi moc obliczeniowa Gflops 204

146 Intel Itanium 2 Processors Powering World s Fastest Supercomputer Cluster 10,240 Itanium processors (512 x 20) Project Columbia NASA Advanced Supercomputing (NAS) Division Intel, Itanium and the Intel logo are trademarks or registered trademarks of Intel Corporation or its subsidiaries in the United States or other countries. 205

147 SGI Altix 3700/

148 IBM RS6K SP Each "Node" in an SMP-based SP consists of 2-8 PowerPC 604 CPUs and is called a "High Node" PowerPC MHz CPU Frequency CPUs per Node 2-8 Max Nodes per 4 (2-meter) frame Max Frames Per 4 System Max CPUs per 128 SMP system Max Node memory 2GB Max Node Disk Node Interconnect 6.6GB Ethernet, FDDI, or Vulcan Vulcan Switch SMP-based SP2 System Frame 1 Frame 2 Frame 3 Frame 4 Node Node Node Node 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs Vulcan Switch 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs 128 Max CPUs 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs Node 2-8 CPUs 207

149 Superdome Value Proposition proven technology performance & scalability superior single system performance high availability unprecedented high availability partitioning continuum comprehensive partitioning offering utility technology & pricing first pay-per-use pricing model connectivity broad range of high performance solutions built for the future investment protection: pa-risc, ia-64 & multi-os true differentiation in all major areas 208

150 HP Integrity Superdome Cyfronet AGH nazwa komputera: jowisz.cyfronet.krakow.pl system operacyjny: HP-UX 11i konfiguracja: 8 procesorów Intel Itanium 2 z zegarem 1.5 Ghz pamięć operacyjna - 8 GB pamięć dyskowa GB moc obliczeniowa - 48 Gflops oprogramowanie: kompilatory: gcc, g++, g77 Ansys Fluent 6 209

151 Crossbar 8 GB/s SuperDome cell the cell memory system provides 4 GByte/s peak memory bandwidth with 64 byte cache lines. 210

152 SuperDome Cell Board 211

153 212

154 213

155 214

156 HP Partitioning Continuum for HP-UX 11i Hard partitions with multiple nodes Clusters Hard partitions within a node npartitions Virtual partitions PRM with psets within a hard partitionresource partitions w/in a single OS image Virtual partitions PRM Process Resource Manager Complete hardware and software isolation Node granularity Multiple OS images Hardware isolation per cell Complete software isolation Cell granularity Multiple OS images Complete software isolation Dynamic CPU migration Multiple OS images Dynamic resource allocation Share (%) granularity 1 OS image Isolation highest degree of separation Flexibility highest degree of dynamic capabilities

157 The power of HP-UX partitions: the combination of BOTH the isolation of HP npartitions (hard) with the granularity & flexibility of vpars (virtual partitions) npartitions provide electrical hardware isolation - separate systems, I/O, boot, CPU, memory, etc. vpars are software isolated (OS, applications) for different customers, different OS tuning - each tailored by number of CPUs, amount of memory and I/O per customer and application mix I/O cpu0 memory cpu1 cpu2 cpu3 CC memory I/O cpu0 memory cpu1 cpu2 cpu3 CC memory Electrical H/W isolation npartition 1 production - HPUX 11i vpar 1 HPUX 11i + patch I/O cpu0 cpu1 cpu2 cpu3 CC memory memory I/O cpu0 cpu1 cpu2 cpu3 CC memory memory vpar 2 HPUX11i + web S/W isolation Dynamic reconfiguration Single CPU granularity vpar 3 HPUX 11i, large I/O buffer cache I/O I/O cpu0 cpu1 cpu2 cpu3 CC memory memory cpu0 cpu1 cpu2 cpu3 CC memory memory I/O I/O cpu0 cpu1 cpu2 cpu3 CC memory memory cpu0 cpu1 cpu2 cpu3 CC memory memory vpar 4 HPUX 11i, tuned for large memory npartition 2 dev & test Server consolidation

158 SUN Microsystems SUN Fire 15K server 225

159 Number of processors Up to 106 SUN Fire Architecture 900-MHz Cu Superscalar SPARC[tm] V9, ECC-protected UltraSPARC[tm] III processors Cache per processor Level 1: ECC protected 32 KB instruction and 64 KB data on chip Level 2: ECC protected 8 MB external cache System interconnect 150 MHz Sun Fireplane[tm] redundant 18X18 data, address, and response crossbar interconnect CPU/Memory Boards Up to 18 CPU/Memory Boards, each holding 4 processors and up to 32 GB memory, providing up to 576 GB memory per system, and common design across the entire Sun Fire[tm] K server family. I/O Up to 72 hot-swappable PCI slots on 18 channels; 36 slots are 66 MHz, 36 slots are 33 MHz; supports Sun Gigabit Ethernet FC-AL/P Combination Adapter, Sun Dual Fast Ethernet and Dual SCSI /P Adapter, Sun Dual Differential Ultra SCSI Host Adapter, Sun Quad FastEthernet[tm], SunATM[tm] 622, Sun HIPPI/P1.0, Serial Asynchronous Interface Adapter. System Controller Redundant System Controllers Automatic system failover of System Controllers, automatic failover of clock and management functions, with no service interruption to users. Overall System Bandwidth Up to GBps peak, up to 43.2 GBps sustained. Overall I/O Bandwidth: up to 21.6 GBps sustained. 226

160 SunFire 6800 Cyfronet AGH konfiguracja serwera: 2 domeny moc obliczeniowa serwera: 43.2 Gflops 1.nazwa domeny: saturn.cyfronet.krakow.pl system operacyjny: Solaris 8 konfiguracja: 20 procesorów UltraSparc III z zegarem 900 MHz pamięć operacyjna 20 GB pamięć dyskowa 120 GB DVD Drive, interfejs sieciowy Sun Gigabit Ethernet PCI oprogramowanie: oprogramowanie Forte (kompilatory C, C++, Fortran) Java 2 SDK oprogramowanie iplanet Mathematica Maple Matlab FLUENT ABAQUS MSC Patran, Nastran, Fatigue 2.nazwa domeny: tytan.cyfronet.krakow.pl system operacyjny: Solaris 8 konfiguracja: 4 procesory UltraSparc III z zegarem 900 MHz pamięć operacyjna 4 GB pamięć dyskowa 18 GB 227

161 Cray X1: Parallel Vector Architecture Cray combines several technologies in the X Gflop/s Vector processors (MSP) Shared caches (unusual on earlier vector machines) 4 processor nodes sharing up to 64 GB of memory Single System Image to 4096 Processors Remote put/get between nodes (faster than MPI) 228

162 Cray X1: the MSP Cray X1 building block is the MSP Multi-Streaming vector Processor 4 SSPs (each a 2-pipe vector processor) Compiler will (try to) vectorize/parallelize across the MSP, achieving streaming 12.8 Gflops (64 bit) 25.6 Gflops (32 bit) V S V V S V V S V V S V custom blocks 51 GB/s GB/s 2 MB Ecache 0.5 MB $ 0.5 MB $ 0.5 MB $ 0.5 MB $ shared caches At frequency of 400/800 MHz To local memory and network: 25.6 GB/s GB/s Figure source J. Levesque, Cray 229

163 Cray X1: A node P P P P P P P P P P P P P P P P $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ M M M M M M M M M M M M M M M M mem mem mem mem mem mem mem mem mem mem mem mem mem mem mem mem IO IO Shared memory 32 network links and four I/O links per node 230

164 Cray X1: 32 nodes R R R R R R R R Fast Switch 231

165 Cray X1: 128 nodes 232

166 Cray X1: Parallelism Many levels of parallelism Within a processor: vectorization Within an MSP: streaming Within a node: shared memory Across nodes: message passing Some are automated by the compiler, some require work by the programmer Hard to fit the machine into a simple taxonomy Similar story for the Earth Simulator 233

167 The Earth Simulator (NEC) Each node: Shared memory (16GB) 8 vector processors + I/O processor 640 nodes fully-connected by a 640x640 crossbar switch Total: GFlop processors -> 40GFlop peak 234

168 DataStar 8-way or 32-way Power4 SMP nodes Connected via IBM s Federation (formerly Colony) interconnect 8-ary Fat-tree topology 1,632 processors 10.4 TeraFlops Each node is directly connected via fiber to IBM s GPFS (parallel file system) Similar to the SP-x series, but higher bandwidth and higher arity of the fat-tree 235

169 Blue Gene/L 65,536 processors (still being assembled) Relatively modest clock rates, so that power consumption is low, cooling is easy, and space is small (1024 nodes in the same rack) Besides, processor speed is on par with the memory speed so faster does not help 2-way SMP nodes! several networks 64x32x32 3-D torus for point-to-point tree for collective operations and for I/O plus other Ethernet, etc. 236

170 Extreme Scale Platforms ~500K CPUs Login Nodes Mgmt Nodes Compute Nodes I/O Nodes Storage Targets 237

171 IBM Blue Gene 238

172 IBM Blue Gene/L Dense (1024 compute nodes per rack) Unusual nodes: Embedded PPC 440 CPUs 700 MHz Double hammer FPUs L1-cache not coherent between CPUs 1:8 to 1:64 ION to CN ratio 5 (!) networks: Torus/mesh for P2P (out-of-order, but reliable!) Tree for collectives and I/O Global Interrupts for barriers JTAG for management Gigabit Ethernet (I/O nodes only) 239

173 Blue Gene/L Compute Nodes: BLRTS Flat memory space (no paging, static TLB) No fork() or threads Limited exec() No dynamic libraries No stack/heap overwrite protection No Python, no Java Programming modes: Communication coprocessor Virtual node (Heater) 240

174 Blue Gene/L I/O Nodes: Linux Essentially same hardware as CNs Embedded Linux running from ramdisk Connected to Tree and Gigabit Ethernet Only one CPU used ION ION CN CN CN CN CN CN CN CN CN CN CN CN CN CN CN CN 241

175 IBM 1 st TOP

176 RoadRunner, Los Alamos 243

177 COMPAQ ASCI A Red Storm possible scenario Create a Mesh fabric from the EV7 I/O channels to reach 20,000 cpus (100+ TeraOp) Alpha processors North-South I/O channels Mesh Router Chips (MRC) 244

178 XT System Cray: Intel + AMD cooperation 245

179 246

180 247

181 248

182 249

183 XT5 h : XT5 + FPGA + X2 vector blades 250

184 251

185 252

186 Model programowania równoległego Zadania i kanały (tasks and channels) Pamięć lokalna i odległa Communicating Sequential Processes (CSP) 253

187 Tasks and channels A parallel computation consists of one or more tasks. Tasks execute concurrently. The number of tasks can vary during program execution. A task encapsulates a sequential program and local memory. (In effect, it is a virtual von Neumann machine.) In addition, a set of inports and outports define its interface to its environment. A task can perform four basic actions in addition to reading and writing its local memory (Figure 1.8): send messages on its outports, receive messages on its inports, create new tasks, and terminate. A send operation is asynchronous: it completes immediately. A receive operation is synchronous: it causes execution of the task to block until a message is available. Outport/inport pairs can be connected by message queues called channels. Channels can be created and deleted, and references to channels (ports) can be included in messages, so connectivity can vary dynamically. Tasks can be mapped to physical processors in various ways; the mapping employed does not affect the semantics of a program. In particular, multiple tasks can be mapped to a single processor. 254

188 Tasks and channels (CSP) - cechy Wydajność (performance) Niezależność od topologii (mapping independence) Modularność - niezależność komponentów (modularity) Determinizm (determinism) 255

189 Parallel programming models - realizacja message-passing (explicit parallel programming); examples: PVM MPI Network Linda Parasoft Express MPL p4 and others data-parallel programming (implicit parallel programming); examples: HPF CM Fortran, SPP Fortran, Vienna Fortran... C* (HPC++) Shared memory (OpenMP) 256

190 Podsumowanie Elements: the problem the available architecture the algorithm and its computer implementations programming environments A parallel application could be classified into four categories: perfect parallelism pipeline parallelism fully synchronous parallelism loosely synchronous parallelism 257

Zarządzanie sieciami telekomunikacyjnymi

Zarządzanie sieciami telekomunikacyjnymi SNMP Protocol The Simple Network Management Protocol (SNMP) is an application layer protocol that facilitates the exchange of management information between network devices. It is part of the Transmission

Bardziej szczegółowo

Datacenter - Przykład projektu dla pewnego klienta.

Datacenter - Przykład projektu dla pewnego klienta. Datacenter - Przykład projektu dla pewnego klienta. Wstęp! Technologie oraz infrastruktury wykorzystywane przez Capgemini. Projekt dla pewnego francuskiego klienta założenia Requests Capgemini datacenters

Bardziej szczegółowo

Technologia Informacyjna Wykład II Jak wygląda komputer?

Technologia Informacyjna Wykład II Jak wygląda komputer? Technologia Informacyjna Wykład II Jak wygląda komputer? A. Matuszak 18 października 2010 A. Matuszak Technologia Informacyjna Wykład II Jak wygląda komputer? A. Matuszak (2) Technologia Informacyjna Wykład

Bardziej szczegółowo

Wprowadzenie. Klastry komputerowe. Superkomputery. informatyka +

Wprowadzenie. Klastry komputerowe. Superkomputery. informatyka + Wprowadzenie Klastry komputerowe Superkomputery Wprowadzenie Klastry komputerowe Superkomputery Wprowadzenie Filozofia przetwarzania równoległego polega na podziale programu na fragmenty, z których każdy

Bardziej szczegółowo

Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH

Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH Kierunek Elektronika i Telekomunikacja, Studia II stopnia Specjalność: Systemy wbudowane Metodyki projektowania i modelowania systemów Cyganek & Kasperek & Rajda 2013 Katedra Elektroniki AGH Zagadnienia

Bardziej szczegółowo

Cel szkolenia. Konspekt

Cel szkolenia. Konspekt Cel szkolenia About this CourseThis 5-day course provides administrators with the knowledge and skills needed to deploy and ma Windows 10 desktops, devices, and applications in an enterprise environment.

Bardziej szczegółowo

Capgemini IT T@lk. Wirtualizacja fundamentem chmury technologie wirtualizacji jako podstawy funkcjonowania chmury

Capgemini IT T@lk. Wirtualizacja fundamentem chmury technologie wirtualizacji jako podstawy funkcjonowania chmury Capgemini IT T@lk Wirtualizacja fundamentem chmury technologie wirtualizacji jako podstawy funkcjonowania chmury Wirtualizacja Symulacja zasobów sprzetowych: Procesor Pamięć Sieć komputerowa Przestrzeń

Bardziej szczegółowo

Architektura komputerów

Architektura komputerów Architektura komputerów Wykład 13 Jan Kazimirski 1 KOMPUTERY RÓWNOLEGŁE 2 Klasyfikacja systemów komputerowych SISD Single Instruction, Single Data stream SIMD Single Instruction, Multiple Data stream MISD

Bardziej szczegółowo

Mirosław Kupczyk miron@man.poznan.pl. Pozna, PCSS, 17-18.01.2005. Szkolenie: "Architektura i uytkowanie klastra Linux IA-64"

Mirosław Kupczyk miron@man.poznan.pl. Pozna, PCSS, 17-18.01.2005. Szkolenie: Architektura i uytkowanie klastra Linux IA-64 Mirosław Kupczyk miron@man.poznan.pl $ %! " # & ' Wzgldy historyczne Naturalna ewolucja systemów luno ze sob powizanych znajdujcych si w jednej oraganizacji, ch współdzielenia zasobów obliczeniowych, danych,

Bardziej szczegółowo

Wykład 8 Systemy komputerowe ze współdzieloną pamięcią operacyjną, struktury i cechy funkcjonalne.

Wykład 8 Systemy komputerowe ze współdzieloną pamięcią operacyjną, struktury i cechy funkcjonalne. Wykład 8 Systemy komputerowe ze współdzieloną pamięcią operacyjną, struktury i cechy funkcjonalne. Części wykładu: 1. Ogólny podział struktur systemów równoległych 2. Rodzaje systemów komputerowych z pamięcią

Bardziej szczegółowo

Usługi IBM czyli nie taki diabeł straszny

Usługi IBM czyli nie taki diabeł straszny Usługi IBM czyli nie taki diabeł straszny Michał Wawrzyński 693 93 5338 michal.wawrzynski@pl.ibm.com Usługi IBM dla Partnerów Handlowych Maintenance & Technical Support Asset-based Services Labor-based

Bardziej szczegółowo

Komputery równoległe. Zbigniew Koza. Wrocław, 2012

Komputery równoległe. Zbigniew Koza. Wrocław, 2012 Komputery równoległe Zbigniew Koza Wrocław, 2012 Po co komputery równoległe? Przyspieszanie obliczeń np. diagnostyka medyczna; aplikacje czasu rzeczywistego Przetwarzanie większej liczby danych Przykład:

Bardziej szczegółowo

Chmura zrzeszenia BPS jako centrum świadczenia usług biznesowych. Artur Powałka Microsoft Services

Chmura zrzeszenia BPS jako centrum świadczenia usług biznesowych. Artur Powałka Microsoft Services Chmura zrzeszenia BPS jako centrum świadczenia usług biznesowych. Artur Powałka Services Tradycyjne podejście do wirtualizacji Business system administrators request infrastructure through email or an

Bardziej szczegółowo

Planning and Cabling Networks

Planning and Cabling Networks Planning and Cabling Networks Network Fundamentals Chapter 10 Version 4.0 1 Projektowanie okablowania i sieci Podstawy sieci Rozdział 10 Version 4.0 2 Objectives Identify the basic network media required

Bardziej szczegółowo

Chmura prywatna od podstaw Nowoczesny storage w rozwiązaniach chmury prywatnej z NetApp

Chmura prywatna od podstaw Nowoczesny storage w rozwiązaniach chmury prywatnej z NetApp Chmura prywatna od podstaw Nowoczesny storage w rozwiązaniach chmury prywatnej z NetApp Piotr Potocki, Inżynier Systemowy APN Promise S.A. NetApp & Microsoft Private Cloud Wirtualizacja Deduplikacja Konfiguracja

Bardziej szczegółowo

Klasyfikacja systemów komputerowych. Architektura von Neumanna. dr inż. Jarosław Forenc

Klasyfikacja systemów komputerowych. Architektura von Neumanna. dr inż. Jarosław Forenc Rok akademicki 2010/2011, Wykład nr 6 2/56 Plan wykładu nr 6 Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia stacjonarne I stopnia Rok akademicki 2010/2011

Bardziej szczegółowo

Szczypta historii. 2010 Inteligentne rozmieszczanie. Pierwszy magnetyczny dysk twardy. Macierz RAID. Wirtualizacja. danych

Szczypta historii. 2010 Inteligentne rozmieszczanie. Pierwszy magnetyczny dysk twardy. Macierz RAID. Wirtualizacja. danych Szczypta historii 1956 Pierwszy magnetyczny dysk twardy IBM 305 RAMAC (Random Access Method of Accounting and Control). 50 dysków o średnicy ok. 60 cm - 5 MB. 1993 Macierz RAID Grupa dysków jest widziana

Bardziej szczegółowo

1. ARCHITEKTURY SYSTEMÓW KOMPUTEROWYCH

1. ARCHITEKTURY SYSTEMÓW KOMPUTEROWYCH 1. ARCHITEKTURY SYSTEMÓW KOMPUTEROWYCH 1 Klasyfikacje komputerów Podstawowe architektury używanych obecnie systemów komputerowych można podzielić: 1. Komputery z jednym procesorem 2. Komputery równoległe

Bardziej szczegółowo

Realizacja systemów wbudowanych (embeded systems) w strukturach PSoC (Programmable System on Chip)

Realizacja systemów wbudowanych (embeded systems) w strukturach PSoC (Programmable System on Chip) Realizacja systemów wbudowanych (embeded systems) w strukturach PSoC (Programmable System on Chip) Embeded systems Architektura układów PSoC (Cypress) Możliwości bloków cyfrowych i analogowych Narzędzia

Bardziej szczegółowo

COMPUTER ORGANIZATION AND DESIGN The Hardware/Software Interface. Wprowadzenie do systemów wieloprocesorowych

COMPUTER ORGANIZATION AND DESIGN The Hardware/Software Interface. Wprowadzenie do systemów wieloprocesorowych COMPUTER ORGANIZATION AND DESIGN The Hardware/Software Interface Wprowadzenie do systemów wieloprocesorowych Wstęp Do tej pory mówiliśmy głównie o systemach z jednym procesorem Coraz trudniej wycisnąć

Bardziej szczegółowo

Jazz EB207S is a slim, compact and outstanding looking SATA to USB 2.0 HDD enclosure. The case is

Jazz EB207S is a slim, compact and outstanding looking SATA to USB 2.0 HDD enclosure. The case is 1. Introduction Jazz EB207S is a slim, compact and outstanding looking SATA to USB 2.0 HDD enclosure. The case is made of aluminum and steel mesh as one of the coolest enclosures available. It s also small

Bardziej szczegółowo

Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect

Macierze All Flash. Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect Innowacje w przetwarzaniu danych Macierze All Flash Czy to jest alternatywa dla macierzy klasy Enterprise? Krzysztof Jamiołkowski HP EG Storage Solutions Architect Definicja macierzy Enterprise Cechy charakterystyczne

Bardziej szczegółowo

Systemy wieloprocesorowe i wielokomputerowe

Systemy wieloprocesorowe i wielokomputerowe Systemy wieloprocesorowe i wielokomputerowe Taksonomia Flynna Uwzględnia następujące czynniki: Liczbę strumieni instrukcji Liczbę strumieni danych Klasyfikacja bierze się pod uwagę: Jednostkę przetwarzającą

Bardziej szczegółowo

Capgemini IT T@lk. Projekt lokalnego datacenter i problemy z tym związane

Capgemini IT T@lk. Projekt lokalnego datacenter i problemy z tym związane Capgemini IT T@lk Projekt lokalnego datacenter i problemy z tym związane O mnie Krzysztof Podobiński Senior Infrastructure/ VMware Engineer 9 lat doświadczenia w IT 3 lata w Capgemini Application Support

Bardziej szczegółowo

3PAR Utility Storage pamięć

3PAR Utility Storage pamięć 3PAR odpowiedź na wymagania szybko zmieniających się środowisk internetowych Szymon Stupkiewicz Poznań, 06.11.2009. Agenda. Wyzwania wobec pamięci masowych. 3PAR Utility Storage pamięć masowa nowej generacji.

Bardziej szczegółowo

Effective Governance of Education at the Local Level

Effective Governance of Education at the Local Level Effective Governance of Education at the Local Level Opening presentation at joint Polish Ministry OECD conference April 16, 2012, Warsaw Mirosław Sielatycki Ministry of National Education Doskonalenie

Bardziej szczegółowo

Configuring and Testing Your Network

Configuring and Testing Your Network Configuring and Testing Your Network Network Fundamentals Chapter 11 Version 4.0 1 Konfigurowanie i testowanie Twojej sieci Podstawy sieci Rozdział 11 Version 4.0 2 Objectives Define the role of the Internetwork

Bardziej szczegółowo

Piotr Zacharek HP Polska

Piotr Zacharek HP Polska HP Integrity VSE Rozwój bez ograniczeń HP Restricted Piotr Zacharek HP Polska Technology for better business outcomes 2007 Hewlett-Packard Development Company, L.P. The information contained herein is

Bardziej szczegółowo

DATA-S MONITORING ROZPROSZONY OŚWIETLENIA AWARYJNEGO DIVERSIFIED MONITORING OF EMERGENCY LIGHTING

DATA-S MONITORING ROZPROSZONY OŚWIETLENIA AWARYJNEGO DIVERSIFIED MONITORING OF EMERGENCY LIGHTING Wymiary Dimensions 500x282x89 IP40 DATA-S MONITORING ROZPROSZONY OŚWIETLENIA AWARYJNEGO System monitoruje prawidłową pracę zainstalowanych opraw oświetlenia awaryjnego w dużych obiektach użyteczności publicznej.

Bardziej szczegółowo

ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS.

ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS. ERASMUS + : Trail of extinct and active volcanoes, earthquakes through Europe. SURVEY TO STUDENTS. Strona 1 1. Please give one answer. I am: Students involved in project 69% 18 Student not involved in

Bardziej szczegółowo

CENNIK I TERMINARZ SZKOLEŃ

CENNIK I TERMINARZ SZKOLEŃ CENNIK I TERMINARZ SZKOLEŃ AUTORSKIE WARSZTATY DEDYKOWANE SQL NR KURSU NAZWA KURSU TERMINY MARZEC KWIECIEŃ MAJ 8:30-16:00 8:30-16:00 8:30-16:00 LICZBA GODZIN CENA OD OSOBY NETTO Administrowanie bazą danych

Bardziej szczegółowo

Procesory rodziny x86. Dariusz Chaberski

Procesory rodziny x86. Dariusz Chaberski Procesory rodziny x86 Dariusz Chaberski 8086 produkowany od 1978 magistrala adresowa - 20 bitów (1 MB) magistrala danych - 16 bitów wielkość instrukcji - od 1 do 6 bajtów częstotliwośc pracy od 5 MHz (IBM

Bardziej szczegółowo

Goodman Kraków Airport Logistics Centre. 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth+

Goodman Kraków Airport Logistics Centre. 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth+ Goodman Kraków Airport Logistics Centre 62,350 sqm available. Units from 1,750 sqm for immediate lease. space for growth Goodman Kraków Airport Logistics Centre ul. Komandosów 1, 32-085 Modlniczka Goodman

Bardziej szczegółowo

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian 1 / 12 Content list / Spis Treści 1. Hardware and software requirements, preparing device to upgrade Wymagania sprzętowe i programowe, przygotowanie urządzenia do aktualizacji 2. Installing drivers needed

Bardziej szczegółowo

Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism

Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism Health Resorts Pearls of Eastern Europe Innovative Cluster Health and Tourism Projekt finansowany Fundusze Europejskie z budżetu państwa dla rozwoju oraz ze Polski środków Wschodniej Unii Europejskiej

Bardziej szczegółowo

Obliczenia Wysokiej Wydajności

Obliczenia Wysokiej Wydajności Obliczenia wysokiej wydajności 1 Wydajność obliczeń Wydajność jest (obok poprawności, niezawodności, bezpieczeństwa, ergonomiczności i łatwości stosowania i pielęgnacji) jedną z najważniejszych charakterystyk

Bardziej szczegółowo

Proposal of thesis topic for mgr in. (MSE) programme in Telecommunications and Computer Science

Proposal of thesis topic for mgr in. (MSE) programme in Telecommunications and Computer Science Proposal of thesis topic for mgr in (MSE) programme 1 Topic: Monte Carlo Method used for a prognosis of a selected technological process 2 Supervisor: Dr in Małgorzata Langer 3 Auxiliary supervisor: 4

Bardziej szczegółowo

Cezary Bolek Katedra Informatyki. Prawo Moore a

Cezary Bolek Katedra Informatyki. Prawo Moore a Wstęp do Informatyki Wydajność systemów komputerowych Cezary Bolek Katedra Informatyki Prawo Moore a Gordon E. Moore, 1965. "Cramming more components onto integrated circuits," Electronics, v.38, no 8

Bardziej szczegółowo

Architektury komputerów Architektury i wydajność. Tomasz Dziubich

Architektury komputerów Architektury i wydajność. Tomasz Dziubich Architektury komputerów Architektury i wydajność Tomasz Dziubich Przetwarzanie potokowe Przetwarzanie sekwencyjne Przetwarzanie potokowe Architektura superpotokowa W przetwarzaniu potokowym podczas niektórych

Bardziej szczegółowo

(duzo, przeczytac raz i zrozumiec powinno wystarczyc. To jest proste.)

(duzo, przeczytac raz i zrozumiec powinno wystarczyc. To jest proste.) 39. Typy indeksowania w hurtowniach danych. (duzo, przeczytac raz i zrozumiec powinno wystarczyc. To jest proste.) Po co inne niŝ B-Tree? Bo B-Tree w hurtowniach danych jest zbyt mało efektywny. Oprócz

Bardziej szczegółowo

Oprogramowanie na miarę z13

Oprogramowanie na miarę z13 Oprogramowanie na miarę z13 Sebastian Milej, Zespół Oprogramowania Mainframe 11 lutego 2015 IBM z Systems to rozwiązanie kompletne Analytics Clo ud Securit y Mobile Socia l Technologia półprzewodników

Bardziej szczegółowo

Home Software Hardware Benchmarks Services Store Support Forums About Us

Home Software Hardware Benchmarks Services Store Support Forums About Us 1 z 8 2013-03-08 11:49 Shopping cart Search Home Software Hardware Benchmarks Services Store Support Forums About Us Home» CPU Benchmarks» Intel Core i5-2310 @ 2.90GHz CPU Benchmarks Video Card Benchmarks

Bardziej szczegółowo

Prawo Moore a 4/10/2013. Wstęp do Informatyki

Prawo Moore a 4/10/2013. Wstęp do Informatyki Prawo Moore a Wstęp do Informatyki Gordon E. Moore, 1965. "Cramming more components onto integrated circuits," Electronics, v.38, no 8 (19 April), Wydajność systemów komputerowych Cezary Bolek Katedra

Bardziej szczegółowo

IBM PureSystems Czy to naprawdę przełom w branży IT?

IBM PureSystems Czy to naprawdę przełom w branży IT? IBM PureSystems Czy to naprawdę przełom w branży IT? Krzysztof Rozanka Pure Systems, Poland & Baltics k.rozanka@pl.ibm.com kom. 693 93 51 42 IBM Polska 2 3 Zintegrowane systemy eksperckie 4 Infrastructure

Bardziej szczegółowo

Presented by. Dr. Morten Middelfart, CTO

Presented by. Dr. Morten Middelfart, CTO Meeting Big Data challenges in Leadership with Human-Computer Synergy. Presented by Dr. Morten Middelfart, CTO Big Data Data that exists in such large amounts or in such unstructured form that it is difficult

Bardziej szczegółowo

POLITYKA PRYWATNOŚCI / PRIVACY POLICY

POLITYKA PRYWATNOŚCI / PRIVACY POLICY POLITYKA PRYWATNOŚCI / PRIVACY POLICY TeleTrade DJ International Consulting Ltd Sierpień 2013 2011-2014 TeleTrade-DJ International Consulting Ltd. 1 Polityka Prywatności Privacy Policy Niniejsza Polityka

Bardziej szczegółowo

PORTS AS LOGISTICS CENTERS FOR CONSTRUCTION AND OPERATION OF THE OFFSHORE WIND FARMS - CASE OF SASSNITZ

PORTS AS LOGISTICS CENTERS FOR CONSTRUCTION AND OPERATION OF THE OFFSHORE WIND FARMS - CASE OF SASSNITZ Part-financed by EU South Baltic Programme w w w. p t m e w. p l PROSPECTS OF THE OFFSHORE WIND ENERGY DEVELOPMENT IN POLAND - OFFSHORE WIND INDUSTRY IN THE COASTAL CITIES AND PORT AREAS PORTS AS LOGISTICS

Bardziej szczegółowo

klikamy Next 4. Wybieramy zgodność z systemem Virtual Machine hardware compatibility z listy zaznaczamy Workstation 6 Next 5.

klikamy Next 4. Wybieramy zgodność z systemem Virtual Machine hardware compatibility z listy zaznaczamy Workstation 6 Next 5. Instalacja Novell NetWare 5 przygotowanie do instalacji 1. Włożyć płytę do napędu 2. Wybieramy New Virtual Machine ( uruchamiamy ją) 3. Wybieramy typ instalacji Custom (what type of configuration do you

Bardziej szczegółowo

No matter how much you have, it matters how much you need

No matter how much you have, it matters how much you need CSR STRATEGY KANCELARIA FINANSOWA TRITUM GROUP SP. Z O.O. No matter how much you have, it matters how much you need Kancelaria Finansowa Tritum Group Sp. z o.o. was established in 2007 we build trust among

Bardziej szczegółowo

Home Software Hardware Benchmarks Services Store Support Forums About Us

Home Software Hardware Benchmarks Services Store Support Forums About Us Shopping cart Search Home Software Hardware Benchmarks Services Store Support Forums About Us Home» CPU Benchmarks» CPU List CPU Benchmarks Video Card Benchmarks Hard Drive Benchmarks RAM PC Systems Android

Bardziej szczegółowo

How to share data from SQL database table to the OPC Server? Jak udostępnić dane z tabeli bazy SQL do serwera OPC? samouczek ANT.

How to share data from SQL database table to the OPC Server? Jak udostępnić dane z tabeli bazy SQL do serwera OPC? samouczek ANT. Jak udostępnić dane z tabeli bazy SQL do serwera OPC? samouczek ANT How to share data from SQL database table to the OPC Server? ANT tutorial Krok 1: Uruchom ANT Studio i dodaj do drzewka konfiguracyjnego

Bardziej szczegółowo

5 nines. - czyli jak osiągnąć większą dostępność dzięki VMware i Metro Storage Cluster

5 nines. - czyli jak osiągnąć większą dostępność dzięki VMware i Metro Storage Cluster 5 nines - czyli jak osiągnąć większą dostępność dzięki VMware i Metro Storage Cluster Agenda Paweł Wieczorek Vmware Consultant; 8 lat w IT, 3 lata w Capgemini; Projektowane i wdrażanie nowych środowisk

Bardziej szczegółowo

Marzena Kanclerz. Microsoft Channel Executive. Zachowanie ciągłości procesów biznesowych. z Windows Server 2012R2

Marzena Kanclerz. Microsoft Channel Executive. Zachowanie ciągłości procesów biznesowych. z Windows Server 2012R2 Marzena Kanclerz Microsoft Channel Executive Zachowanie ciągłości procesów biznesowych z Windows Server 2012R2 Rejestracja urządzenia w usłudze Company Portal dająca dostęp do aplikacji firmowych

Bardziej szczegółowo

Exalogic platforma do aplikacji Oracle i Middleware. Jakub Połeć Business Development Manager CE

Exalogic platforma do aplikacji Oracle i Middleware. Jakub Połeć Business Development Manager CE Exalogic platforma do aplikacji Oracle i Middleware Jakub Połeć Business Development Manager CE 2011 Oracle Corporation The following is intended to outline our general product direction. It is intended

Bardziej szczegółowo

Nowoczesne technologie przetwarzania informacji

Nowoczesne technologie przetwarzania informacji Projekt Nowe metody nauczania w matematyce Nr POKL.09.04.00-14-133/11 Nowoczesne technologie przetwarzania informacji Mgr Maciej Cytowski (ICM UW) Lekcja 2: Podstawowe mechanizmy programowania równoległego

Bardziej szczegółowo

OPISY KURSÓW. Nazwa kursu: PROGRAMOWANIE SYSTEMÓW ROZPROSZONYCH NA BAZIE STE- ROWNIKÓW PLC. Język wykładowy: polski

OPISY KURSÓW. Nazwa kursu: PROGRAMOWANIE SYSTEMÓW ROZPROSZONYCH NA BAZIE STE- ROWNIKÓW PLC. Język wykładowy: polski OPISY KURSÓW Kod kursu: MCR40 Nazwa kursu: PROGRAMOWANIE SYSTEMÓW ROZPROSZONYCH NA BAZIE STE- ROWNIKÓW PLC Język wykładowy: polski Forma kursu Wykład Ćwiczenia Laboratorium Projekt Seminarium Tygodniowa

Bardziej szczegółowo

Home Software Hardware Benchmarks Services Store Support Forums About Us

Home Software Hardware Benchmarks Services Store Support Forums About Us Pass - CPU Benchmarks - List of Benchmarked CPUs Shopping cart Search Home Software Hardware Benchmarks Services Store Support Forums About Us Home» CPU Benchmarks» CPU List CPU Benchmarks Video Card Benchmarks

Bardziej szczegółowo

Wdrożenie skalowalnego systemu plików GlusterFS w serwisach Gratka.pl. Łukasz Jagiełło l.jagiello@gratka-technologie.pl

Wdrożenie skalowalnego systemu plików GlusterFS w serwisach Gratka.pl. Łukasz Jagiełło l.jagiello@gratka-technologie.pl Wdrożenie skalowalnego systemu plików GlusterFS w serwisach Gratka.pl Łukasz Jagiełło l.jagiello@gratka-technologie.pl Po co nam storage? Po co nam storage? Co mamy do dyspozycji? Co mamy do dyspozycji?

Bardziej szczegółowo

PROGRAM STAŻU. Nazwa podmiotu oferującego staż / Company name IBM Global Services Delivery Centre Sp z o.o.

PROGRAM STAŻU. Nazwa podmiotu oferującego staż / Company name IBM Global Services Delivery Centre Sp z o.o. PROGRAM STAŻU Nazwa podmiotu oferującego staż / Company name IBM Global Services Delivery Centre Sp z o.o. Miejsce odbywania stażu / Legal address Muchoborska 8, 54-424 Wroclaw Stanowisko, obszar działania/

Bardziej szczegółowo

Przełą. łączniki Ethernetowe

Przełą. łączniki Ethernetowe Przełą łączniki Ethernetowe proste przełą zarządzalne przełą zarządzalne przełą zarządzalne przełą łączniki Layer 3+ łączniki Layer 2+ łączniki Layer 2 łączniki niezarządzalne Layer 2 Przełą łączniki ethernetowe

Bardziej szczegółowo

Why choose No Hau Studio?

Why choose No Hau Studio? Why choose No Hau Studio? We ve been perfecting our skills for over 10 years. Branding and Communications are the core of our activities. B2B is our speciality. Customer s Satisfaction is our priority.

Bardziej szczegółowo

Jarosław Stępień Principal Sales Consultant

<Insert Picture Here> Jarosław Stępień Principal Sales Consultant Współdzielenie usług pomiędzy jednostkami w administracji publicznej Jarosław Stępień Principal Sales Consultant Oracle PLATFORMA EXA* CLOUD Klasy chmur: IaaS, PaaS, SaaS Software

Bardziej szczegółowo

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009

High Performance Computers in Cyfronet. Andrzej Oziębło Zakopane, marzec 2009 High Performance Computers in Cyfronet Andrzej Oziębło Zakopane, marzec 2009 Plan Podział komputerów dużej mocy Podstawowe informacje użytkowe Opis poszczególnych komputerów Systemy składowania danych

Bardziej szczegółowo

HPC na biurku. Wojciech De bski

HPC na biurku. Wojciech De bski na biurku Wojciech De bski 22.01.2015 - co to jest? High Performance Computing most generally refers to the practice of aggregating computing power in a way that delivers much higher performance than one

Bardziej szczegółowo

USB 306/307 Modem. Quick Start Guide Pierwsze kroki. www.sierrawireless.com

USB 306/307 Modem. Quick Start Guide Pierwsze kroki. www.sierrawireless.com USB 306/307 Modem Quick Start Guide Pierwsze kroki www.sierrawireless.com Welcome to the USB 306/307 modem Your package contains: USB 306/307 modem with TRU-Install This Quick Start Guide USB extension

Bardziej szczegółowo

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian 1 / 14 Content list / Spis Treści 1. Hardware and software requirements, preparing device to upgrade Wymagania sprzętowe i programowe, przygotowanie urządzenia do aktualizacji 2. Installing drivers and

Bardziej szczegółowo

Storage funkcje macierzy. Piotr Sitek

Storage funkcje macierzy. Piotr Sitek Storage funkcje macierzy Piotr Sitek O czym dzisiaj powiemy Dzisiejsze wyzwania związane z danymi Wybrane funkcje macierzy CacheProtector, Redundant Copy, Data Block Guard, RAID Migration, Automated Data

Bardziej szczegółowo

Bezpieczna infrastruktura IT może być wirtualna

Bezpieczna infrastruktura IT może być wirtualna Bezpieczna infrastruktura IT może być wirtualna Sun Blade Modular System + VMware Michał Małka Field Application Engineer DNS Polska Sp. z o.o. Źródła przestojów 2 Źródła przestojów 3 Źródła przestojów

Bardziej szczegółowo

Proces certyfikowania aplikacji na platformie PureSystems. Rafał Klimczak Lab Services Consultant

Proces certyfikowania aplikacji na platformie PureSystems. Rafał Klimczak Lab Services Consultant Proces certyfikowania aplikacji na platformie PureSystems Rafał Klimczak Lab Services Consultant Produkty Pure Systems w IBM Rodziny produktów IBM: System z Freedom through design Eksperckie systemy zintegrowane:

Bardziej szczegółowo

Architektura von Neumanna. Jak zbudowany jest współczesny komputer? Schemat architektury typowego PC-ta. Architektura PC wersja techniczna

Architektura von Neumanna. Jak zbudowany jest współczesny komputer? Schemat architektury typowego PC-ta. Architektura PC wersja techniczna Architektura von Neumanna CPU pamięć wejście wyjście Jak zbudowany jest współczesny komputer? magistrala systemowa CPU jednostka centralna (procesor) pamięć obszar przechowywania programu i danych wejście

Bardziej szczegółowo

Advanced Internet Information Services Management (IIS 8)

Advanced Internet Information Services Management (IIS 8) Advanced Internet Information Services Management (IIS 8) Warsztat autorski Pauli Januszkiewicz (4 dni, 28 godzin lekcyjnych) Paula Januszkiewicz ekspert ds. bezpieczeństwa infrastruktury IT. Jako jedna

Bardziej szczegółowo

Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading)

Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading) Aktualizacja Oprogramowania Firmowego (Fleszowanie) Microprocessor Firmware Upgrade (Firmware downloading) ROGER sp.j. Gościszewo 59 82-416 Gościszewo Poland tel. 055 2720132 fax 055 2720133 www.roger.pl

Bardziej szczegółowo

Steps to build a business Examples: Qualix Comergent

Steps to build a business Examples: Qualix Comergent How To Start a BUSINESS Agenda Steps to build a business Examples: Qualix Comergent 1 Idea The Idea is a Piece of a Company 4 2 The Idea is a Piece of a Company Investing_in_New_Ideas.wmv Finding_the_Problem_is_the_Hard_Part_Kevin

Bardziej szczegółowo

24 GE with 4 Shared SFP Web Smart Switch

24 GE with 4 Shared SFP Web Smart Switch GES-2451 Wersja: 1 24 GE with 4 Shared SFP Web Smart Switch LevelOne GES-2451 is a powerful, high-performance Gigabit Ethernet switch with 24 10/100/1000Mbps ports shared 4 SFP(mini GBIC) ports, providing

Bardziej szczegółowo

Unit of Social Gerontology, Institute of Labour and Social Studies ageing and its consequences for society

Unit of Social Gerontology, Institute of Labour and Social Studies ageing and its consequences for society Prof. Piotr Bledowski, Ph.D. Institute of Social Economy, Warsaw School of Economics local policy, social security, labour market Unit of Social Gerontology, Institute of Labour and Social Studies ageing

Bardziej szczegółowo

EMBEDDED LINUX ON ARM9 CORE EMBEDDED LINUX NA PROCESORACH Z RODZINY ARM9

EMBEDDED LINUX ON ARM9 CORE EMBEDDED LINUX NA PROCESORACH Z RODZINY ARM9 Marcin Stanowski V rok Koło Techniki Cyfrowej dr inż. Wojciech Mysiński opiekun naukowy EMBEDDED LINUX ON ARM9 CORE EMBEDDED LINUX NA PROCESORACH Z RODZINY ARM9 Keywords: embedded, operating system, linux,

Bardziej szczegółowo

Wprowadzenie. System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer.

Wprowadzenie. System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. Wprowadzenie System rozproszony jest kolekcją niezależnych, autonomicznych komputerów, które dla użytkownika prezentują się jak jeden komputer. ożna wyróżnić dwa aspekty tej definicji: sprzętowy komputery

Bardziej szczegółowo

PROGRAM STAŻU. IBM Global Services Delivery Centre Sp z o.o. Nazwa podmiotu oferującego staż / Company name. Muchoborska 8, 54-424 Wroclaw

PROGRAM STAŻU. IBM Global Services Delivery Centre Sp z o.o. Nazwa podmiotu oferującego staż / Company name. Muchoborska 8, 54-424 Wroclaw PROGRAM STAŻU Nazwa podmiotu oferującego staż / Company name IBM Global Services Delivery Centre Sp z o.o. Miejsce odbywania stażu / Legal address Muchoborska 8, 54-424 Wroclaw Stanowisko, obszar działania/

Bardziej szczegółowo

PassMark - CPU Benchmarks - List of Benchmarked CPUs

PassMark - CPU Benchmarks - List of Benchmarked CPUs Pass - CPU Benchmarks - List of Benchmarked CPUs Strona 1 z 32 Shopping cart Search Home Software Hardware Benchmarks Services Store Support Forums About Us Home» CPU Benchmarks» CPU List CPU Benchmarks

Bardziej szczegółowo

Architektury równoległe

Architektury równoległe Architektury równoległe Interdyscyplinarne Centrum Modelowania Matematycznego i Komputerowego Uniwersytet Warszawski http://www.icm.edu.pl Maciej Szpindler m.szpindler@icm.edu.pl Bartosz Borucki b.borucki@icm.edu.pl

Bardziej szczegółowo

I webinarium 18.02.2015

I webinarium 18.02.2015 I webinarium 18.02.2015 Współfinansowany ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Współpracy Transgranicznej Republika Czeska - Rzeczpospolita Polska 2007-2013.

Bardziej szczegółowo

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian

USB firmware changing guide. Zmiana oprogramowania za przy użyciu połączenia USB. Changelog / Lista Zmian 1 / 8 Content list / Spis Treści 1. Hardware and software requirements, preparing device to upgrade Wymagania sprzętowe i programowe, przygotowanie urządzenia do aktualizacji 2. Installing drivers and

Bardziej szczegółowo

A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY

A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY A DIFFERENT APPROACH WHERE YOU NEED TO NAVIGATE IN THE CURRENT STREAMS AND MOVEMENTS WHICH ARE EMBEDDED IN THE CULTURE AND THE SOCIETY ODMIENNE PODEJŚCIE JAK NAWIGOWAĆ W OBECNYCH NURTACH I RUCHACH, KTÓRE

Bardziej szczegółowo

Serwery IBM System x i DS3000 jako rozwiązania uzupełniające się

Serwery IBM System x i DS3000 jako rozwiązania uzupełniające się IBM Systems & Technology Group Serwery IBM System x i DS3000 jako rozwiązania uzupełniające się Jacek Goździk Storage Channel Development Specialist OUT WITH COMPLEXITY. OUT WITH INEFFICIENCY. OUT WITH

Bardziej szczegółowo

Komp m u p t u ery w bu b d u o d wane Cezary Ziółkowski

Komp m u p t u ery w bu b d u o d wane Cezary Ziółkowski Komputery wbudowane Cezary Ziółkowski Agenda Komputery wbudwane MOXA Platforma RCore oraz oprogramowanie Moxa Device Manager Podsumowanie Komputery wbudowane MOXA Komputery wbudowane MOXA Seria DA-660

Bardziej szczegółowo

Brief description of the paper/report. Chain 90% 10% District

Brief description of the paper/report. Chain 90% 10% District Brief description of the paper/report Item Identification Card (IIC) Process Structure Design Produce Deliver Analyse and Understand Chain 90% 10% District Argument Supply Chain Planning Process. Proces

Bardziej szczegółowo

Technologie wirtualizacyjne na platformie Red Hat. Artur Głogowski aglogowski@atom-tech.pl

Technologie wirtualizacyjne na platformie Red Hat. Artur Głogowski aglogowski@atom-tech.pl Technologie wirtualizacyjne na platformie Red Hat Artur Głogowski aglogowski@atom-tech.pl Atom-tech sp. z o.o. Najbardziej zaawansowany technologicznie Red Hat Advanced Business Partner: Technologie klastrowe

Bardziej szczegółowo

IEEE 1284 - Centronics

IEEE 1284 - Centronics IEEE 1284 - Centronics Interfejs Centronics w wersji oryginalnej - łącze jednokierunkowe przesyłające informacje od komputera do drukarki przeznaczony jedynie do tego zadania, co wynikało z braku potrzeby

Bardziej szczegółowo

Projekt: Mikro zaprogramowane na sukces!

Projekt: Mikro zaprogramowane na sukces! Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego Projekt: Mikro zaprogramowane na sukces! Opis autoryzowanych szkoleń Oracle planowanych do realizacji w ramach

Bardziej szczegółowo

dr inż. Jarosław Forenc

dr inż. Jarosław Forenc Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia stacjonarne I stopnia Rok akademicki 2012/2013 Wykład nr 4 (20.03.2013) Rok akademicki 2012/2013, Wykład

Bardziej szczegółowo

Goodman Poznań Airport Logistics Centre 16,734 sqm warehouse space available as from Q3 2016. Best placed for business+

Goodman Poznań Airport Logistics Centre 16,734 sqm warehouse space available as from Q3 2016. Best placed for business+ Goodman Poznań Airport 16,734 sqm warehouse space available as from Q3 2016. Best placed for business Goodman Poznań Airport ul. Batorowska 35, 62-081 Wysogotowo, Poznań Najlepsze miejsce dla biznesu Goodman

Bardziej szczegółowo

Konfiguracje wysokiej dostępności

Konfiguracje wysokiej dostępności Konfiguracje wysokiej dostępności Wysoka niezawodność - ochrona systemu ( protect the system ) - HA - Klastry wysokiej niezawodności Ochrona organizacji ( protect the organization ) - rozdział geograficzny

Bardziej szczegółowo

Instrukcja konfiguracji usługi Wirtualnej Sieci Prywatnej w systemie Mac OSX

Instrukcja konfiguracji usługi Wirtualnej Sieci Prywatnej w systemie Mac OSX UNIWERSYTETU BIBLIOTEKA IEGO UNIWERSYTETU IEGO Instrukcja konfiguracji usługi Wirtualnej Sieci Prywatnej w systemie Mac OSX 1. Make a new connection Open the System Preferences by going to the Apple menu

Bardziej szczegółowo

Backup i Storage w jednym stali domu..." - macierze dyskowe, kopie zapasowe i problemy z tym związane

Backup i Storage w jednym stali domu... - macierze dyskowe, kopie zapasowe i problemy z tym związane Backup i Storage w jednym stali domu" - macierze dyskowe, kopie zapasowe i problemy z tym związane O mnie Krzysztof Podobiński Infrastructure/ ware Consultant 0 lat doświadczenia w IT 4 lata w Capgemini

Bardziej szczegółowo

www.investor.netia.pl Netia Network Infrastructure

www.investor.netia.pl Netia Network Infrastructure www.investor.netia.pl Netia Network Infrastructure Backbone Fiber Optics Infrastructure Backbone FO length 5000km 7 and 8 duct pipe standard in the backbone Minimum 6 duct pipe free resources in all most

Bardziej szczegółowo

CENNIK I TERMINARZ SZKOLEŃ

CENNIK I TERMINARZ SZKOLEŃ NR KURSU MS 2261 MS 2262 MS 2261 + MS 2262 MS 2272 MS 2273 MS 2274 MS 2275 MS 2276 + MS 2277 MS 2278 MS 2279 MS 2282 MS 2285 MS 2297 MS 2299 MS 6416 MS 6417 CENNIK I TERMINARZ SZKOLEŃ SZKOLENIA TECHNICZNE

Bardziej szczegółowo

KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy KATOWICE SPECIAL ECONOMIC ZONE - GLIWICE SUBZONE

KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy KATOWICE SPECIAL ECONOMIC ZONE - GLIWICE SUBZONE KATOWICE SPECIAL ECONOMIC ZONE GLIWICE SUBZONE and its influence on local economy Definition: WHAT DOES THE SPECIAL ECONOMIC ZONE MEAN? THE SPECIAL ECONOMIC ZONE IS THE SEPERATED AREA WITH ATTRACTIVE TAX

Bardziej szczegółowo

Addressing the Network IPv4

Addressing the Network IPv4 Addressing the Network IPv4 Network Fundamentals Chapter 6 Version 4.0 1 Objectives Explain the structure IP addressing and demonstrate the ability to convert between 8-bit binary and decimal numbers.

Bardziej szczegółowo

Terminarz Szkoleń II kwartał 2013 ACTION CE

Terminarz Szkoleń II kwartał 2013 ACTION CE Terminarz Szkoleń II kwartał 2013 ACTION CE Kod Nazwa szkolenia Czas trwania [h] Data rozpoczęcia W-wa Data rozpoczęcia Poznań Cena katalogow a netto* Cena netto w programie Rabatka** SYSTEMY OPERACYJNE

Bardziej szczegółowo