Typ
Computenodes + CPU | SMP-Cluster: 18 Computenodes * 16way/16 CPU-Cores = insges. 288 CPU-Cores
(--> 18*Sun-X4600 M2/ 16 AMD Opteron CPU Cores/8 Dual Cores/64bit Cores /2,6GHz/8218/REVF=288 Opteron-Cores) |
Leistung Cluster insges. (288CPU-Cores: 18*16way SMP nodes)
| theor. Peak:
= 1497,6 GFLOPs = 1,4625 TFLOPs
HPLinpack 1.0a (gemessen auf System in Halle 03/07):
= 1072,87 GFLOPs = 1,04773TFLOPs |
für 64CPU-Cores:
(4*16way SMP-nodes) | theor. Peak:
= 332,8GFLOPs = 0,325TFLOPs
HPLinpack 1.0a (gemessen auf System in Halle 03/07):
= 256 GFLOPs = 0,25 TFLOPs |
für 16 CPU-Cores:
(1*16way SMP-nodes) | theor. Peak:
= 83,2 GFLOPs =0,081 TFLOPs
HPLinpack 1.0a (gemessen auf System in Halle 03/07):
= 71,68 GFLOPs = 0,07TFLOPs |
Memory:
(Computenodes) | 14*32GB + 2*64GB + 2*128GB = 832GB (DDR2/667) |
Cache pro CPU-Core | L1=64K/64K L2=1MB |
Clusterinterne Fileserver | |
2* SUN-X4500 | je X4500: 4*AMD Opteron Cores/2,4GHz + 16GB Memory (nutzbar als Disk/Raid-Cache) |
Disk | je X4500: 6 SATA Controller, 48*500GB SATA Disk/7200 RPM = 24TB Disk Kapazität Brutto |
Kommunikation im 16way SMP-Node (SUNX4600) | |
Kopplung der CPU im SMP-Node
(Bandbreite) | Hyper Transport speed (Opteron) = (1Ghz/)8GB/s * 8(Dual Core) = 64GB/s bidirectional = 512 Gbit/s bidirectional |
Latenz | 100 ns Memory Latenz |
Kommunikation im Cluster (zwischen den SMP-Nodes) |
MPI-Parallelisierung zwischen den SMP-Nodes + NFS | via Infiniband/Voltaire 2*24 Porte Switch:
pro Computenode/X4600: 2*IB/DDR2 (2*20GBbits/s)
pro Fileservernode/X4500: 1*IB/DDR1 (1*10Gbit/s) |
Sun Grid Engine (sge) + ssh | via GEthernet 24 Port Switch/Nortel:
pro Compute-/Fileservernode: 1*GEthernet |
Management-Cluster
(SUN-N1) | via 100 Base T-Switch/Nortel:
zwischen Systemcontroller pro Compute-/Filservernode
und Managementstation (SUN-X4100)/SUN-N1 |
externe Kommunikation
ssh login (Loginserver)
| via 3*GEthernet Cluster-UNI (LAN) |