Cluster Plan
Hardware
Vorhanden:
Compute Nodes 16 Server, je:
- 2 Nodes, mit je 2 quadcore CPUs E5530
- Strom pro Node ~400W Volllast, Power Unit 770W pro Node
- Formfaktor 19 Zoll, 80cm Tiefe im Schrank nötig
- Server: Asus RS700D-E6/PS8
- Mainboard: Z8NH-D12
- 1x x16 PCIe2.0 low profile,
- 12x DDR3 RAM slots, 6x4GB RDIMM 10600R Belegt
- InfiniBand 20Gbit
- 2x 1Gbit ethernet
- 100mbps management port
- 3 Lüfter
- 4x 2.5 Slots
Login Nodes
- 1 Login Server mit 2 Nodes, wie compute nodes
Ethernet Switch
- 1 HE
- 2x 48Gbit Switch vorhanden (48x 1Gbps Ports)
Infiniband Switch
- 1 HE Mellanox MTS3600
- 36 Infiniband Ports QSFP
Storage Server
- 2 HE
- 12x 2.5 Zoll Slots
- 18x DDR3 RAM, 3x triple channel
- 2 CPU Sockel E5640
Benötigt:
Netzwerkschrank
- Ebay Angebot, 320€
- Oder im ZIH vorhanden
Stromversorgung
- Power Distribution Unit PDU von 32A Starkstrom
Optional:
- Xilinx Artix-7 FPGA ~8 vorhanden (nur Chip, müsste abgelötet werden) XC7A15T
- Per node SSD storage
Software
SLURM
- Als HPC System
- Wiki
Proxmox
- Login Nodes mit Proxmox
- Storage Node mit Proxmox
- Proxmox Cluster/Quorum mit 2x Login 1x Storage Server
Linux Distro
- NixOS pro Server Node
Description