2025-02-12 14:39:15 +01:00
2025-02-12 14:39:15 +01:00

Cluster Plan

Hardware

Vorhanden:

Compute Nodes 16 Server, je:

  • 2 Nodes, mit je 2 quadcore CPUs E5530
  • Strom pro Node ~400W Volllast, Power Unit 770W pro Node
  • Formfaktor 19 Zoll, 80cm Tiefe im Schrank nötig
  • Server: Asus RS700D-E6/PS8
  • Mainboard: Z8NH-D12
    • 1x x16 PCIe2.0 low profile,
    • 12x DDR3 RAM slots, 6x4GB RDIMM 10600R Belegt
    • InfiniBand 20Gbit
    • 2x 1Gbit ethernet
    • 100mbps management port
    • 3 Lüfter
    • 4x 2.5 Slots

Login Nodes

  • 1 Login Server mit 2 Nodes, wie compute nodes

Ethernet Switch

  • 1 HE
  • 2x 48Gbit Switch vorhanden (48x 1Gbps Ports)

Infiniband Switch

  • 1 HE Mellanox MTS3600
  • 36 Infiniband Ports QSFP

Storage Server

  • 2 HE
  • 12x 2.5 Zoll Slots
  • 18x DDR3 RAM, 3x triple channel
  • 2 CPU Sockel E5640

Benötigt:

Netzwerkschrank

Stromversorgung

  • Power Distribution Unit PDU von 32A Starkstrom

Optional:

Software

SLURM

  • Als HPC System
  • Wiki

Proxmox

  • Login Nodes mit Proxmox
  • Storage Node mit Proxmox
  • Proxmox Cluster/Quorum mit 2x Login 1x Storage Server

Linux Distro

  • NixOS pro Server Node
Description
Planung für den TL-Cluster
Readme 34 KiB