Ok dann waren mit Nodes also Knoten gemeint.
Bezüglich Kernanzahl sind das meine Erfahrungen:
- für den JCG Solver (thermal, Magnetfelder etc.) Vermutlich ist SBR Solver (HFSS) hier ebenfalls einzuordnen.
Ein simpler Achtkerner und einen GPU Beschleuniger, vorzugsweise Tesla und co mit viel Vram. Acht Kerne wegen den GPU Overhead. Schlägt einen Viel- Kerner, z.B. 32 Kerne und höher bei weitem. Und ist sparsam im Verbrauch, der GPU Beschleuniger wird nur wenig bis mittelmäßig ausgelastet.
- für den PCG Solver (der iterative für lineare Strukturmechanik etc.)
Einen 32 Kerner und mehr, wichtig ist dass die Kernanzahl weder durch Multisockel noch Cluster mit Infiniband zusammen kommen. Die Interlink CPU CPU Verbindung büßt bis zu 30% Verlust ein, bei Infiniband vermutlich etwas mehr.
- für den wohl meist genutzen Solver ( der direkte für nicht lineare Strukturmechanik etc.)
Ein simpler Sechskerner mit einem geringen Verbrauch. Zum einen skaliert dieser Solver überhaupt nicht bis kaum mit der Kernanzahl. Zum anderen erhöhet die Kernanzahl nur unnötig den in core RAM Bedarf. Ein CPU mit 32 Kernen benötigt für die selbe DOF Anzahl z.B. 512 GB RAM wärend dem Sechskerner nur 128 GB RAM reichen.
Von daher lieber mehrere Knoten mit weniger Kernen bzw. virtuelle Server.
[Diese Nachricht wurde von Duke711 am 12. Feb. 2020 editiert.]
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP