Autor
|
Thema: Abaqus 6.11 auf GPU rechnen (5879 mal gelesen)
|
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 08. Jun. 2011 15:33 <-- editieren / zitieren --> Unities abgeben:
Hallo, um einen Vergleich zu erstellen habe ich mir einen 3D Balken erstellt, ihn auf der einen Seite eingespannt und auf der anderen Seite eine Surface traction angehängt. Das ganze so vernetzt, dass ca. 350.000 Elemente rauskamen (quadr. tetra). Seit 2 Stunden rechnet er jetzt auf einer CPU (Intel Xeon X5355) + der GPU (NV Quadro FX3500) - mehr Tokens habe ich nicht! Bin selbst auf die Ergebnisse gespannt. Hat sonst noch jemand Erfahrungen mit GPU-Rechnungen gemacht? Laut Simulia lohnt es sich erst richtig ab 1Mio FG. [Diese Nachricht wurde von sakaguchinet am 08. Jun. 2011 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 23. Apr. 2012 15:19 <-- editieren / zitieren --> Unities abgeben:
Hallo, mittlerweile habe ich herausgefunden (Danke an den Abaqus Support), dass im grunde genommen jede Grafikkarte mit der Cuda Spezifikation "Compute Capability 2.0" oder besser mit Abaqus geeignet ist. Hierzu zählen neben der Tesla C2075 und C2070 auch die Quadro 6000, 5000, 4000, 2000 und 600. Somit sollte eigentlich auch eine GeForce GTX 460 oder besser funktionieren. Eine Übersicht über die Compute Capability Spezifikationen gibt es auf der Nvidia Webseite (http://www.nvidia.de/object/cuda_gpus_de.html) Werde die Tage einige Vergleichsrechnungen durchführen um zu sehen, was eine Quadro 4000 mit einem Xeon X5647 so machen kann. Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
christophus Mitglied Fahrzeugtechnikstudent
Beiträge: 18 Registriert: 14.11.2011 CATIA V5 R19 ANSYS 13.0.0 SP2 ABAQUS/CAE 6.11-3
|
erstellt am: 24. Apr. 2012 16:10 <-- editieren / zitieren --> Unities abgeben: Nur für sakaguchinet
|
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 24. Apr. 2012 16:24 <-- editieren / zitieren --> Unities abgeben:
Hallo, im Abaqus CAE lässt sich die Option GPU gar nicht aktivieren! Man muss es also per Batch File "befehlen": Da ich nur insgesamt 6 Tokens habe steht bei mir im Batch file: (5 Tokens brauche ich für die erste CPU, einen weiteren für die GPU) call abaqus job=[Dateiname der INP-Datei ohne .inp] cpus=1 gpu=nvidia inter Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
christophus Mitglied Fahrzeugtechnikstudent
Beiträge: 18 Registriert: 14.11.2011 CATIA V5 R19 ANSYS 13.0.0 SP2 ABAQUS/CAE 6.11-3
|
erstellt am: 24. Apr. 2012 17:24 <-- editieren / zitieren --> Unities abgeben: Nur für sakaguchinet
|
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 25. Apr. 2012 08:29 <-- editieren / zitieren --> Unities abgeben:
Hallo, die Benutzung des GPGPU Solvers benötigt nur einen Token (Vorraussetzung Abaqus 6.11 + GPGPU mit mind. Compute Capability 2.0). Wenn du nur 12 Tokens hast, musst du die CPUs manuell begrenzen, damit der noch einen Token für die GPU frei hat. Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
christophus Mitglied Fahrzeugtechnikstudent
Beiträge: 18 Registriert: 14.11.2011 CATIA V5 R19 ANSYS 13.0.0 SP2 ABAQUS/CAE 6.11-3
|
erstellt am: 25. Apr. 2012 09:41 <-- editieren / zitieren --> Unities abgeben: Nur für sakaguchinet
Gute Morgen, also Token sind ausreichend verfügbar. Aber das Problem liegt wohl darin, dass die GPU-Funktion nur von Abaqus/Standard unterstützt wird. Meine erste Rechnung war nämlich explizit. Beim Ausprobieren mit einer Standard Rechnung wurde dann ein Token mehr für die GPU gezogen. Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 25. Apr. 2012 11:30 <-- editieren / zitieren --> Unities abgeben:
Hallo, stimmt, und es ist auf den direct sparse solver begrenzt (also nicht iterativ). Weiterhin nur für symmetrische Matrizen und auch nur unter 64bit. In den Release Notes unter 3.1 steht es geschrieben. Es soll wohl auch mit einigen ATI Karten gehen, habe aber keine Möglichkeit dies auszuprobieren. Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
sakaguchinet Mitglied
Beiträge: 31 Registriert: 18.05.2010 Abaqus 6.11, Python 3.1
|
erstellt am: 30. Apr. 2012 07:52 <-- editieren / zitieren --> Unities abgeben:
Hallo, habe nun einige Ergebnisse vorliegen. Jeweils auf einer CPU + GPU oder nur auf 2x CPU gerechnet: Job / Wallclock GPU [s] / Wallclock CPU [s] / Total Numbers of Variables Static General, Deformation / 57937 / 29656 / 2,2M Complex Eigenfrequency Extraction / 6011 / 4764 / 1,1M Static General, Deformation / 885 / 464 / 380k Nun wundert mich, warum die GPU langsamer als die beiden CPUs rechnet. In Benchmarks wird immer mindestens mit 2 CPUs + einer GPU gerechnet. Diese Möglichkeit habe ich wie oben erwähnt leider nicht. Werde nochmal den Treiber prüfen, dann im BIOS schauen, ob etwas falsch eingestellt ist (ist eine Dell OEM T5500 Maschine). Noch etwas woran es liegen könnte? Nochmal zur Wiederholung: eine Quad-Core CPU Intel Xeon X5647 @ 2,93GHz eine Nvidia Quadro 4000 2GB Insgesamt 6 Analyse Tokens Edit: Ich werde das Gefühl nicht los, dass ich bei den GPU-Berechnungen gar nicht auf der GPU sondern nur auf einer CPU gerechnet habe... Werde mal alle MSG Files checken... [Diese Nachricht wurde von sakaguchinet am 30. Apr. 2012 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |