Autor
|
Thema: Code Saturne - Error (1348 mal gelesen)
|
chrisman Mitglied Dipl.-Ing. Maschinenbau - Konstruktionsleiter
Beiträge: 356 Registriert: 07.07.2011 Inventor 2018 Win7Pro64Bit Z440 Workstation
|
erstellt am: 01. Jul. 2013 15:19 <-- editieren / zitieren --> Unities abgeben:
Hallo ihr, also als allererstes muss ich hier einmal ein Lob loswerden! CAELinux ist wirklich Klasse! Ich habe schon ein paar Tutorials durchgerechnet und finde wirklich das einem hier viele Möglichkeiten geboten werden auch ohne viel Geld in die Hand zu nehmen eine solide FEM - Berechnung durchzuführen! Ich hoffe das liest einer der Macher! Wie schon geschrieben habe ich schon ein paar Tutorials durchgespielt und komme jetzt aber bei dem Code Saturne nicht weiter. Ich habe jetzt einmal eine eigene kleine Berechnung gestartet und bin aber nach dem Tutorial vorgegangen. Hat auch alles ganz gut geklappt, bis zu dem Punkt, wo man aufs "Knöpfchen" drückt. Er rechnet erstmal beendet die Rechnung aber mit einem ERROR und zwar wie folgend: Code: Code_Saturne is running *********************** Working directory (to be periodically cleaned) : /home/petzold/tmp_Saturne/BODENABSAUGUNG3.CASE1.07011508 Kernel version: /opt/saturne-2.0.2/cs-2.0 Preprocessor: /opt/saturne-2.0.2/cs-2.0/bin ******************************************** Preparing calculation ******************************************** ******************************************** Starting calculation ********************************************
Warning: /opt/saturne-2.0.2/cs-2.0/bin/cs_partition not found. The partitioner may not have been installed (this is the case if neither METIS nor. SCOTCH are avaialable). Unoptimized partitioning will be used, so parallel performance may be degraded. -------------------------------------------------------------------------- MPI_ABORT was invoked on rank 1 in communicator MPI_COMM_WORLD with errorcode 1. NOTE: invoking MPI_ABORT causes Open MPI to kill all MPI processes. You may or may not see output from other processes, depending on exactly when Open MPI kills them. -------------------------------------------------------------------------- -------------------------------------------------------------------------- mpirun has exited due to process rank 1 with PID 2217 on node petzold-desktop exiting without calling "finalize". This may have caused other processes in the application to be terminated by signals sent by mpirun (as reported here). -------------------------------------------------------------------------- Error running the calculation. Check Kernel log (listing) and error* files for details ******************************************** Error in calculation stage. *******************************************
Ich habe hier bis jetzt auch noch nicht so viel Erfahrung mit dem Programm geschweige denn mit Linux. Kann mir irgendwer sagen was ich hier falsch mache? Vielen dank schonmal vorab und viele Grüße, Chris. ------------------ "Grade die Geschichte dieser theoretischen Entwicklung ist ein Schulbeispiel dafür, wie wirklichkeitsfremd rein theoretische Forschungen werden, wenn die Grundlagen und Vorraussetzungen der Rechnungen nicht genügend überprüft sind." 1937;Dr.-Ing. Bruno Eck Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
chrisman Mitglied Dipl.-Ing. Maschinenbau - Konstruktionsleiter
Beiträge: 356 Registriert: 07.07.2011
|
erstellt am: 05. Jul. 2013 07:33 <-- editieren / zitieren --> Unities abgeben:
Guten Morgen, ich weis jetzt schonmal das es irgendetwas mit den Prozessoren zu tuen hat. Beim Lauf mit nur einem Prozessor lief es komischerweise. Weis jemand wie ich das einstellen kann, dass es auch mit mehreren geht? Grüße, Chris. ------------------ "Grade die Geschichte dieser theoretischen Entwicklung ist ein Schulbeispiel dafür, wie wirklichkeitsfremd rein theoretische Forschungen werden, wenn die Grundlagen und Vorraussetzungen der Rechnungen nicht genügend überprüft sind." 1937;Dr.-Ing. Bruno Eck Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
R. Frank Mitglied Dipl-Ing. (BA) Masch.-Bau
Beiträge: 1287 Registriert: 11.10.2004 SWX 2012 SP 4.0 PDMWorks 2012 FlowSimulation 2012 SP 4.0 Simulation 2012
|
erstellt am: 18. Jul. 2013 07:51 <-- editieren / zitieren --> Unities abgeben: Nur für chrisman
Hallo Chris. Wie Du bereits erkannt hast, fehlen Dir die notwendigen Subsysteme für paralleles Berechnen. 1.) Da scheint es eine aktuellere Version zu geben 2.) im Installation Guide steht drin, wie man sich die Subsysteme selbst compiliert. Falls Du Dir diese Mühe machen willst, nur zu 3.) Vergiss nicht zu berichten ... Roland ------------------ 3 Gründe für 3 Gründe: 1. Listen sind super. 2. Zwei Gründe sind zu wenig. 3. Vier Gründe sind zu viel. 4. Man lernt dabei zählen. Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
| Werkstudententätigkeit im Bereich Prototypenbau und 3D-Druck ab Juni 2024 | Life is always about becoming? Im Leben geht es darum, sich auf eine Reise zu begeben, um die beste Version unseres zukünftigen Selbst zu werden. Während wir Neues entdecken, stellen wir uns Herausforderungen, meistern sie und wachsen über uns hinaus.
Bewerben Sie sich bei Mercedes-Benz und finden Sie den Aufgabenbereich, in dem Sie Ihre Talente individuell entfalten können. Dabei werden Sie von visionären Kolleginnen und Kollegen unterstützt, die Ihren Pioniergeist teilen.... | Anzeige ansehen | Maschinenbau |
|
chrisman Mitglied Dipl.-Ing. Maschinenbau - Konstruktionsleiter
Beiträge: 356 Registriert: 07.07.2011
|
erstellt am: 18. Jul. 2013 07:59 <-- editieren / zitieren --> Unities abgeben:
Guten Morgen Roland, danke für deine Antwort! Da werde ich mich mal in ruhe einlesen Ich habe jetzt aber auch bemerkt, dass ich mit z.b. 4 Prozessoren den Solver laufen lassen kann und auf ein Ergebniss komme. Die Abstürze die ich hatte hingen auch mit dem Modell zusammen wie ich bemerkt habe. Also das es nicht konvergiert hat. Habe das mal mit Ansys verglichen und dort konnte ich auch sehen das er nicht zum kohnvergieren kam. Ich denke das hat damit etwas zu tuen. Oftmals wenn ich dann weniger Iterationen eingestellt habe (z.b. 30 anstatt 100) hatte ich ein Ergebniss, welches aber ziemlich komisch war. Habe dann das Modell nocheinmal überarbeitet und dann lief es sehr stabil. Habe dann auch mal 1000 Iterationen durchlaufen lassen, ohne Probleme selbst mit 4 Prozessoren. Dort kommt aber halt immernoch die Meldung:
Code: Warning: /opt/saturne-2.0.2/cs-2.0/bin/cs_partition not found.The partitioner may not have been installed (this is the case if neither METIS nor. SCOTCH are avaialable). Unoptimized partitioning will be used, so parallel performance may be degraded.
Aber er rechnet normal. Aber ich schau es mir mal an vielleicht bekomme ich danach noch schneller ein Ergebnis! Ich bin echt froh das sich da Leute hingesetzt habe und so ein Leistungsfähiges CFD - Tool als open source entwickelt haben! Das kann ich nur immerwieder betonen! Grüße, Chris. ------------------ "Grade die Geschichte dieser theoretischen Entwicklung ist ein Schulbeispiel dafür, wie wirklichkeitsfremd rein theoretische Forschungen werden, wenn die Grundlagen und Vorraussetzungen der Rechnungen nicht genügend überprüft sind." 1937;Dr.-Ing. Bruno Eck Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
| Anzeige.:
Anzeige: (Infos zum Werbeplatz >>)
|