| |
| Gut zu wissen: Hilfreiche Tipps und Tricks aus der Praxis prägnant, und auf den Punkt gebracht für WORKSTATIONs |
| |
| Neue Workstations von Lenovo für kreative Produktivität in einer hybriden Arbeitswelt, eine Pressemitteilung
|
Autor
|
Thema: vGPU für CAD-Räume (1868 / mal gelesen)
|
eiche77 Mitglied IT
Beiträge: 8 Registriert: 04.08.2016
|
erstellt am: 16. Mai. 2019 08:22 <-- editieren / zitieren --> Unities abgeben:
Hallo zusammen, hat jemand bisher Erfahrungen sammeln können im Bereich Nutzung vGPU im Bereich CAD? Ich bin derzeit bei drei CAD-Räume neu zuplanen bzw. Auszurüsten und bin hier bezüglich der Skalierbarkeit, Wartung das ganze über vGPU abzudecken. Gibt es hier bereits Erfahrungen im Bereich Aufbau, Preis, Skalierbarkeit und Wartung? Oder ist immer noch der Einsatz einer WS hier am Sinnvollsten? Grüße Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
RSchulz Moderator² Head of CAD, Content & Collaboration / IT-Manager
Beiträge: 5541 Registriert: 12.04.2007 @Work Lenovo P510 Xeon E5-1630v4 64GB DDR4 Quadro P2000 256GB PCIe SSD 512GB SSD SmarTeam V5-6 R2016 Sp04 CATIA V5-6 R2016 Sp05 E3.Series V2019 Altium Designer/Concord 19 Win 10 Pro x64
|
erstellt am: 16. Mai. 2019 10:00 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Hallo, wir haben eine Workstation VM Umgebung im Einsatz. Prinzipiell läuft das gut und die Umsetzung ist ebenfalls gut. Was mich davon abhält wirklich eine Empfehlung abzugeben, ist immernoch der Preis. Eine vergleichbare VM kostet mindestens das doppelte. Neben der Hardware von ca. 20k für ungefähr 8 vollwertige Workstation kommen weitere Lizenzkosten (Citrix, VmWare, nVidia etc.) hinzu, die in ähnlichen Bereichen liegen. Dazu kommen Thin Clients und Infrastruktur. Wir haben diese im Einsatz für ausländische Mitarbeiter, um Latenzprobleme mit den Datenbanken zu beseitigen. Ansonsten macht es aus meiner Sicht kaum Sinn. Sprich nur wenn es notwendig wird. Deweiteren sind diese bei individualisierter VM´s auch vom Administrationsaufwand gleich einer Hardware. Für Schulungsräume könnte dies mitunter Sinn machen, wenn man z.B. 16 Maschinen flexibel auf mehrere Räume verteilen kann. ------------------ MFG Rick Schulz Nettiquette (CAD.de) - Was ist die Systeminfo? - Wie man Fragen richtig stellt. - Unities
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
eiche77 Mitglied IT
Beiträge: 8 Registriert: 04.08.2016
|
erstellt am: 16. Mai. 2019 10:49 <-- editieren / zitieren --> Unities abgeben:
Hey, erstmal Danke für die Fixe AW. Glaube langsam auch das ich momentan noch auf WS zurückgreife und das anders Lösen sollte. Welche Grafikkarte würdest du hier dann am ehesten Empfehlen? Eingesetzte Software: Autodesk Inventor/CAD & Solidworks
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
RSchulz Moderator² Head of CAD, Content & Collaboration / IT-Manager
Beiträge: 5541 Registriert: 12.04.2007 @Work Lenovo P510 Xeon E5-1630v4 64GB DDR4 Quadro P2000 256GB PCIe SSD 512GB SSD SmarTeam V5-6 R2016 Sp04 CATIA V5-6 R2016 Sp05 E3.Series V2019 Altium Designer/Concord 19 Win 10 Pro x64
|
erstellt am: 16. Mai. 2019 11:00 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
|
Duke711 Mitglied
Beiträge: 870 Registriert: 14.11.2016
|
erstellt am: 16. Mai. 2019 12:51 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Ich habe heute das erste mal von vGPU gehört, nach der Beschreibung von Nvidia kann ich mir nicht so recht vorstellen das dies performant sein soll. Das wird wahrscheinlich auf ein ähnliches Niveau wie RemoteFX sein und somit für CAD nicht brauchbar. Neu ist das vGPU ja nicht. Einzige sinvolle Lösung ist per Discrete Device Assignment. D.h. die Hardware z.B. PCIe-Pass-Through wird direkt an die VM durchgeschleift. Jede VM bräuchte aber ihre eigene Grafikkarte. Alles andere ist für Remote CAD mit auch mal etwas größeren Baugruppen nicht wirklich brauchbar. Ob sich das lohnt? [Diese Nachricht wurde von Duke711 am 16. Mai. 2019 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
eiche77 Mitglied IT
Beiträge: 8 Registriert: 04.08.2016
|
erstellt am: 16. Mai. 2019 13:32 <-- editieren / zitieren --> Unities abgeben:
|
RSchulz Moderator² Head of CAD, Content & Collaboration / IT-Manager
Beiträge: 5541 Registriert: 12.04.2007 @Work Lenovo P510 Xeon E5-1630v4 64GB DDR4 Quadro P2000 256GB PCIe SSD 512GB SSD SmarTeam V5-6 R2016 Sp04 CATIA V5-6 R2016 Sp05 E3.Series V2019 Altium Designer/Concord 19 Win 10 Pro x64
|
erstellt am: 16. Mai. 2019 13:38 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Hallo Duke, dem kann ich widersprechen! Die Performance ist echt sauber. Eine Grid z.B. kann bis zu 16 virtuelle Grafikkarten zur Verfügung stellen. 2* SSD RAID 5 bzw. Raid 10 für System und Datenplatte getrennt. 4* 10GBit\s LAN Anbindung und das Ding rennt wie sau. Eine Stufe größer ist dann per SAN die Daten zentral zu verwalten, dann lassen sich mittlerweile Workstation sogar online von Host 1 auf Host 2 schieben. Alles wirklich kein Problem mehr. Im vGPU Bereich werden z.b. bei 8 VM´s pro Grid\Tesla Karte mindestens zwei 4K Bildschirme unterstützt. Der RAM läge dann bei 1-4GByte VRAM pro Gerät und RAM selbst ist eigentlich bei mittlerweile etlichen TB pro Server auch kein Engpass mehr. Das Bild selbst wird dann per Citrix HDX Protokoll übertragen. Das ist selbst bei Latenzen 120-160ms (Ger>USA) noch wirklich brauchbar. Ebenfalls ist mit Citrix HDX eine APP VM möglich, bei der nur das Bild der APP übertragen wird, sodass man nicht mal denken würde, dass es sich um eine VM handelt. Also gegen das user handling kann ich echt nichts sagen. Als Beispiel zur Performance... Wir können aktuell mit 24GByte RAM, einem K220Q Profil und anliegendem SSD Raid, ohne Probleme ganze Automaten mit entsprechender RAM Auslastung jenseits der 16GByte bearbeiten. Ich finde zum Teil die Performance sogar besser, da die Bandbreite vom RAM richtig durchknallt. Ladezeiten Messungen und so waren jetzt kaum unterschiedlich, allerdings schwankt die Performance hier je nach Auslastung etwas und der Takt ist entscheidend. Wichtig ist eine CPU, die mindestens 3Ghz im Basistakt kann. Je mehr desto besser. Aber dann kommt man im DUAL Sockel schon kaum über 24 Kerne, die allerdings dynamisch verteilt werden. Ich bleib dabei; Maximal 8 vollwertige Workstation auf einem Server, evtl. bis zu 16, wenn diese im Low\Midsegment tätig sind. Als FEM oder Simulationskiste ist man hier natürlich mit viel mehr Bums unterwegs, wenn man einer VM alle Ressourcen geben kann... usw. Also die Skalierung ist echt der Hammer und funktioniert sehr gut. ------------------ MFG Rick Schulz Nettiquette (CAD.de) - Was ist die Systeminfo? - Wie man Fragen richtig stellt. - Unities
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Duke711 Mitglied
Beiträge: 870 Registriert: 14.11.2016
|
erstellt am: 16. Mai. 2019 14:50 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Wieder was dazu gelernt. Die Technolgie basiert ebenfalls auf Direct Pass-Through / Discrete Device Assignment bzw. durchschleifen. Nur das es im Gegensatz zu früher nun GRID Profile gibt, in dem eine physische GPU nun auf mehrere VMs durchschleifen kann, deren Anzahl dann natürlich von der Ressourcenbelastung der einzelnen VM abhängig ist. Funktioniert aber wohl nur mit den teueren Teslamodellen. Dann ist die Variante mit dem einzelnen durchschleifen einer GPU pro VM je nach Anwendungsfall sogar deutlich günstiger.
Zitat:
hier geht es um ganz spezielle System die Nvidia hier für Anbietet.
Nein, das durchschleifen geht auch mit jeder Grafikkarte aus dem Konsumerbereich. Ledeglich die GRID Profile für ein multiples durschleifen sind neu. Bei 16 VMs sind auf auf einer GRID Tesla M60, mit dual GPUs und 16 GB, pro VM nur noch 1024 MB Vram und eine Auflösung von 2560x1600 möglich. Also auf dem Niveau von RemoteFX wo dann kein CAD mehr möglich ist. Bzw. mit einer Tesla V100 und 32 GB wären es dann 32 VMs. Für 9000 Euro im Wert einer Tesla V100 kann man aber sehr viele Grafikkarten mit jeweils 1 GB Vram kaufen bzw bei einen Stückpreis von 250 Euro pro Grafikkarte, mit deutlich mehr als nur 1 GB Vram (z.B: eine P620)
[Diese Nachricht wurde von Duke711 am 16. Mai. 2019 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
eiche77 Mitglied IT
Beiträge: 8 Registriert: 04.08.2016
|
erstellt am: 16. Mai. 2019 15:47 <-- editieren / zitieren --> Unities abgeben:
|
RSchulz Moderator² Head of CAD, Content & Collaboration / IT-Manager
Beiträge: 5541 Registriert: 12.04.2007 @Work Lenovo P510 Xeon E5-1630v4 64GB DDR4 Quadro P2000 256GB PCIe SSD 512GB SSD SmarTeam V5-6 R2016 Sp04 CATIA V5-6 R2016 Sp05 E3.Series V2019 Altium Designer/Concord 19 Win 10 Pro x64
|
erstellt am: 16. Mai. 2019 16:21 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Ich nochens Also so wie ich das sehe kann eine Tesla V100 bis zu 32 vGPU´s zu Verfügung stellen. Demnach können zwei V100 bis zu 64 vGPU´s zur Verfügung stellen. Die entsprechende CPU Last muss aber ebenfalls zur Verfügung stehen. BTW die DGX Systeme haben erstmal nicht mit deiner gesuchten Umgebung zu tun. Hier würde ich eher mal bei Dell nach einem "normalen" Server mit nVidia GRID oder Tesla suchen. BTW Quadro RTX scheint genauso zu gehen >>>siehe<<<. Runtergerechnet kannst du mit ca. 5K€ für eine vollwertige Workstation rechnen. +- je nach dem wie viele du anschaffst. Wenn dich das Thema in dieser Preisklasse interessiert, dann such dir einen Anbieter. Ohne Beratung und Projekteinführung, wirst du eh nicht weit kommen. Die DGX Systeme sind wirklich eher für AI, Simulation etc. ... Die Steuerung erfolgt wie folgt... Es wird auf Basis von Citrix oder VMWare eine Basis für die VM´s geschaffen. Innerhalb dieser VM Umgebung werden die Treiber installiert und entsprechend die Maschinen definiert. Hierbei wird einfach nur wie bei den Platten auch der Hardwarepool ausgesucht z.B. Tesla V100 - 1 und das zugehörige Profil ausgewählt. z.B. V100D-4Q. Diese Zuteilung kann beliebig oft erfolgen. Sobald 8 Maschinen mit diesem Profil hochgefahren sind, ist die Karte voll. Es kann dann keine weitere VM starten, die auf diese Hardware zeigt. Nachfolgend werden die VM´s dann über eine eigene Citrix Serververwaltung (egal ob Citrix VM oder VMWare) dem Anwender in Gruppen oder Einzelzuweisung zur Verfügung gestellt. Es können pro Anwender auch mehrere VM´s\Apps oder standard VM´s zur Verfügung gestellt werden. Der Anwender hat dann den Citrix Receiver und kann nach der Anmeldung die zur Verfügung stehenden VM´s\App´s starten. Total easy ------------------ MFG Rick Schulz Nettiquette (CAD.de) - Was ist die Systeminfo? - Wie man Fragen richtig stellt. - Unities
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Duke711 Mitglied
Beiträge: 870 Registriert: 14.11.2016
|
erstellt am: 16. Mai. 2019 16:38 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Habe ich doch vorgerechnet. Bei der Tesla V100 sind wohl maximal für das GRID 64 VMs vorgesehen mit jeweils 512 MB Vram. Außerdem kann man auch die Teraflops anschauen und diese bei einer idealen Annahme ebenfalls durch die Anzahl der VMs teilen. Alles andere hängt von der Software ab. Wobei man die Teraflops den Vram pro VM mit der einer äquivalenten Grafikkarte gleich setzten kann.. ALso bei 64 VMs: 512 MB Vram über NVlink FP64 0,12 FP32 0,25 Bei 16 VMs
2 GB Vram FP64 0,48 FP32 1,0 z.B: P620 Vram 2 Gb FP64 0,5 FP32 1,1 Also würden im Idealfall 16 VMs über einer Tesla V100 einer etwas schwächeren P620 pro Client entsprechen. Für kleine Baugruppen würde das reichen. Würde man das System aus 16x P620 im Client aufbauen würde die Ausgaben wie folgt aussehen: Server 1x Tesla V100 --> 9000 Euro zu 300 Watt + [608 W (z.B: 16x GT 730 im Client)] oder Onbaord Grafikkarte. 16x P620 Cient---> 2900 Euro zu 640 Watt
[Diese Nachricht wurde von Duke711 am 16. Mai. 2019 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
RSchulz Moderator² Head of CAD, Content & Collaboration / IT-Manager
Beiträge: 5541 Registriert: 12.04.2007 @Work Lenovo P510 Xeon E5-1630v4 64GB DDR4 Quadro P2000 256GB PCIe SSD 512GB SSD SmarTeam V5-6 R2016 Sp04 CATIA V5-6 R2016 Sp05 E3.Series V2019 Altium Designer/Concord 19 Win 10 Pro x64
|
erstellt am: 17. Mai. 2019 14:58 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
Das kann man so nicht rechnen. Du hast ja 16 komplette Rechner gegen einen Server der in 16 VM´s aufgeteilt wird. Nicht nur die Grafikkarte. Hinzukommen Software und Nutzungslizenzen sogenannte CAL´s. Was du mit NVLink die ganze zeit meinst, ist mir schleierhaft. NVlink hat damit AFAIK nichts zu tun. Als Client reicht dann sogar ein ThinClient mit 5W Gesamtleistung. Letztlich muss der lediglich im Stande sein ein Bild darzustellen. Selbst mit dem Handy\Tablet wärst du im Stande dich auf eine dieser VM Workstation zu verbinden. Wird alles unterstützt... ------------------ MFG Rick Schulz Nettiquette (CAD.de) - Was ist die Systeminfo? - Wie man Fragen richtig stellt. - Unities
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
eiche77 Mitglied IT
Beiträge: 8 Registriert: 04.08.2016
|
erstellt am: 28. Aug. 2019 12:25 <-- editieren / zitieren --> Unities abgeben:
Danke erstmal für eure Infos. Werde aber voraussichtlich die WS Variante nehmen wobei, die Idee mit dem vGPU was schönes wäre und vor allem aus meiner Sicht der Administration und Verwaltung. Evtl. werde ich das ganze für ein Testsystem aufziehen um hier die Möglichkeit bzw. Ausbaustufen zu zeigen sofern das genehmigt wird Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Optimizer9999 Mitglied Ingenieur
Beiträge: 3 Registriert: 04.09.2019 Solver: 2x6244, 1,5TB RAM, 2xNVidia Tesla V100, 2x2TB NVMe (Raid1), 4x8TB NVMe (Raid0) VMs: 2x6254, 768GB RAM, 2xNvidia T4, 2x2TB NVMe (Raid1), 2x8TB NVMe (Raid0), 20x2TB (Datensammlung unter RAID1E) Dazwischen 100Gb/s Ethernet (2x50Gb/s in LoadBalancing mode)
|
erstellt am: 04. Sep. 2019 18:06 <-- editieren / zitieren --> Unities abgeben: Nur für eiche77
|