| |
| Gut zu wissen: Hilfreiche Tipps und Tricks aus der Praxis prägnant, und auf den Punkt gebracht für Autodesk Produkte |
Autor
|
Thema: Defragmentieren von Dateien (2990 mal gelesen)
|
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 29. Nov. 2006 16:07 <-- editieren / zitieren --> Unities abgeben:
Hallo Freunde, Manche werden das ja für einen alten Hut halten, ich persönlich kenn das auch ansatzweise vom SWX, aber jüngst hatte ich einen Erfolg im IV den ich Euch mitteilen muss. Im Zuge von ausführlichen Tests mit unserem Monsterassembly (rund 23.000 Komponenten aus knapp 1000 Dateien) bekam ich von kompetenter Stelle den Tip, die Daten mal zu defragmentieren. Also besorgte ich mir den empfohlenen CONTIG von Sysinternals, schlug mich mit der CMD-Oberfläche ein wenig rum, und nun: Die Ladezeit für dieses Riesenassembly hat sich halbiert!, von 3:20 auf 1:35. ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Husky Ehrenmitglied V.I.P. h.c.
Beiträge: 5718 Registriert: 10.07.2002 No Sysinfo
|
erstellt am: 29. Nov. 2006 16:14 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Leo, wenn du mal suchst habe ich über die gleichen Effekte, mit einem anderen Produkt, schonmal berichtet. Allerdings konnte ich solch einen glasklaren Beweis nicht liefern. Grüße Stefan Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 29. Nov. 2006 16:27 <-- editieren / zitieren --> Unities abgeben:
Hallo Stefan, Wahrscheinlich war in meinem Fall der Effekt umso grösser und klarer nachvollziehbar, als die Daten gerade jüngst durch das Migrieren allesamt schlimm defragmentiert wurden (so die Aussage von Autodesk). ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Thomas Gruber Mitglied AE Engineer
Beiträge: 752 Registriert: 08.03.2002 IV2008 SP2 auf Dell M65 4GB RAM
|
erstellt am: 29. Nov. 2006 16:33 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
mal ne allgemeine frage zum defragmentieren... ich hab meinen neuen rechner ca. ein halbes jahr.. jetzt hab ich den mal defragmentiert, da die analyse eine fragmentierung von 40!!! % ergab.. (ist das normal?) was macht eigentlich mehr sinn; den lokalen rechner zu defragmentieren, oder den server wo die ganzen daten von IV gespeichert sind? ------------------ Wer von der Vergangenheit nichts weiß kennt die Gegenwart nicht und wird nie eine Ahnung von der Zukunft haben! Gruß aus Österreich Thomas Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 29. Nov. 2006 16:59 <-- editieren / zitieren --> Unities abgeben:
Hallo Thomas, Soviel ich von der Sache verstehe, reden wir hier vom Defragmentieren der Daten (also Umsortierung und Leerbereiche entfernen innerhalb der Datei) und nicht vom Defragmentieren des Datenträgers. Letzteres macht WinXP eigentlich im Hintergrund zwischendurch automatisch, und wird ein kluger SysAdmin auch immer wieder mal am Server machen. ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Michael Puschner Moderator Rentner
Beiträge: 13003 Registriert: 29.08.2003 Toshiba Encore mit MS Office Ein Programm sollte nicht nur Hand und Fuß, sondern auch Herz und Hirn haben. (Michael Anton)
|
erstellt am: 29. Nov. 2006 17:20 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zitat: Original erstellt von Leo Laimer: ... also Umsortierung und Leerbereiche entfernen innerhalb der Datei ...
Hallo Leo, nie und nimmer macht CONTIG von Sysinternals irgendwas innerhalb einer Datei. Wie auch, von z.B. den IV-Datenstrukturen versteht CONTIG ja absolut nichts. Da sind wir ja froh, wenn IV die versteht. CONTIG sorgt nur dafür, dass die Dateien wieder schön in Reih und Glied auf der Festplatte stehen. Und das macht CONTIG im Gegensatz zu der XP-eigenen Funktion auch für einzelne Dateien und ausserdem viel effektiver. Wenn man die IV-Installation (besonders den BIN-Ordner) mal mit CONTIG bearbeitet, verkürzt sich auch der erste Startvorgang von IV nach PC-Start um bis zu 50%. ------------------ Michael Puschner Autodesk Inventor Certified Expert Scholle und Partner GmbH [Diese Nachricht wurde von Michael Puschner am 29. Nov. 2006 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 29. Nov. 2006 17:52 <-- editieren / zitieren --> Unities abgeben:
Oh Schande über mich... Trotzdem ist mir da was nicht ganz klar. Ich wende desöfteren Defrag an, noch nie konnte ich irgendeine spürbare Performancesteigerung erzielen. War ja auch mal ein Bericht im 'ct dass XP da selber immer wieder mal was macht, und man hört ja auch gelegentlich mas die HD rasseln. Kann CONTIG das einfach um so viel besser? ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Michael Puschner Moderator Rentner
Beiträge: 13003 Registriert: 29.08.2003 Toshiba Encore mit MS Office Ein Programm sollte nicht nur Hand und Fuß, sondern auch Herz und Hirn haben. (Michael Anton)
|
erstellt am: 29. Nov. 2006 18:03 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zitat: Original erstellt von Leo Laimer: .. dass XP da selber immer wieder mal was macht, und man hört ja auch gelegentlich mas die HD rasseln. ...
Gut ausgedrückt, Leo, genau so sehe ich das nämlich auch: XP mach da immer mal wieder irgendwas auf der HD ... nur ordentlich defragmentieren kann es nicht. Auch wenn man die HD mit den XP-Boardmitteln explizit defragmentiert, muss man das IMHO mindestens fünf mal direkt hintereinander machen, damit es halbwegs sinnvolle Ergebnisse zeigt. ------------------ Michael Puschner Autodesk Inventor Certified Expert Scholle und Partner GmbH Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Peter. Mitglied
Beiträge: 72 Registriert: 06.10.2006
|
erstellt am: 29. Nov. 2006 21:06 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Leo, Zitat: Original erstellt von Leo Laimer: ..Ich wende desöfteren Defrag an, noch nie konnte ich irgendeine spürbare Performancesteigerung erzielen. War ja auch mal ein Bericht im 'ct dass XP da selber immer wieder mal was macht, und man hört ja auch gelegentlich mas die HD rasseln.Kann CONTIG das einfach um so viel besser?
CONTIG kann gezielt einzelne Dateien oder Verzeichnisse defragmentieren, DEFRAG kann das nur das ganze Laufwerk defragmentieren und das auch nur wenn mind. 11% freie Kapazität auf der Platte vorhanden ist. CONTIG ist wesentlich schneller als DEFRAG sein wenn man gezielt defragmentieren will. Oft sind zwei oder mehr Durchläufe nötig um komplett defragmentieren, das kann CONTIG ebenfalls viel schneller. um ein bestimmtes Verzeichniss mit Unterverzeichnissen schnell mit CONTIG zu defragmentieren kann man sich eine *.bat oder *.cmd Datei anlegen die die gewünschten Parameter übergibt, und diese Datei bei Bedarf doppelklicken. der Parameter hierfür ist: contig -s * Es gibt auch ein GUI für CONTIG. Wer das Gegenteil tun möchte, und alle Laufwerke auf einmal mit DEFRAG defragmentieren möchte, kann dies mit dem DefragstartXP von www.helmrohr.de unter DL> Windows > Defragstart oder direkt hier tun. Damit können mehrere Laufwerke ausgewählt werden und der Rechner nach dem Defragmentieren ausgeschaltet werden. Gruß Peter Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
KarajanWK Mitglied
Beiträge: 55 Registriert: 01.11.2006 Win XPSP2,2,6GHz P4, nVidia GF6200 512MB,IV10 IV 2008,3DS max9
|
erstellt am: 29. Nov. 2006 21:42 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
hallo Ihr "Fragmentierten", habt Ihr es schonmal mit der O&O-Software versucht? Ist zwar kostenpflichtig, aber saugut. Wählbar nach 5 Kriterien (z.B Größe der Dateien oder Häufikeit des Zugriffs). Meine Erfahrung: Was Windows nicht kann, kann O&O schon lange, dafür umso besser Ralf Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
PaulSchuepbach Mitglied Programmierer
Beiträge: 1005 Registriert: 01.10.2003
|
erstellt am: 30. Nov. 2006 07:40 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
|
Tobsen Mitglied IT -Systemkaufmann
Beiträge: 556 Registriert: 14.06.2002 [URL=https://www.inventor-tools.de www.gdkmbh.de]www.inventor-tools.de www.gdkmbh.de[/URL]
|
erstellt am: 30. Nov. 2006 08:00 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Vor ein paar Jahren bei meinen M$-Scheinen wurde gesagt das man das Microsoft eigene Defrag-Programm nicht verwenden braucht, da diese keine nennenswerten Ergebnisse erzielen. Der Dozent sagte damals: "Die beste und einzig funktionierende Defragmentierung ist eine komplette Formatierung der HD!" Von 3rd-Party Programmen hielt er nicht sonderlich viel. Paul, jetzt wird es wohl noch einen Tag länger ruhig bleiben... Tobi Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Husky Ehrenmitglied V.I.P. h.c.
Beiträge: 5718 Registriert: 10.07.2002 No Sysinfo
|
erstellt am: 30. Nov. 2006 08:07 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Paul, sehe ich auch so. Ich setze bevorzugt O&O Defrag ein. Das hat noch ein paar interessante Features. Was mir aber auffällt: Wer das XP-Defrag bis zu 5mal durchlaufen lassen muß um sinnvolle Ergebnisse zu haben muß schon ein ziemliches Chaos haben. Einzelne Dateien zu defragmentieren kann in Einzelfällen bei ziemlich vollen Platten helfen. Grundsätzlich sollten auch alle Platten in Angriff genommen werden und zwar vollständig. Grüße Stefan Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Husky Ehrenmitglied V.I.P. h.c.
Beiträge: 5718 Registriert: 10.07.2002 No Sysinfo
|
erstellt am: 30. Nov. 2006 08:27 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Tobsen, die Aussage war auch Statement von Microsoft bei der Einführung von NTFS. Damals war aber auch Internet kein Thema für diese Company. Das XP-Eigene Defrag ist auch nur zugekauft. Dabei hamse nur das langsamste und schlechteste verwischt ... wahrscheinlich wars nur saubillig Grüße Stefan Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 30. Nov. 2006 16:46 <-- editieren / zitieren --> Unities abgeben:
Hallo Freunde, Mir hat's jetzt keine Ruhe gelassen und habe nachrecherchiert woher ich die Idee des "Defragmentierens innerhalb der Datei" hatte. Nun, für SWX gibt's da was, scheint auch irgendwie Sinn zu machen und es verkleinert u.U. die Dateigrösse um ca. die Hälfte, proportional dazu sinken auch Ladezeiten usw. Mehr dazu hier: http://solidworks.cad.de/kh_unfrag.htm
------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
thomas109 Moderator Dompteur
Beiträge: 9350 Registriert: 19.03.2002 Dell620s i5 Geforce GT 620 6GB;Lenovo X240; Citrix Desktop; Lenovo S30; IV 4 - 2009 RIP, aktiv 2010 - 2023 produktiv AIS2023.3 +PartSolutions / ECTR AICE .
|
erstellt am: 30. Nov. 2006 18:05 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Leo! Die segmentierte Datenbank von IV-Dateien ist genau deswegen, daß eben dieses Problem der notwendigen Defragmentierung nicht auftreten kann. Der Platzbedarf auf der Platte sagt auch nichts über die tatsächliche Datenmenge der Komponente aus, denn zwischen den einzelnen Blöcke (BRep, Grafik, ...) ist viel Leerplatz, sodaß immer alles ins richtige Segment geschrieben werden kann, und nicht einfach hintendrangeflickt wird. Es macht nur Sinn, die Datei auf der Platte zu defragmentieren, damit die Informationen direkt nebeneinanderliegen.
------------------ lg Tom ...so geht mein Boot manchmal unter... Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Michael Puschner Moderator Rentner
Beiträge: 13003 Registriert: 29.08.2003 Toshiba Encore mit MS Office Ein Programm sollte nicht nur Hand und Fuß, sondern auch Herz und Hirn haben. (Michael Anton)
|
erstellt am: 30. Nov. 2006 20:35 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zu diesem Thema noch ein paar Ergänzungn: IV schreibt jede Version einer Datei komplett neu (das Verfahren über die "NEWVER"-Datei wurde ja hier schon mehrfach beschrieben). Somit ergibt sich innerhalb der Datei keine Fragmentierung. Dennoch können die einzelnen Segmente auf der Platte verstreut werden, die dann z.B. CONTIG wieder zusammenfasst. Es wird auch nicht inkrementell gespeichert, wie es z.B. bei Acad oder MS-Word möglich ist. Es werden aber standardmäßig mehrere Modellzustände in einer IPT abgelegt. Das ermöglicht ein schnelleres Zurückspringen in der Elementhistorie bei Änderungen. In den Dokumenteinstellungen kann man das unterbinden (Komprimiertes Modellprotokoll). Bei komplexen Bauteilen ergibt das erheblich kleinere Dateigrößen und auch weniger Hauptspeichernutzung, was bei extrem großen Baugruppen wichtig sein kann. Das Modell ist dafür aber langsamer bei Änderungen. Ob sich das positiv auf die Ladezeiten einer großen Baugruppe auswirkt, habe ich noch nie getestet. Eine weitere Bereiningung von IV-Dateien kann durch Löschen unbenutzter Stile erfolgen. Das ist bei aktivierter Stilbibliothek ohnehin empfehlenswert und kann mit dem Stilverwaltungs-Assistenten auch für viele Dateien gleichzeitig erfolgen. @Leo: Kannst ja mal eine Kopie deines Riesen-Assembly auf komprimiertes Modellprotokoll umstellen. Das geht mit dem Migrations-Tool aus dem Aufgabenplaner (Modellverlauf komprimieren). Es wirkt aber IMHO nur in Verbindung mit "Alles neu erstellen". Innerhalb einer Version darf man bereits migrierte Bauteile natürlich nicht überspringen, was aber inzwischen automatisch ausgeschaltet wird. Es wäre auch interessant zu testen, ob das Löschen der Stile zusätzlich spürbar etwas bringt.
------------------ Michael Puschner Autodesk Inventor Certified Expert Scholle und Partner GmbH Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Harry G. Ehrenmitglied V.I.P. h.c. one-man-show
Beiträge: 4585 Registriert: 24.01.2003 PDSP2014.1.3; W7.1-64 E3-1240, 16 GB Quadro K2000
|
erstellt am: 30. Nov. 2006 23:42 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Das Löschen von Stilen habe ich vor einiger Zeit (IV9) mal getestet, weil ich nur noch 1 Norm statt der mitgelieferten 8 habe und die Stile aus Zeiten vor IV9 noch alle in den Dateien stecken. Die Dateigröße verringert sich um einige 10k und der Stileditor startet etwas schneller. Viel bringt es nicht, aber der Müll in den Dateien gehört da halt nicht hin. Ich werd's bei Gelegenheit mal durchziehen, denn 1GB weniger in der Datensicherung ist ja schon was. ------------------ Grüße von Harry Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Fyodor Ehrenmitglied V.I.P. h.c. Dipl.-Ing.(FH) Maschinenbau
Beiträge: 2667 Registriert: 15.03.2005 DELL Precision 7740 Intel Core i9-9980HK 32 GB RAM NVISIA Quadro RTX4000 Windows 10 Enterprise<P>SolidWorks 2019 SP3.0
|
erstellt am: 01. Dez. 2006 02:38 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Ich habe das O&O-Tool mal ausprobiert, als es das kürzlich mal als Testversion irgendwo gab. Mein Rechner ist bei drei der fünf Methoden hängen geblieben. Lediglich die beiden simpelsten konnte ich bis zum Ende durchführen. Datenverlust gab es glücklicherweise offenbar keinen. Ich habe es dann wieder runtergeschmissen. Gibt es von CONTIG auf eine Testversion? Ausprobieren würde ich es schon gerne mal. ------------------ Cheers, Jochen Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 01. Dez. 2006 07:13 <-- editieren / zitieren --> Unities abgeben:
@Michael: Danke für die ausführlichen Erklärungen. Das komprimierte Modellprotokoll habe ich zwar schon seit Längerem eingeschaltet, aber da die allermeisten unserer BT sehr einfach modelliert sind ("rechteckige Platte mit 4 Bohrungen"), macht es keinerlei unterschied. Das mit den Stilen ärgert mich auch irgendwie, für mich ist das im IV relativ unübersichtlich welchen Müll man wie loswerden kann. (Im ACAD gab's halt ein BEREINIG und aus <G> ). Ein weiterer Dorn im Auge sind mir die CC-Teile, das sind IMHO unnötig voluminöse Dateien. @Fyodor: CONTIG bekommt man auf www.sysinternals.com völlig kostenlos. ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Peter. Mitglied
Beiträge: 72 Registriert: 06.10.2006
|
erstellt am: 01. Dez. 2006 10:18 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Unfrag als Kontextmenü-Eintrag Hallo Zusammen, angeregt durch Leos Beitrag, der auch hierhin führt, habe ich das Verzeichnis-Kontextmenü um Contig erweitert. Code: REGEDIT4[HKEY_CLASSES_ROOT\Folder\shell\contig] @="CONTIG Verz. mit Unterverz." [HKEY_CLASSES_ROOT\Folder\shell\contig\command] @="C:\\Programme\\contig\\contig.exe \"%1\" -s -q *"
damit wird das Verzeichniss mit Unterverzeichniss per RMB vom Explorer aus defragmentiert. Contig muss hier C:\\Programme\\contig\\contig.exe liegen, damit das funktioniert, ansonsten die o.g. Pfade anpassen. Wer will kann auch die angehängte Reg-Datei doppelklicken. Gruß Peter
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
h-hk Mitglied
Beiträge: 256 Registriert: 06.12.2004 INV 2022 prof / WIN 10-64 prof Intel Core i5-6500T 32 GB RAM, 256 GB SSD + 2 TB FP AMD Radeon RX 5700 XT mit 8 GByte in jeweils 2560x1440 auf 3 x 24" Monitore
|
erstellt am: 01. Dez. 2006 22:11 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Spezies, defragmentieren schön und gut: das eine betrifft das Dateisystem und die eigentliche Aufgabe steht weiter im Raum. Wie können IV-Dateien gesäubert, bzw. bereinigt werden? In jeder Datenbank wird Datenmüll angereichert, der irgendwann abgefahren werden muß, man sagt auch reorganisieren. Die Bereinigung von IV-Dateien scheint noch ein offener, aber wichtiger Punkt zu sein. HHK Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Michael Puschner Moderator Rentner
Beiträge: 13003 Registriert: 29.08.2003 Toshiba Encore mit MS Office Ein Programm sollte nicht nur Hand und Fuß, sondern auch Herz und Hirn haben. (Michael Anton)
|
erstellt am: 01. Dez. 2006 22:37 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
|
DANS Mitglied Konstrukteur CAD
Beiträge: 75 Registriert: 18.08.2005 E8400 3.0GHz / 8 GB RAM / Quadro FX 1700 / Spacenavigator / APDS 2012
|
erstellt am: 04. Dez. 2006 11:33 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
|
Harry G. Ehrenmitglied V.I.P. h.c. one-man-show
Beiträge: 4585 Registriert: 24.01.2003 PDSP2014.1.3; W7.1-64 E3-1240, 16 GB Quadro K2000
|
erstellt am: 05. Dez. 2006 18:51 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zitat: Original erstellt von Leo Laimer: ...Ein weiterer Dorn im Auge sind mir die CC-Teile, das sind IMHO unnötig voluminöse Dateien...
Bei meinen Versuchen mit den unseligen UFN-Libraries war mir aufgefallen, daß die damit erzeugten Normteile 40% kleiner waren als aus dem Standard-CC. Da ist also tatsächlich eine Menge überflüssiges Zeugs drin. ------------------ Grüße von Harry Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Charly Setter Moderator
Beiträge: 11977 Registriert: 28.05.2002 Der vernünftige Mensch paßt sich der Welt an; der unvernünftige besteht auf dem Versuch, die Welt sich anzupassen.<P>Deshalb hängt aller Fortschritt vom unvernünftigen Menschen ab. (George Bernard Shaw)
|
erstellt am: 05. Dez. 2006 21:37 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Wenn Ihr so eine CC-Schraube mal öffnet und euch die Skizzen anseht, werdet Ihr sehen, das dort jede Menge überflüssiger/redundanter Parameter verwendet werden. Außerdem sind die Modelle viel zu kompliziert. (Warum braucht´s am Ende des Gewindes einen Durchmessersprung von 0,001mm ? ) Da gibt´s noch jede Menge Optimierungspotetial.) CU
------------------ Der vernünftige Mensch paßt sich der Welt an; der unvernünftige besteht auf dem Versuch, die Welt sich anzupassen. Deshalb hängt aller Fortschritt vom unvernünftigen Menschen ab. (George Bernard Shaw) Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Harry G. Ehrenmitglied V.I.P. h.c. one-man-show
Beiträge: 4585 Registriert: 24.01.2003 PDSP2014.1.3; W7.1-64 E3-1240, 16 GB Quadro K2000
|
erstellt am: 05. Dez. 2006 22:05 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zitat: Original erstellt von Charly Setter: ...Warum braucht´s am Ende des Gewindes einen Durchmessersprung von 0,001mm ?...
Damit man gegen das Gewindeende messen kann oder eine Abhängigkeit drauf setzen kann. Das Ende der Gewindetextur kann man nicht anfassen. ------------------ Grüße von Harry Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 06. Dez. 2006 08:16 <-- editieren / zitieren --> Unities abgeben:
Zitat: Original erstellt von Charly Setter: ...Warum braucht´s am Ende des Gewindes einen Durchmessersprung von 0,001mm ?...
Da haben Diejenigen, welche die CC-Teile von MDT nach IV umgestrickt haben nicht mitgedacht und der brillant gedachte tiefe schmale Einstich am Gewindeende wurde zu einem so flachen Winzigkleinen, dass ich ihn noch garnicht bemerkt habe. Wozu dieser Einstich dient? Denk amol noch! <G> ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Martin_0103 Mitglied
Beiträge: 181 Registriert: 05.02.2003 3,4 GHz - Quadro 4000 - 12 GB RAM - IV2015 - WIN7
|
erstellt am: 16. Mai. 2007 10:59 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Hallo Zusammen, es handelt sich hier um ein sehr interessantes Thema. Vor Tagen wurde einer unserer EDV Admins bezüglich "Defrag" angesprochen. Seine Aussage lautet: "Das brauchen wir nicht, wir arbeiten auf dem Server". Was denkt ihr über diese Aussage? Inventor 9 ist auf dem lokalen PC - Inventordateien befinden sich auf einem Server der mit einem 100MBit Netz verbunden ist. Wir haben Rechner im Einsatz deren OS im Jahre 2003 installiert wurden - frei nach dem Motto "never change a running system" Danke für die Antworten... Gruß Martin ------------------ Wenn man einen Hund so dressiert hat, dass er über einen See fliegt, dann gibt es sicher ein paar Neider die das Tier für Wasserscheu halten... [Diese Nachricht wurde von Martin_0103 am 16. Mai. 2007 editiert.] Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Leo Laimer Moderator CAD-Dienstleister
Beiträge: 26104 Registriert: 24.11.2002 IV bis 2019
|
erstellt am: 16. Mai. 2007 11:09 <-- editieren / zitieren --> Unities abgeben:
Also, wenn Ihr irgendein Problem hat, scheint mir dieses beim 100Mbit-Netz zu liegen. Bei uns betrug der Geschwindigkeitszuwachs beim Umstieg von 100Mbit auf 1GBit exakt 100% (also doppelt so schnell). Dass das Betriebssystem auf Server oder Workstation auf die Performance irgendeinen Einfluss hätte konnte ich noch nie nachweisen. Defragmentieren der Server-Platten macht Eure IT wohl hoffentlich. An der Workstation sollte auch die Festplatte gelegentlich mal defragmentiert werden, aber eben nicht mit dem Windows Defrag, sondern mit was Besserem (Contig ist zwar rustikal, aber sehr effizient). Noch wichtiger ist aber der allgemeine Service an den lokalen Datenträgern, also z.B. Temp leeren usw. ------------------ mfg - Leo Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Husky Ehrenmitglied V.I.P. h.c.
Beiträge: 5718 Registriert: 10.07.2002 No Sysinfo
|
erstellt am: 16. Mai. 2007 11:27 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Zitat: Original erstellt von Martin_0103: Hallo Zusammen, es handelt sich hier um ein sehr interessantes Thema. Vor Tagen wurde einer unserer EDV Admins bezüglich "Defrag" angesprochen. Seine Aussage lautet: "Das brauchen wir nicht, wir arbeiten auf dem Server". Was denkt ihr über diese Aussage? Inventor 9 ist auf dem lokalen PC - Inventordateien befinden sich auf einem Server der mit einem 100MBit Netz verbunden ist. Wir haben Rechner im Einsatz deren OS im Jahre 2003 installiert wurden - frei nach dem Motto "never change a running system" Danke für die Antworten... Gruß Martin
Die Aussage ist Quatsch. Warum ? 1. Ist das Arbeiten auf dem Server die lahmste Variante (segmentierte Datenbasis in Inventor) dafür gibts Vault oder das sterbende dezentrale Projekt 2. Fragmentierung der Daten passiert auf jedem System und jedem Dateisystem. Defragmentierung ist also notwendig. Nicht umsonst liefert Microsoft das Tool mit. Bei mir werden die Rechner einmal aufgesetzt, dann nur noch gewartet. Neuaufsetzen gibts eigentlich nur bei "äußeren" Störfällen. Das funktioniert ganz gut bei einer sauberen Installation. Ab einem gewissen Alter werden die Rechner getauscht, bzw in ihrer Funktion verschoben. Es spricht also nix dagegen einen Rechner über Jahre am laufen zu halten. Grüße Stefan
Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |
Walker Mitglied
Beiträge: 147 Registriert: 16.07.2001
|
erstellt am: 07. Jun. 2007 21:24 <-- editieren / zitieren --> Unities abgeben: Nur für Leo Laimer
Man könnte und sollte doch ab einer gewissen Datenmenge über ein EDM-System, z.B. COMPASS nachdenken, man umgeht dann Probleme welche mit Vault auftreten könnten. Datensicherheit etc. Und bei entsprechender Netzperformance ist das kein Problem sondern ein Schritt in die meines Erachtens richtige Richtung. ------------------ Grüsse Walker Eine Antwort auf diesen Beitrag verfassen (mit Zitat/Zitat des Beitrags) IP |