das ntfs nicht fragmentiert ist eine legende, vielleicht zum vergleich mit fat fragmentiert es weniger stark, das hängt aber von der art der daten ab und mit welcher clustergröße das filesystem angelegt wurde. ein wichtiger aspekt bei ntfs ist die masterfiletable (mft) die wird standardmaäßig miz 12,5% der volumekapazität angelegt, darin werden dann alle wichtigen sachen bezüglich ntfs reingeschrieben, z.b. auch der index, wo die dateien auf dem filesystem zu finden sind. wenn der bereich nun zu klein ausgewählt wurde, oder man sehr viele dateien auf das filesystem schreibt, kann es vorkommen, daß die mft auch in bereiche geschrieben werden, die nicht mehr am stück zusammenhängen sondern verteilt auf das volume, dadurch fragmentiert die mft und die performance leidet. den mft-wert kann man in der registry andern, maximal kann man 50% eines volumes für die mtf reservieren, das sollte natürlich passieren, wenn das filesystem noch leer ist. ein anderer aspekt ist, wenn man daten löscht, werden diese freien bereiche nicht automatisch wiederverwendet, dadurch entstehen wieder fragmente in der mft die erst beim kompletten neu anlegen der mft genutzt werden. die machen nun so tools wie defrag von ms das ja bekanntlich der diskkeeper von executive sofware ist, der erste ntfs defragmentierer überhaupt und von ms gekauft wurde. die dateien und direktorys könne auch fragmentieren, z.b. wenn man große softwarepakete wie datenbanken installiert. vor solch einer großinstallation sollte man das volume defragmentieren, dann legt die installation die dateien und die verzeichnisse in einer optimalen struktur an ...
greetz
hugo