Ja jsem zacal delit velky disk kvuli velikosti clusteru. Kdyz mam na disku hodne malych souboru, treba zdrojove kody... pro programovani. Tech jsou tisice a je-li cluster je velky (třeba 32kB), tak jsem zjistil, ze se asi ctvrtina mista na disku ztrati v ne zcela zaplnenych clusterech. Chce to trochu vedet jak se na disk zapisuje. Ve strucnosti FAT a FAT32 prideluje misto na disku po kusech danych tusim pri vytvareni oddilu. Potiz je v tom, ze soubory, ktere ukladam na disk nemaji, kupodivu , velikost nasobku tohoto kusu. Ukladam-li soubor o velikosti 40kB, spotrebuji se na disku, pro situaci s 32kB clustery, 2 takove kousky. Tj. 64 kB. 64-40 je něco kolem 24. Takže 24kB leží ladem a nedaji se nijak vyuzit. 24/64 je cca 0,37 tj. 37%. Je to modelovy priklad. V praxi to bude mene, ale princip je stejny.
S takovou situaci se neda nic moc delat nez zmenit velikost clusteru, nebo pouzit ci vymyslet nejaky jiny ukladaci system. Hacek je v tom, že zmensenim clusteru, tusim ze nejmene je 4kB, se velke soubory ukladaji do velkeho poctu clusteru a s tim je spojena nejaka ta provozni rezie, takze to zpomaluje jak cteni, zapis tak i defragmentaci, kontrolu disku... Tak takhle to pry nejak na tom disku chodi. Snad neziju v omylu : -)
Takze zpatky k deleni disku. Podle toho co chci na disk davat optimalizuji. Preci jen jsem si koupil velky disk aby se mi na nej hodne veslo a chci vynalozene penize radne vyuzit. Takze mam oddil na OS, na kancelar a programovani, na muziku a filmy, na swap. PM je na tyhle veci docela fachman. A proc FAT..? No jak nekdo uvedl vyse, je to asi nejjednodussi cesta jak sdilet data mezi oknama a linuxem.