S pevnými disky nikdy problémy nebyly, i po odečtení režie systému pořád zbývá na uložení dat o trochu víc, než slibuje etiketa. Koukám namátkou na 4TB disk. Tento disk má 4,0 TB (4 000 787 030 016 bajtů), tedy o 787 megabajtů víc, než výrobce slibuje. Na tomto disku děleném systémem GPT je jeden oddíl NTFS (proč jsem tehdy nezvolil ext ani nevim, možná jsem počítal s občasnými přesuny do PC s windows), na něm je 4,0 TB (4 000 785 964 544 bajtů), jak vidno režie systému nezabrala ani 2 megabajty, což je slušný výkon (nevím co vše je v ntfs rezidentní a co se počítá do datového prostoru, ve fat to byly akorát adresáře).
Vezmu-li druhý disk 2,0 TB (2 000 398 934 016 bajtů) zase slibovaná kapacita s rezervou. A do třetice SSD 240 GB (240 057 409 536 bajtů), to nevím kolik slibovalo, jestli to nebylo 256, skříň opravdu otvírat nechci.
Disky se podle mé zkušenosti nešidí, co se šidí jsou flešky, 32GB je často jen 30 nebo 28. Rekordmanem je 512MB fleška, která měla jen 400MB, je to už dávno, ale tento podraz jentak nezapomenu. Když jsem u toho, tak si proklepnu flešky co mám po ruce: Kingston 64GB: 62 GB (62 008 590 336 bajtů), tedy o 2G míň, Sandisk 256GB: 256 GB (256 087 425 024 bajtů) vida sandisk je poctivější, daroval mi 87M navíc, Verbatim 16GB: 16 GB (15 577 645 056 bajtů) zase jeden šizuňk, Kingston 128GB: 125 GB (124 721 823 744 bajtů) to je asi zatím rekord. Víc toho po ruce nemám, ale sedí to s tím, co jsem říkal, že výrobci disků jsou v pohodě, kdo šidí jsou výrobci flešek a paměťových karet (a SSD, tam si taky pletou 30 se 32GB a podobně).
Co je větší problém, že mrkvo$oft stále nevzal na vědomí soustavu SI podle které je kilo 1000, mega milion, giga miliarda, terra bilion, peta biliarda a tak dále a používá ve svých programech stále mocniny dvou což už zhruba od přelomu tisíciletí tak neni (ta výjimka pro výpočetní techniku se dávno zrušila, kromě toho že jak s epíše v článku se tak dělo už od sedmdesátých let). Linux ukazuje velikosti správně, teda pokud výrobce disku opravdu nešidí. Obávám se, že výrobci disků buď budou muset zatlačit na m$ aby uvedl do pořádku svůj operační systém, nebo začít dělat disky podle toho, jinak tady tyto spory budou na věky.
Dvojkové jednotky u pamětí mají jednoduchý důvod, určují počet adresních vodičů a nebývá běžné, nebo alespoň nebývalo dřív běžné vyrábět paměti s dírama, tedy každé kombinaci vstupních bitů odpovídala jedna datová buňka. Proto jsou taky kapacity ostupňované v řadě 1, 2, 4, 8, 16 a tak dále až do 1024 což je kilo 2048 dvě kila a tak dále až někam do terabajtů. U disků, flešek, magnetických pásků a dalších médií nemá toto příliš smysl (možná ještě u flešek ano), ty se nemusí nutně rozrůstat po mocninách dvou, i když se to taky tak děje, někdy s mezikroky (mezi 1TB a 2TB bylo např 1,5TB a podobně). Což je tím, že tyto paměti se neadresují paralelně vodičema, ale tím, že se posílá číslo buňky/sektoru/bloku jako součást příkazu čtení nebo zápisu a neni problém, aby (větší) část adresního prostoru byla neobsazená, a to rozhraní mezi platnými a neplatnými adresami nemusí nutně být na okrouhlém čísle.Pokud jde o optické disky, DVD (4,3 a 8) už považuju za moc malé ale po tom, co vím, že na 25 GB kotouček blu ray uložím 23 giga a na 50GB jen 45GB (kapacita je prostě zaokrouhlená k nejbližší vyšší kulaté číslici), překvapilo mě, že na 100GB kotouček se opravdu vejde 100 miliard bajtů (ne třeba 97 325 789 nebo 95 654 369 ale právě 100 a nějaké drobné). Bohužel toto dělám obvykle ve windows, takže tam si zmatků s jednotkama užívám.