Chtel bych se jenom zeptat jak si mohu spocitat onu kapacitu, kterou je schopen system adresovat. Velice bych to potreboval. Dekuji!P.S.:Pokud by v tom nebyl zadny problem, mohl byste mi to poslat na e-mail: xkix@seznam.cz
jak dlouho to bude trvat MS, nez to obslehne. :o)
Solaris se dodnes dodává s file systémem, který nemá žurnálování. Firmy které to s daty myslí vážně (tj. většina těch co jede Solaris) musí dokoupit Veritas FS. Ten je vyjde srovnatelně draho, jako licence Windows serveru. Přičemž NTFS má žurnálování od roku 1993, tedy 12 let.
Tvoje tvrdenie je sice pekne, ale myslim ze firmy idu za kvalitou.Windows nieje podla mna plnohodnotny OS co sa tyka serverov.Unixacku stabilitu Windows nikdy nebude mat aj keby sa na hlavu postavil a pouzil 3x viac BSD kodu ako ma implementovaneho teraz.Je pravda z LVM/VVM tu je uz dlhsiu dobu, ale mne osobne sa nepaci, su s tym same problemy pri administracii. Ak ste adminovali Tru64, tak viete o com hovorim.Vazne skuste si dakto adminovat FS Tru64-ky, alebo FS HP-UX 10.23 - proste paradicka.Ak to Solaris este vylepsil, tak klobuk dolu.
To neni pravda - solaris od verze 7 podporu zurnalu ma. Jen neni defaultne zapnuta. IMHO VxFS je o necem jinem nez jen o zurnalovan, pak by totiz nemelo smysl ho vyrabet jak pro Solaris, tak pro Windows, Linux a treba i HP-UX ci AIX.
z clank uneni vubecpatrny jak bude resena ta konzistence dat, jestli to bude jako softupdates v fbsd nebo jako journal v linuxu...
Bude resena copy-on-write, tedy zmena v jednom bloku se nebude provadet primo v nem, ale nakopirovanim puvodniho obsahu se zmenou do noveho bloku a az potom se updatnou pointery. To znamena, ze se nikdy nemodifikuji live-data. Jinak je to popsano zde: http://www.sun.com/2004-0914/feature/P. S. Kopirovani na nova mista overhead neprinasi, nebot u blokovych zarizeni nelze zmenit mene nez jeden blok (pri mensi zmene se musi precist, zmenit a zapsat cely blok zpet). Navic vyvojarum dava zapis na nove misto moznost vylepsit planovani i/o operaci v pripade zmen dat (alokace tak, aby planovaci (zrejme elevator) algoritmus byl co nejucinnejsi).
Ad kopirovani na nova mista overhead neprinasi - kdepak, jenom fragmentace "mírně" stoupne :((. Navíc při pdate bloku bude nutné zapsat na nové místo, a pak ještě provést update pointeru. Protože opravdu nelze změnit méně než jeden blok, zapíšeme hned dvakrát :((
Pravdupovediac, pripada mi to ako clanok vytvoreny nejakym PR-oddelenim. Bombasticke slova, omielanie marketingovych blabolov, ale v podstate vela noveho tam neni...128bitov? No ok, ale otazka znie, naco? Aby sme boli pripraveni na to, ked nam o 50 rokov nebudu stacit tie terabajty, ktore ani teraz nemame?Virtualizacia tiez neni nic noveho, LVM tu mame uz pekne dlho. CRC, journal a podobne techniky na zabranenie poskodeniu dat tu mame tiez uz dlho. A o tom, ze dnes je nieco v IT vymyslene "od nuly" sa da opravnene pochybovat."spatna kompatibilita", lol, tiez pekny blabol. Co maju spolocne aplikacie a suborovy system? Takmer ziadna aplikacia priamo k diskom nepristupuje, vyuziva sluzby systemu. Ten obrazok "tradicna a ZFS architektura", to je tiez pekne zavadzanie. Ta "tradicna" bola mozno pred 5 rokmi, uz davno tu mame lvm ako ekvivalent tej "uzasnej novinky" - storage pool, kde tiez moze uzivatel menit velkost suborovych systemov, a nevsima si hardwarovu uroven. Skratka bombasticky clanok, ale dokopy nic noveho...
> Pravdupovediac, pripada mi to ako clanok vytvoreny nejakym PR-oddelenim.V takove situaci se vetsinou podivame na zdroj, ktery byva pod clankem uveden.
Ten clanek je hroznej. Nedozvedel sem se tam vubec nic, krome toho ze ten FS je transakcni. "Sami si spočítejte, jakou kapacitu je schopen takový systém adresovat." Jak si to muzu spocitat? To snad zalezi na tom, jak je ta adresace udelana a ne na poctu bitu ??? Autor clanku o tom FS nevi vubec nic...
Samozrejme ze to zalezi od toho ako je adresacia urobena ale v principe sa vzdy na adresovanie pouzije nejaky pocet bitov. V pripade ZFS je to 128 co zname ze vie adresovat 2^128 sektorov. To uz pri 512 bytoch na sektor dava pekne ciselko 174224571863520493293247799005065324265472 bytov.Skor by ma zaujimalo aku opravnu a detekcnu schopnost ma ten 64 bitovy kontrolny kod. Ja si z vysokej pamatam ze na zaklade poziadaviek na detekciu a opravu sa da povedat kolko redundatnej informacie potrebujem aby som to dokazal. Z udaju 64 bitov kontrolnej informacie akosi neviem nic vydedukovat. Mylim sa?
vies vydedukovat ze je tam chyba, mozno dokonca aj par chyb opravit, zalezi na tom co sme nevideli... v tomto clanku naozaj chyba hrozne vela veci, spocitat si kapacitu moze kazdy jako xe:ja si ju spocitam 2^128 * 2^19 (pocitam cluster 1024x sector)ale zajtra si mozem vymysliet aj iny vypocet...
1) Tohle jsem četl (slashdot?) už asi před půl rokem.2) 64 bitů pro adresování 512 byte sektorů v pohodě stačí (2^73 byte = 2^33 Terabyte = 8 Heptabyte)3) Je to plýtvání, marketingový tah, a především blbost.
1) vtedy to bolo vo vyvoji, teraz to ide von2) autori na blogu, ktory je uvedeny v zdrojoch info k clanku to vysvetluju3) ani zdalekatu
Tak pozor, pokud by se autor obtěžoval věnovat technickým detailům (nebo ty přečíst technické specifikace), tak byste zjistili, že ona 128bit adresace je vlastně jen taková drobnost, protože tento FS skrývá několik opravdu dost nových myšlenkových koncepcí nebo spíš jenu novou koncepci, která má za následek opravdu zajímavé věci (pokud je clovek admin) například:*Kopírování souboru bude atomická operace (!)*Lze vytvořit něco jako statickou kopii disku (opět jedinou operací), kterou lze následně pohodlně zálohovat jelikož se nemění, zatímco všechny aplikace běží a pracují se svými daty která mohou dále měnit (!!!)Tenhle systém opravdu řeší některé věci "hodně jiným způsobem", takže umožňuje funkce, které se na jiných FS blíží nemožnému. Jediná otázka je, jak to bude fungovat v praxi... Ta technologie je dost super.Tomáš Kubeš
Ehm, muzu se zeptat, co je tak hrozne revolucniho na vytvoreni image z disku za behu aplikaci pri zachovani konzistence dat ? To Vam uz dneska nabidne kazde slusnejsi pole a sw je na to habadej.
Houby pole a snapshoty, 2 FC pole s 3 RAID v mirroru, z nich jeden (ten kde jsou 2xRAID/Slice na poli) odpojite, backup a pribuldit .... i tohle jsem jednoho admina vydel delat.
Mhhh tak tohle(snapshot, najit disk ktery se posunul na zbernici) uz umi i windows, at zije veritas volume manager !!!!Jinak pokud to bude umet samo najit tu zmet v /dev/* i kdyz se neco zmeni a provede rekonfiguracni reboot, single mode a oprava .... tak HURAAAAA vitam Solaris ve svete linux s SW RAID a LVM2 .... ktera mimochodem umi to same uz nejaky ten rok a disk si umi sam najit snad uz od kernelu 2.2,ja to zacal pouzivat az 2.4 (predtim jsem mel HW raid), i spare disky to umi, to je co .... a o vypadku a rebuildu vas informuje emailem, snmp atd atd XFS + SW Raid + LVM2 kernel 2.6.x... kde mete Sanpshoty (ta vase skvela feature kterou do par mesicu budou mit i ide/sata diskova pole a NASy ji uz maji)Ale Solarisu to preji, konecne bude mit FS a system, ktery nebude tak nachylny na zmeny na SCSI a FC a nebude potrebovat licenci na VxFS
Kde jsi vzal HeptaByte? Bylo by to sice logičtější, ale bohužel už si zavedli (aspoň jsem to někde viděl):K = KiloG = GigaT = TeraP = PetaE = ExaZ = ZettaY = Yotta
No, jak se na to koukam, tak v zasade odkoupili od Tru64/Alpha jejich Advanced Filesystem Featury to ma uplne stejne... a uz to nejaky ten rok ci pet let funguje.
No, jak se na to koukam, tak v zasade odkoupili od Tru64/Alpha jejich Advanced Filesystem Featury to ma uplne stejne...
Az na ten otresny titulek.
Systému WinFS je zavádějící nazývat Filesystémem, jedná se jen o indexové rozhraní běžící nad FS nikoliv o FS samotný.
Ovšem tuto demagogii šíří již MS WinFS=Windows filesystem. S fyzyckým ukládáním dat to nemá nic společněho. Ve windows Vista(nehledě na to kdy) bude jako souborový systém NTFS. Proč ho tedy vůbec zmiňovat při popisu solarisu?
Neškodilo by ten titulek poupravit... už sem se lek, že už někdo přišel se 128 bitovym systémem.. ale že se jedná o File systém se jaksi šlověk doví až z hlavičky.Inu Bulvární praktiky na Živě se sim dál tim víc nezapřou... je to škoda... už dávno neni živě seriozní periodikum...
Presne tak, kdyz jsem to videl tak jsem hnedka kliknul, protoze jsem si rikal "sakra a na cem ten 128b system bude bezet, a ono ve skutecnosti jde o souborovy system se 128 bitovou adresaci.Jinak myslim ze rozsirovani adresace a tim maximalni mozne velikosti je to posledni co bude vetsina adminu na tomto systemu zajimat. Nejdulezitejsi je opravdu snadna managovatelnost a samoopravitelnost.
Tohle není žádná bulvární praktika, prostě mi omylem vypadlo jedno slůvko a už je to opraveno.
Naozaj opravene? Ja tu stale mam nazov: "První 128 bitový systém od Sunu už brzy"
Ačkoliv systém SOLARIS zatím nepoužívám...jsem velmi rád, že teď vznikne tlak na všechny důležité softwarové firmy, aby dali dohromady vlastní 128-bitové řešení a 128-bitové komplexní aplikace, protože nepochybuji o tom, že současné 64-bitové technologie skutečně přestanou za nějakých 25 let stačit.Rozhodně mi však chybí informace o 128-bitové procesoru AMD K16 / 90 GHz a také o nějakém solidním 128-bitovém operačním systému...Linux ?, BeOS ??, Windows ???A moc by mne zajímalo jaké jádro budou mít, za 20 let, všechny grafické karty...1024 nebo 2048 bitů ???
Ide o suborovy system - sposob ukladania dat na disku, uz v dobe 32bit. procakov boli 48 a 64bitove suborove systemy... Takze nevidim problem aby v dobe 64bit. procakov niekto iny prisiel zo 256bit. ss.
> Takze nevidim problem aby v dobe 64bit. procakov niekto iny prisiel zo 256bit. ss.No, 256bit filesystem by byl v dobe 64bit procaku celkem overkill ...128bit FS ma omezeni na 3.4*10^26 terabajtu256bit FS ma omezeni na 1.2*10^65 terabajtuRozhodne si myslim ze naskok velikosti pouzivanych filesystemu "v bitech" oproti velikosti pameti nebude rust tak rychle ... pred cca 14 lety byl "prumer" tak 1mb ram a 80mb harddisk (80nasobek) ... dneska je to tak 512mb ram a 160gb harddisk (320nasobek), coz je narust na dvojnasobek za kazdych cca 7 roku. Cili oproti adresovemu prostoru pameti potrebuje mit adresovy prostor filesystemu vicemene jen "skoro" konstantni pocet bitu navic. Doted (32bit cpu, 64bit FS) byl naskok FS 32 bitu, kdyz to bude 64bitu (64bit cpu,128bit fs) tak to vydrzi o dost dele (aneb i 96bitu by stacilo, ale s 96bity by se blbe pocitalo, takze je lepsi dat rovnou 128).Absolutni vykony rostou rychleji ...Jenze za chvili stejne narazime na fyzikalni omezeni (aneb zeme se sestava radove z 10^50 ( = 2^166)atomu, do kterych by se mohla informace ulozit... 256bit fs MOZNA nebude mit smysl.
Asi zapominate na to, ze ZFS (a Solaris vlastne vubec) je urcen predevsim pro servery kde 160GB neni zadna velikost disku, ale spise operacni pameti. Diskova kapacita casto byva radove v TB jiz dnes ...
No kdyz se vyrabej pulterabajtovy harddisky tak to neni zas takovy problem ... staci dat 2 do raidu a mam terabajt :o)64 filesystem je omezen na 18milionu terabajtu. Terabajt ma uz kdekdo, treba organizace co spravuje www.archive.org si zacala porizovat petabajtova diskova pole (velka draha krabice co zere 60KW). Ale pri soucasny technologii sestavit diskovy pole ktery prekroci 2^64 bajtu ... asi ne, to by melo spotrebu radove v desitkach az stovkach megawattu a cenu radove tak 10 miliard dolaru :o)Troufnu si rict, ze zadna firma na svete tak velky diskovy pole nema a tak dalsich 5 az 10 let asi ani mit nebude :o)
Co treba Google? Nevim kolik ma kapacity disku (diskoveho pole), ale nekde jsem tusim cetl ze prohledavaci engine zamestnava radove 10tky tisic procesoru. Zas bych to s tou jistotou tak neprehanel v tom rozmezi 5-10 let, jelikoz takovych predpovedi uz bylo .... Nemluve o tom, ze ZFS ma byt system urceny ne na nejblizsich 5 let, ale spise nejblizsich 10-20 let.
Jo, ale jsou to "bezny" pc, ktery asi nebudou mit kazdy v dobe vic nez terabajt ... takze dohromady to je radove desitky petabajtu - asi vic nez ma web.archive.org ale furt ne dost aby prolomily hranici 64bitu .... na to by potrebovaly tech PC radove 1000x vic ...
Zcela urcite muzu rict, ze 90 GHz procesor nebude, pokud se neobjevi nejaka uplne nova technologie. Zanedlouho procesory dosahnou svych fyzikalnich limitu, takze jejich rychlost uz nebude mozne navysovat.
hmm, tohle už jsem slyšel několikrát v minulosti, myslím že nějakým technologickým limitem měly být už 3 GHz Však oni to soudruzi z USA nebo západní Evropy (nebo odjinud) nějak vymyslí
90GHz je opravdu moc, myslim ze vyhlidkove se da dostat se "standardni" technologii mozna na nejakych 10GHz (prece jenom mame par konstant se kterymi toho moc nenadelame - treba rychlost svetla). Spise se bude rozvijet paralelni zpracovani. Jen se podivej jak zacali vsichni cpat do procesoru dual core. Proc se hnat za technologicky slozitymi resenimi, kdyz tu mas uz hotove technologie ktere umoznuji levnou masovou vyrobu a staci je jenom vhodne upravit a "nastackovat". Koukni se treba na architekturu Cell procesoru.
Frekvenci mozna ne, ale vykon jo. Proste prijdou vicejadrove procesory nebo jine technologie, ale vykon poroste, frekvence nefrekvence :o)
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.