Intel chystá rychlé SSD

Diskuze čtenářů k článku

Topstar81  |  12. 03. 2008 12:03  | 

Čím více výrobců, tím větší konkurence, tím menší cena. Jen houšť. Už se těším, až nahradím svůj systémový disk za SSD.

Souhlasím  |  Nesouhlasím  |  Odpovědět
-=D4rthM4u1=-  |  12. 03. 2008 12:23  | 

Musím jenom souhlasit, ale aby uz to kleslo na nejakou "lidovou" cenu.

Souhlasím  |  Nesouhlasím  |  Odpovědět
fantomaz  |  12. 03. 2008 14:16  | 

No já si myslím, že to bude prodejné i za vyšší cenu než běžnou. Není potřeba mít velkej disk na systém. Ten postačuje (dnes) tak do 20GB a systém se značně zrychlí. Datová část (fotky, videa, dokumenty) může být na levném klasickém disku. Tam není potřeba mít okamžitou reakci. Takový počítač se celkem běžně staví pro náročnější zákazníky (i pro hry) s tím, že pochopitelně tam není použit zatím nedostupný SSD disk, ale Raptor který je také rychlejší než běžné disky a současně dražší. V připadě raptoru je zrychlení dost znát, tak proč časem nepoužít SSD.
Procesory, paměti, grafické karty - to vše se každým rokem zrychluje. Pevné disky spoustu let v rychlosti stagnují. SSD je právě odpověď na to. Až přijde masivní nástup SSD, tak příjde revoluce.

Souhlasím  |  Nesouhlasím  |  Odpovědět
P.  |  12. 03. 2008 15:00  | 

Naprosto souhlasím! Zrychlením disku udělám "úžasnou mašinu" i z kdejaké plečky. Jeden PC jsem Raptorem vybavil (procesor, paměť a deska nejsou nic moc, v podstatě skoro to nejlevnější co se dalo v létě sehnat) a je radost s tím dělat: start, ukončení Woken, spouštění programů, všechno o poznání rychlejší nemluvě o tom, kdyby tam byl SSD...

Souhlasím  |  Nesouhlasím  |  Odpovědět
yogi007  |  12. 03. 2008 15:05  | 

... podla mna bude pre masovejsie rozsirenie potrebna hlavne zmena technologie, nakolko sucasne (v SSD diskoch pouzivane) pamate typu flash (teda kazda jedna pamatova bunka) umoznuju len obmedzeny pocet zapisovacich cyklov (radovo len niekolko par stotisic resp. milionov), co by v pripade umiestnenia swap file (co je vo win viacmenej nevyhnutne zlo) odpisalo SSD disk za par tyzdnov/mesiacov. Robil som pokus s obycajnou 2GB CF kartou, ktoru som cez redukciu CF2IDE pouzil ako IDE HDD, nainstaloval som linux nechal som vytvorit 256MB swap partition a po 1,5 mesiaci sa na CF objavili prve vadne pamatove bunky a verte alebo nie, tie flash pamate su na 99% podobne.

Souhlasím  |  Nesouhlasím  |  Odpovědět
jk  |  12. 03. 2008 21:34  | 

SSD disky toto resi interni logikou zapisu, tj. rovnomerne vyuzivaji vsechny bunky, takze by tam mel vydrzet i swap, prostym nasobenim napr. 60GB x 10000 zapisu = 600 TB, coz nezapisete behem zivotnosti pocitace ani nahodou.

Souhlasím  |  Nesouhlasím  |  Odpovědět
tomash  |  16. 03. 2008 11:27  | 

no tak rozdil je uz treba u pouzite technologie - NAND x NOR ....

Souhlasím  |  Nesouhlasím  |  Odpovědět
snake  |  12. 03. 2008 15:16  | 

Paměti že se zrychlují? Paměti jsou na tom myslím ještě hůře než disky, od dob SDRAM 133 MHz (no, možná dokonce spíš od dob FPM či EDO RAM) nedošlo v podstatě k žádnému zrychlení. Ano, samozřejmě, máme tu dnes ty 800, 1066, 1333 či nedejbože 2000+ (DDR3) MHz "superhyperrychlé" RAMky, ale když si zkusíte zjistit jejich skutečnou (náhodnou) přístupovou dobu v nanosekundách vydělením rychlosti sběrnice v MHz počtem cyklů k prvním datům, zjistíte, že se nic nepohlo. Při náhodném přístupu tak dnes CPU čeká již nikoli desítky, ale více stovek (!!!) cyklů. Ano, (sekvenční) přenosová rychlost se nám zvedá, stejně tak i kapacita, ale oboje se zvedlo i u disků (kapacita se zvedala u disků o něco rychleji než u RAM, přenosová rychlost zas naopak). Nebýt monstrózně se zvětšující L2 cache, už dávno by procesory kvůli pomalé RAM neměly co dělat v drtivé většině svého výpočetního času. A proč monstrózně? Protože L2 dnes dělá nějakých 90 % z celkového počtu tranzistorů, co jich CPU má! Na všechno ostatní, a že je toho tam hodně (několik ALUs, FPUs, prefetcher, různé řadiče a jánevímcoještě) zbývá pouhých 10 %.
P.S. V podstatě jde o šílenou ironii, protože RAM je s postupem času čím dál tím méně opravdově RA, zato však o to více sekvenční (burst je sekvenční). A tím se tak svým způsobem více a více přibližuje diskům...

Souhlasím  |  Nesouhlasím  |  Odpovědět
v0cas  |  12. 03. 2008 23:22  | 

smysl tohoto prispevku jsem opravdu nepochopil, ma to byt, souhlas, nesouhlas, polemika, konstatovani ci co?

Souhlasím  |  Nesouhlasím  |  Odpovědět
snake  |  13. 03. 2008 09:36  | 

Měl to být nesouhlas s kolegou fantomasem, který psal, že paměti (a všechno ostatní) se každým rokem zrychlují... Kdežto disky podle něj stagnují. Podle mého na tom paměti nejsou o nic lépe, pokud ne přímo ještě hůře...

Souhlasím  |  Nesouhlasím  |  Odpovědět
v0cas  |  13. 03. 2008 13:54  | 

Myslim ze pameti se taky zrychluji, to ze latence je stejna nebo klesa minimalne nic neznamena. Podstatna je prenosova rychlost, protoze ta urcuje kolik je procesor schopen zpracovat dat. Od redukce latence je tu prave cache, ale na to prisli vyvojari CPU uz asi pred 30ti lety, takze nic noveho. U disku prijde to same, uz dnes se zacinaji pomalu montovat flash jako vyrovnavaci pamet.

Souhlasím  |  Nesouhlasím  |  Odpovědět
snake  |  13. 03. 2008 17:42  | 

Vidím to přeci jen jinak. Stačí si napsat superkrátký prográmek, který naalokuje více než je velikost cache, a pak bere data místo "po řádkách" "po sloupcích". Což je například případ násobení dvou velkých matic (jedna jde v podstatě sekvenčně, druhá je ale v podstatě necachovatelná, rychlost přístupu najednou klesá na něco mezi desetinou a setinou sekvenčního přístupu). Jediná obrovská klika je, že většina dnešních výpočetně náročných úloh je zpracovávána sériově, cache misses je proto jen opravdu zatraceně málo (několik velmi málo jednotek procent). I tak těch několik velmi málo cache misses zpomaluje výkon dnešních CPU na dejme tomu polovinu toho, jak by rychle běhaly, kdyby bylo vše alespoň v L2 cache (BTW, on je obrovský rozdíl i mezi L1 a L2; dá se říci, že v podstatě stejně velký, jako je mezi L2 a RAM: tudíž velmi citelného zpomalení se dosáhne již při vyčerpání kapacity L1 - viz ten příklad s maticemi nahoře: při dnešní velikosti L1 32 KB a počítání s maticemi integerů (každý 4 B) dostávám pouhých 32K:4=8K čísel; tudíž už jen matice 100x100 se počítá zhruba 10x pomaleji díky vyčerpání L1 a nutnosti brát všechna data z L2).
Těch úloh, které sekvenčně ale nejdou, by se dalo najít jistě více. přitom nemusí jít o nijak obrovské hodnoty zabrané paměti: skutečně stačí, aby data jen o něco malinko překračovala velikost cache, a výkon jen díky tomu klesne na méně než desetinu...
Osobně považuji rychlost (eh, spíše pomalost) dnešních RAM za snad nejvíce citelný bottleneck dnešních PC. Kdyby přístupová doba šla ruku v ruce s frekvencí procesorů, byli bychom dnes pravděpodobně již někde úplně jinde. Rychlé bursty pomocí zrychlování přenosové rychlosti jsou jen slabou záslepkou... Stačí si jen uvědomit, co dělal s výkonem integrovaný řadič u AMD oproti Intelu, abychom uviděli, jak významné je zkrácení přístupové doby "byť jen o trošku"... Natož pak samozřejmě kdyby paměť byla stejně rychlá, jako bývala za dob 486ek! (ve smyslu počtu cyklů, které CPU musel čekat při cache miss)... Ale to jsou samozřejmě pouhá "kdyby"...
P.S. Abych tu svou myšlenku ještě nějak kvantitativně demonstroval: když budu brát ten program zmíněný nahoře jako benchmark a zkusím rychlost jeho běhu na staré dobré 486ce či prvních Pentiích s frekvencí pod 100 MHz, s hrůzou zjistím, že výkon se mi nezvedl za těch skoro 15 let více než 100násobně, jak se nás snaží přesvědčit všichni výrobci dnešních procesorů, ale dejme tomu pouze 2násobně. Uznávám, že je to extrémní příklad, ale v každém případě jde o nezpochybnitelný a překvapivý fakt.

Souhlasím  |  Nesouhlasím  |  Odpovědět
jenda  |  13. 03. 2008 23:57  | 

teorie je hezka vec, ale prakticky dopad druha. Kolik ze skutecnych uloh je takovych ze je latence RAM takovy bottleneck, jak jste naznacil ve vasem priklade? minimum, Amdahlovo pravidlo pak hovori jasne...

Souhlasím  |  Nesouhlasím  |  Odpovědět
snake  |  14. 03. 2008 13:44  | 

To není teorie, to je skutečnost. Sám jsem si ten krátký prográmek před pár měsíci v Cčku napsal (jde v podstatě jen o pouhý dvojitý for cyklus, kde se přičítá opakovaně jednička k i*MAXJ+j-tému prvku), a byl překvapený, že je rozdíl tak obrovský. Skoro 2 řády. Že optimalizací algoritmů jde často významně snížit počet nutných instrukcí k jeho vykonání (mám na mysli teď klasickou informatickou algoritmickou složitost) je jasné každému programátorovi. Ale tady jde o pouhé pořadí, a výkon jde dolů o dva řády. Počet vykonaných instrukcí (a samozřejmě i výsledek výpočtu) jsou naprosto shodné. Jen holt jedním způsobem to máme za vteřinu a druhým za minutu. U disku to samozřejmě nikoho nepřekvapí, tam každý s nutností počítat data seriově/lineárně dopředu počítá a zařídí se podle toho (úplná klasika jsou databáze, které skutečně optimalizují i počet a směr pohybu hlaviček). U přístupu do paměti by takovouhle zradu ale čekal myslím málokdo.
Jinak důsledky ta pomalost paměti bezesporu má i přes obrovskou úspěšnost L2 cache i v denní praxi. Tuším, že se hit ratio pohybuje někde kolem 95+ % (v závislosti na aplikaci, samozřejmě, tohle je ale dejme tomu takový standard). Jenže co asi tak znamená "pouhých" 5 % cache misses? Když na každý jednotlivý miss musím čekat několik stovek procesorových cyklů? To je velmi jednoduché: na každých 20 instrukcí běžících plnou rychlostí holt čekám u jedné několik stovek cyklů na data. Budu-li předpokládat, že standardně trvá každá instrukce jediný cyklus (což je, uznávám, jinak neakceptovatelně zjednodušující předpoklad), bude mi těch mých každých 21 instrukcí trvat nikoli 21 cyklů, ale několik stovek plus 20. To je dnešní realita! Žádná teorie, takhle to opravdu na dnešních CPU funguje, a proto také považuji dnešní přístupovou dobu RAM za bottleneck. Protože už pouhé jediné procento cache misses zpomalí běh CPU _několikanásobně_ (myšleno oproti ideálnímu stavu, kdy by měl neustále co chroustat). Jsou samozřejmě úlohy, kde jde o více procent, či dokonce rovnou o 100 %, jak jsem psal v předchozím příspěvku, a tam je pak propad výkonu vyloženě zoufalý (o 2 řády). Ale i bez těchto málo častých typů úloh na současném HW CPU čekají, jak jsem právě ukázal, značný díl svého času na data. Dokonce i při 99% úspěšnosti L2 cache! Natož pak samozřejmě při skutečných hodnotách, které jsou, pokud vím, typicky o něco málo horší než 99 %.
Takže kdyby paměti držely krok s CPU, byli bychom opravdu někde úplně jinde. Mimo jiné by samozřejmě na CPU nemusely být ty obrovské L2 cache, takže by zbylo více tranzistorů pro jiné a "důležitější" věci. Samozřejmě, je to pouhé "kdyby", paměti jsou prostě pomalé, jak jsou, není pak ovšem na místě nazývat to opravdovým bottleneckem dnešní architektury?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Frantisek  |  15. 03. 2008 11:02  | 

Co se tyce cache miss u L2, tak Vam unikla podstatna vec. L2 hit/miss nastava pouze pri vypadku L1. L1 cache hit byva kolem 99% takze ta vase uvaha pripada pouze pro 1% pristupu do pameti a POZOR ani ten pristup do pameti nebyva kazdy cyklus!

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor
Aktuální číslo časopisu Computer

Megatest 20 procesorů

Srovnání 15 True Wireless sluchátek

Vyplatí se tisknout fotografie doma?

Vybíráme nejlepší základní desky