Exkluzivně! GeForce 8800 Ultra: vybroušený diamant

Diskuze čtenářů k článku

Vladimír  |  13. 05. 2007 12:49

Mohl by mi někdo od živě.cz napsat na jaké sestavě to bylo testováno?

Souhlasím  |  Nesouhlasím  |  Odpovědět
weber  |  03. 05. 2007 19:13

Nějak jsem přehlédl výkon v DX10 aplikacích,když je to karta hlavně pro DX10.Nebo NVidia předběhla dobu a žádné DX10 aplikace nejsou? Pokud nejsou, kdo to zdržuje?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mirek Jahoda, Mirek Jahoda  |  03. 05. 2007 22:41

Ale jo, jedna DX10 aplikace už je - nVidia demo geometry shaderu (Cascades) (možná se na webu válí už více krátkých demonstrací DX10)

V tomto týdnu má ATI poslat ještě DX10 verzi Call of Juarez jako benchmark, ale zase se bojím trochu objektivity ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Amoondre  |  03. 05. 2007 10:45

Moc negativnych poznamok, musime si pockat na jedinou a dokonalou recenzi na SHIT.DONE

Souhlasím  |  Nesouhlasím  |  Odpovědět
touchwood, touchwood  |  02. 05. 2007 20:24

.. že by se v nvidii báli A(MD|TI) a přicházející R600? Ono totiž uvést až PO uvedení R600 "novou" 8800GTX Utru, která by byla POMALEJŠÍ než R600 je z marketingového hlediska neúnosné. Ale třeba to taky může být jinak...

No, rozhodně se těším na 14.5.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Necroman, Necroman  |  02. 05. 2007 20:45

Podle prvnich testu ma R600 vykon srovnatelny jen s GTS 8800... ac bych rad veril tomu, ze to tak neni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
touchwood, touchwood  |  02. 05. 2007 21:37

no, já četl už tolik názorů (že R600 je srovnatelná s 8800GTS, 8800GTX, rychlejší než GTX apod.), že IMHO je možné, že tu někdo záměrně šíří FUD. Uvidíme. Rozhodně bych v takovém případě z obchodního a marketingového hlediska pokládal uvedení GTX Ultra za naprosto šílené - tedy kromě případu, kdy by nVidia měla v rukávu další a výkonnější model (ale to si myslím, že není moc reálné). Jinak totiž vše mluví proti, kvůli řízení inovačního procesu (inovace nepřicházejí na trh náhodně, ale tehdy, když trh opouští (stáří, vynuceno konkurencí, přesun do jiného segmentu apod.) jiný produkt firmy). Aktuálně nemá nVidia v tomto segmentu konkurenci, takže Ultra bude částečně kanibalizovat GTX. To je východisko mé prvotní úvahy.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Adam Vágner, Adam Vágner  |  02. 05. 2007 22:55

Myslím, že cena je ve srovnání s 8800 GTX o dost vyšší na to, aby to tolik nevadilo, vzhledem k tomu, že výkonem nad výrobci karet přetaktovanými GF 8800 GTX zas tolik nevyčnívá :)

Souhlasím  |  Nesouhlasím  |  Odpovědět
gogo  |  03. 05. 2007 07:27

Že by jsi jim šel poradit, jak to mají dělat - odborníku . Oni jsou to totiž na rozdíl od tebe určitě samí hlupáci.

Souhlasím  |  Nesouhlasím  |  Odpovědět
GTX  |  03. 05. 2007 09:04

Z těchto testů vychází jasná volba 8800GTX overclock, ted stojí o 5 tisíc mín. Natočit se dá jak je vidět mnohem líp než Ultra, takže není co řešit, navíc přijde ještě R600, takže doufám pude pod deset a pak jdu hned do ní

Souhlasím  |  Nesouhlasím  |  Odpovědět
touchwood, touchwood  |  03. 05. 2007 19:37

když už tak "že bys jim šel poradit.." (opravdu mám rád svůj rodný jazyk). To za prvé. Za druhé jsem jen vyjádřil svůj názor, a uvedl jsem, že jde o teorii resp. hypotézu. Pak by sis možná taky mohl rovněž nechat od cesty ty rýpavé poznámky.

Ach, já zapomněl že jsme na Živě...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Tavicz  |  03. 05. 2007 09:16

Ultra byla původně vyvíjena jako silnější varianta 8800GTX, aby porazila případnou konkurenci R600.

AMD-ATI ale na poslední tiskové konferenci přiznala, že momentálně nemá na to konkurovat tak silnému výkonu a R600 bude výkonostně něco mezi GTS a GTX. (Což se mimochodem potvrzuje i v prvních pre-release testech).

NVidia na to pochopitelně zareagovala tím, že si pojistila výkon okamžitým vydáním Ultry s lepšími parametry než GTX a přemrštěnou cenou.

Dobře udělal ten, kdo si na Vánoce koupil 8800 (GTS nebo GTX) a nečekal ani na 8600 ani na R600. Bohužel do budoucna se zřejmě závod NVidia-ATI zpomalí, protože ATI nebude stíhat. Nadto ani AMD si nevede dobře proti Intelu (zejména na poli vícejaderných procesorů). V budoucnosti nás tedy zřejmě čeká zpomalení vývoje a zdražování HW. Pozitivní na tom by ale mohlo být to, že vývojáři konečně začnou optimalizovat.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Golem  |  02. 05. 2007 18:23

"Hlučnost jsme tentokrát neměřili, protože na zapůjčeném vzorku při různých náročných testech pískala nějaká součástka, což znemožnilo přesné měření hlučnosti chladiče hlukoměrem." "Při testech hlučnosti byl větrák odpojen."

Souhlasím  |  Nesouhlasím  |  Odpovědět
Adam Vágner, Adam Vágner  |  02. 05. 2007 18:36

No, to není zase tak težké. Hlučnost větráku se dá proklepnout aspoň poslechem - jeden větrák se dá při pískání cívky sluchem rozeznat dost dobře, ale už se to holt nedá měřit hlukoměrem.

Souhlasím  |  Nesouhlasím  |  Odpovědět
John Jigsaw  |  02. 05. 2007 17:08

Tak na tom pběží Mário jako divý, i bez procesoru

Souhlasím  |  Nesouhlasím  |  Odpovědět
Dejwis  |  02. 05. 2007 16:22

Jako je to, to nej co ted koupíte, ale u této VGA by se hodilo kdyby nesla jádro na 650 MHz (což jsem nejdříve hádal) a paměti GDDR4. Pak by byla úplně jinde, a modely 8800GTX OC by jí nedoháněli. I LOVE Geforce ale mohl ještě zatlačit

Souhlasím  |  Nesouhlasím  |  Odpovědět
masakr  |  02. 05. 2007 16:22

Proč je doporučený tak silný zdroj?? (500W) vždyť karta žere max. 200W a v testech celá sestava brala max. 300W...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Adam Vágner, Adam Vágner  |  02. 05. 2007 16:43

Pomineme-li to, že není dobrý nápad napájet sestavu se spotřebou 300 W 300W zdrojem, podobné to bylo i při uvedení GF 8800 GTS a GTX. Doporučený byl tuším 400W a 450W, 850W pro GTX SLI. Nvidia si asi nechává fóra v případě, že zákazník použije „méně kvalitní“ zdroj.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Male_zvire, Male_zvire  |  02. 05. 2007 16:45

Protože to, že je na zdroji napsáno, že je to třeba Eurcase 300W neznamená, že ten zdroj opravdu 300W dokáže dát. V podstatě je to taková bezpečnostní berlička, aby výrobci gr. karet byli schopní zabezpečit dostatečnou dodávku energie tomu jejich bumbrlíčkovi ať máte v PC co chcete.

Souhlasím  |  Nesouhlasím  |  Odpovědět
mattias  |  02. 05. 2007 17:09

JJ ale mám Fortron 400W a podle specifikací jsem se i obával, že bych nerozchodil 8800GTS

Souhlasím  |  Nesouhlasím  |  Odpovědět
Male_zvire, Male_zvire  |  02. 05. 2007 17:14

Třeba příklad Fortron FX500-A dá podle výrobce 460W. 500W nárazově do max 30 sec. trvání.
Ale reálně se z něho dá vyždímat 440W když se složí +3,3V +5V +12V1 +12V2. SAmotná +3,3V a +5V dá 150W max.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Adamantium  |  02. 05. 2007 16:06

Není lepší si koupit 8800GTX a nataktováním pamětí a jádra z toho udělat 8800 Ultra? Zajímalo by mě, nakolik půjde přetaktovat GTX a Ultra, podle mě se to o moc lišit nebude, ale počkám si na testy..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Ja  |  02. 05. 2007 16:14

Na anandtechu vyšla taky recenze 8800Ultra. Srovnávají ji s eVGA 8800GTX OC (KO ACS3), která je mnohem levnější a přitom se rozdíl pohybuje do 5%.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mirek Jahoda, Mirek Jahoda  |  02. 05. 2007 16:15

Přetaktování Ultry je v článku. GTX se prodávají dost často nataktované na 611/2000 MHz plus minus. Ale s Ultrou máte i lepší paměti a hlavně vyšší takt stream procesorů. Samozřejmě to neodpovídá tomu cenovému nárůstu - za ty peníze máte dvě 8800 GTS do SLI a ještě vám zbude. Jak jsem ale psal, je to karta pro ty, co chtějí aktuálně to nejlepší bez ohledu na cenu.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor