GeForce FX představena

Diskuze čtenářů k článku

Tom Lamac  |  19. 11. 2002 00:23  | 

vypada to slibne uz se tesim az si ji kolem  dubna ci kvetna poridim, nechci dat za to vic nez 300 babek, jo a jsem tu prvni

Souhlasím  |  Nesouhlasím  |  Odpovědět
kkk  |  19. 11. 2002 01:04  | 

$300? srandujes?

Souhlasím  |  Nesouhlasím  |  Odpovědět
RedRicK  |  19. 11. 2002 09:49  | 

Preco by mal srandovat?... $399 vo februari, $300 v maji (po uvedeni R350 od ATi). Co je na tom nepochopitelne?

RRK

Souhlasím  |  Nesouhlasím  |  Odpovědět
jara  |  19. 11. 2002 02:00  | 

Ted jsem prisel nazranej z hospody a zjistuju, ze mi vlastne staci moje GF2MX400. Bohuzel az vystrizlyvim, tak zas budu premejslet o radeonu 9000pro. tzn narvat zas 2 litry do komplu, abych mel o par snimku navic. Uz me to ...... a jdu radsi chrapat. Sorrrrry. Rano bude muj nazor urcite jinaci. By by blazni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rudidlo  |  19. 11. 2002 08:31  | 

Přesně tak. Nechápu herní maniaky, kteří musí hrát své hry na co největším monitoru v tom největším rozlišení. Sám jsem si všiml, že při zvýšení rozlišení se mi zmenší velikost písem v menu hry. Kdo má potom ty písmenka lovit? Hraní her mne neživí a proto se také neženu za dalšími fps navíc. Prostě pokud se to na vysoké detaily netrhá, tak je mi jedno, která karta to vykresluje.

Souhlasím  |  Nesouhlasím  |  Odpovědět
land  |  19. 11. 2002 09:54  | 

popravde kde jsou ty casy kdy jsem paril .... na GF2MX200 kterou ma do ted na unreala tour. staci na warIII taky ( i kdyz uz nemam moc zapnutych detailiku  a  ani moc velke rozliseni ) ale jedeto je to hratelny .... ovsem kdyz si chci pustit neco nevejsiho nebo warIII v lepsim havu mam smulu :)   takze kdyz jsem vydrzel takhle dlouho s  GF2MX200  tak proc bych si nekoupil po takoveto dobe neco lepsiho a proc si kupovat neco starsiho kdyz muzu mit neco novyho a svym vykonem me to vystaci na nejakej ten rok ( zas tak moc nehraju ale kdyz uz tak at se me to netrha a lespon stoho neco mam)   a hlavne cekam na verzi ALL-IN-WONDER RADEON 9700 PRO MA DORAZIT V NEJBLIZSI DOBE TAKZE SKOUBIM DOHROMADY VYKON S UZITECNYM A CENA ..... VYSOKA JAK JINAK ALE KDYZ SI KOUPIM NECO STARSIHO TAK BUDU MUSET ZASE DRIV DAVAT PRASULKY NA NECO STARSIHO A TAK DALE TAK SI KOUPIN NECO VYKONEJSIHO  A PRASULKY NA DALSI BUDU DAVAT POZDEJC ( ALESPON DOUFAM) a kdyby broc ne .... nemas nebudes nezahrajes a pro neustale vyburovace ze ti kdo si kupuji drahe rychle karty jsou parani a ho.... ci bl.... mam jedno nezavidte a kdyz na to nemate tak si kupte neco starsiho nebo vubec nereagujte bude to lepsi .....

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rudidlo  |  19. 11. 2002 10:21  | 

Tož nevím, ogaro. či si tak zhulený, či co. Když už nemožeš oddělovat odstavce, tak odděluj aspoň věty (nebo rovnou piš těsnopisem, to vyjde nastejno).

Jen jsem projevil svůj názor - nekupuji si vždy to nejlepší - ne proto, že na to nemám, ale že u každé novinky je potřeba zaplatit vývoj a druhý; popř. třetí model v řadě už odpovídá výrobním nákladům, průměrné marži a požadavkům software, provozovaného ve větším měřítku na současných platformách.

A o těch gamerech - taky si občas něco zahraji - tak mám doma nVidii, jinak bych měl Matroxe.

Souhlasím  |  Nesouhlasím  |  Odpovědět
kkk  |  19. 11. 2002 12:54  | 

ja sa chapem preco chcem to najlepsie... Nepovazujem sa za herneho maniaka , hry pouzivam ako niekto iny napr  pozeranie telky, citanie kniziek a pod. Mam geforce 4 ti 4600, 320/666, v 3dmark2001 SE 12000(spomaluje mi to dnes uz pomaly athlon 1800). Dnes kludne staci pri plnyych detailoch aj geforce 3. Avsak ked si zapnem anisotropic filtering na 8x, mam omnoho krajsiu grafiku, ale spadne mi score na 7800. Cize battlefield, spearhead, a ine nove hry mi zacinaju sekat. A to este nepouzivam antialiasing. Viem ze mi to spomaluje hlavne procak teraz(coskoro caka upgrade). Ale s5 k teme, proste ked si uz raz kupim hru(ci inak zozeniem tak ju chcem hrat primerane k tejto dobe a jak bola urobena, a nie s niecim 3 roky starym. To sby som mohol este stale hrat quake3 alebo nove hry v hodnote $20. Ver mi, ani nemam chut hrat povedzme battlefield v nejakych osekanych detailoch.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rudidlo  |  19. 11. 2002 13:11  | 

Nikto ta nenuti.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Ludek Rolecek  |  19. 11. 2002 08:04  | 

S autorem clanku nych polemizoval ohledne pasaze, kde se pise, ze "NVidia se netaji tim, ze karta by mela v pohode v realnem case zvladat efekty z filmu Toy Story" - at se NVidia netaji cim chce, ale efekty z filmu tato karta urcite zvladat NEBUDE. Rendering (napriklad v Toy Story) je trosku o necem jine, nez jen o zobrazeni nekolika (tisic) polygonu. Na tech screenshotech chybi i takova nejzakladnejsi vec jako jsou stiny, tak o jakem Toy Story to zae PR pracovnici z NVidie hovori?

Souhlasím  |  Nesouhlasím  |  Odpovědět
czbird  |  19. 11. 2002 08:31  | 

no ja nevim, vsechny efekty z Toy Story (DivX 5.0 + AC3) zvlada bravurne i moje GF2MX400...   

Souhlasím  |  Nesouhlasím  |  Odpovědět
p  |  19. 11. 2002 11:03  | 

to je pravda

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  19. 11. 2002 09:40  | 

Tak na to pozor, GPU opravdu teoreticky může zvládnout všechny filmové efekty.

Základní problém, proč to dosud nešlo, vězel v pevné řádové čárce. Zkrátka GPU dosud pracují v nějakém pevném rozlišení (např. 10 bitů). Nová generace zavádí floating point. Plus opravdu velké možnosti programování, prakticky univerzální. Tj. nyní - alespoň v principu - všechno, co zvládne hlavní procesor, zvládne i GPU. (V praxi samozřejmě jenom do jisté míry, protože programovací možnosti GPU jsou přece jenom o hodně menší, hlavně velikost programů a paměti je omezená.)

Čili otázka už není v tom, zda GPU něco umí nebo neumí, ale zda je v dané aplikaci výhodnější programovat GPU nebo Pentium. Velmi často bude pro producenty filmů výhodnější a hlavně jednodušší programovat Pentium, ale...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  19. 11. 2002 10:31  | 

Presne na takovy jako jsi ty je mireno prohlaseni Nvidie ohledne efektu z toystory v realnem case. Me snad i presla chut dopsar svuj  prispevek. Snad jen tolik ze na takovej film delalo nekolik mesicu nekolik desitek/stovek superstroju od sgi pripadne byvalyho Digitalu zapojenych do renderfarmy. Pentium4 s GeForceFX by na tom stravilo 10.000let...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Tomáš Holčík  |  19. 11. 2002 10:51  | 

Důvod je jednoduchý, stačí se podívat, kdy bylo Toy Story vytvořeno. v první půlce devadesátých let na to rendrování byly potřeba farmy, dnes na to pomalu bude stačit GeForce FX. ještě tam plně nejsme, ale ToyStory opravdu neobsahuje náročné textury.
Každopádně hlavním prvkem Toy Story je kvalitní příběh, ten GeForce FX sama nezvládne...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Luděk Roleček  |  19. 11. 2002 11:39  | 

Pane Holčíku, nevadí mi, že jste napsal článek o nové kartě, s radostí jsem si ho přečetl a něco se z něho dozvěděl. Nepouštějte se ale do diskuze o tématu, o kterém zcela zjevně nevíte vůbec nic. Možná byste si měl zajít do nějaké videopůjčovny a fil si půjčit a podívat se na něho a případně ho porovnat s nejakým tím technologickým demem. Možná vás překvapí, že i když možná bude v demu použita nějaká "náročná textura", jak vy říkáte, bude celá scéna vypadat poněkud jinak, než ta ve filmu.

Výroba takového filmu trvá několi měsíců, možná let, a není to tím, že by "tehdy" nebyly výkonné stroje. Možná byste si měl někde zjistit, na jakých strojích s jakým výkonem se tehdy film počítal. Pravděpodobně byste byl překvapen....

Fyzikální chování světla vám ještě nějakou dobu žádné GPU nespočítá, na to se spolehněte. Vážne si myslíte, že výkon tisíce před sedmi lety nejsilnějších pracovních stanic lze dnes nahradit jednou GeForce FX za 15 tisíc? Až si někde něco přečtete o pojmech jako je raytracing, radiosity, apod. můžete o tom zase napsat "odborný" článek, jen se prosím vás nedohadujte o věcech, o kterých jste četl v nějakém PR prohlášení...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Tomáš Holčík  |  19. 11. 2002 12:15  | 

Toy Story si pamatuji. je to moc milý film. neříkám, že to GeForce FX spočítá realtime ve stejném rozlišení jako je to filmové, už se to tomu blíží a chybí málo. NVidia míří na realtime kvalitu Final Fantasy: Esence života. Je to skutečně výrazný krok vpřed. Film se pochopitelně bude vyvíjet také rychle, takže se PC a film potká až za pár let. potkají se ale.

Souhlasím  |  Nesouhlasím  |  Odpovědět
xXx  |  20. 11. 2002 15:47  | 

Heh esence života RT?? :o))) Jo a stěma vlasama bys to udělal jak? :o))) Zabraly polovninu renedrovacího času....

Souhlasím  |  Nesouhlasím  |  Odpovědět
Luděk Roleček  |  19. 11. 2002 12:03  | 

Jen se ještě trochu opravím a doplním, protože jsem přeci jen trochu přestřelil a popletl si to s jiným filmem.

ToyStory počítalo v roce 1995 přesně 87 dvouprocesorových a 30 čtyřprocesorových stanic Sun SparcStation II, nešlo tedy o tisíce, jak jsem řekl původně. Možná že výkon každé této jednotlivé stanice je z dnešního pohledu legrační, přesto vás však ujišťuji, že i tak je takový rendering o něčem jiném, než co dokáží dnešní GPU.

Jen pro ilustraci přidám několik čísel z Toy Story 2, i když to možná není úplně relevantní, protože dvojka je přeji trochu dál, než byl první díl: renderovací farma u tohoto filmu se skládala ze 1400 procesorů a výpočet jednoho jediného snímku animace (těch je 25 za vteřinu) trval podle scény od 10 minut až po tři dny. Přitom se uvádí, že Druhý díl je cca 20x komplexnější než díl první.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Martin  |  19. 11. 2002 14:45  | 

Nevim jestli jsem to dobre pochopil, ale jak tak ctu tak se Toystory 2 (pokud by trval 1 hodinu) renderoval minimalne 2 roky? Tak nevim.

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  19. 11. 2002 11:47  | 

Tak aby to bylo úplně jasné - nemyslím si, že se bude příští Shrek nebo co renderovat na GeForceFX. Protože byste tam nedosáhli potřebného extrémního rozlišení, protože finesy v renderovacích algoritmech, které vás odliší od konkurence, snadněji naprogramujete, když se nebudete muset ohlížet na velikost programu a paměti a protože je prostě mnohem jednodušší a levnější naprogramovat to v C a spustit na linuxové farmě složené z PC za babku. Protože to prostě jde a protože reálný čas tam prostě nepotřebujete.

Psal jsem pouze o tom, že to je v principu možné. Nebo jestli chcete, můžete to chápat tak, že zavedení Cg a plovoucí řádové čárky (ale tu umí iDirectX 9) je poměrně zásadní krok vpřed. Ovšem asi víc pro nVidii než pro vývojáře her, protože Cg je proprietární.

Mrkněte na http://developer.nvidia.com/ - je tam o shaderech do 3DS MAX a Softimage|XSI. To samozřejmě z pohledu animátorů není nic zásadního, ale zajímavé to je.

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  19. 11. 2002 12:09  | 

Tady jsou shadery napsané v Cg:

http://www.cgshaders.org/shaders/

Jsou tam volumetrická světla, procedurální oheň, "deprth of field" - všechno se zdrojáky. Ale všechno velice primitivní, producentně softwarových rendererů se bát nemusí. Nicméně je tam vidět, že Cg umí datová pole - i když asi ne práci s velkou pamětí.

Tady je zdrojový kód ray-tracingového dema:

http://www.cgshaders.org/shaders/show.php?id=51

Velice jednoduchoučký, ovšem.

Souhlasím  |  Nesouhlasím  |  Odpovědět
xR  |  19. 11. 2002 13:55  | 

Nedavno jsem cetl rozhovor s Garrym Tarollim (byvaly hlavni vyvojar 3dfx, nyni dela pro nVidii), ktery tvrdil, ze s nv30 je pocitano i do renderovacich farem (!). Staci totiz prekompilovat shadery do nv30 asm. Vykon nv30 s optimalizovanymi shadery muze dosahnout ekvivalence renderovaci farmy s az 80 000 (!!!!!) procesory. Duvod je ten, ze takovy farmy jsou silene neefektivni a shadery intepretovane programy napsanymi  v C++ jakbysmet. 

 Pisu, co jsem slysel, tak me moc nekamentujte, ale myslim si , ze tomu docela rozumim a mohl by mit i pravdu . Typicke shadery se totiz do tech 1024 instrukci v pohode vejdou (vertex shadery zvladnou az 64k instrukci) a rychlost zpracovani je 128 fp16 instrukci(operaci)/takt (4slots*8 pipelines*4 components). FP16 je format, ktery se pouziva ve filmovem prumyslu pro shadery. Podotykam, ze celou pamet na karte (128-256 MB) lze pouzit pro vypocty.

Raytracing a radiosita jsou samozrejme trochu problem, ale daji se "emulovat" tak, ze to nejde poznat.

Souhlasím  |  Nesouhlasím  |  Odpovědět
aiboman  |  19. 11. 2002 10:41  | 

To je pekna blbost. Toy story apod. pouzivaji Ray-Tracing, radiosity a jine techniky ktere jsou casove VELMI narocne zatimco hry pouzivaji ruzne triky aby scena vypadala jakz-takz realne. Napr. stiny nevypadaji uplne realne ale na hru to staci, nemluve o sklech, zrcadlech apod. Cili: v pristich 10 let graf karty nevyprodukuji nic podobneho Toy Story (Shrek, Doba Ledova...).

Souhlasím  |  Nesouhlasím  |  Odpovědět
Tomáš Holčík  |  19. 11. 2002 10:53  | 

Toy Story a Shrek jsou od sebe generace vzdálené. Shrek je fakt grafická síla, Toy Story jen základní funkce. Mají společné jen to, že jsou na počítači.

Souhlasím  |  Nesouhlasím  |  Odpovědět
em  |  19. 11. 2002 11:47  | 

Zdravim

Ono pixar pouziva renerer z Toy Story uz dobrych par rokov (pouzivali ho predtym a budu ho pouzivat aj nadalej, viz Monsters Inc.) pretoze ich princip renderingu (delit trojuholniky na take male plochy, aby boli velke ako jeden pixel a potom pouzit obycajne gouraudovo tienovanie) je uplne genialny. A taketo nieco nejaky accelerator este dlhu dobu nezvladne, z jednoducheho dovodu - nema pamat, aj keby nahodou mal vykon.

Btw. na GeForceFX sa ako 3D programator velmi velmi tesim. Nenajde sa spoznor???

em.

Souhlasím  |  Nesouhlasím  |  Odpovědět
butoo  |  19. 11. 2002 16:54  | 

Tak ste sa tu trochu zamotali do temy ktorej len maloktory z Vas rozumie. Ja asi trochu viac ako niektori odtialto lebo uz 8 rokov robim 3d grafiku. Toy Story 1 skutocne nebol tak extremne narocny ako sa niektorym zda a bol rendrovany na pixarovskom RenderManovi ktory este vtedy VOBEC NEVEDEL REAYTRACING a radiosita vtedy bola len experiment. Reflexie (napr tie kvapky dazda na okne) boli robene reflection mapami a refraction mapami. Az v poslednej verzii rendermana je aj radiosita/GI a s nou sa zatial nic velke nerobilo. Micropolygon displacement je to co zhruba popisuje Em. To bolo vtedy tiez len extremne minimalne pouzivane. Modely bolo tvorene velmi malo polygonmi (videl som nurbsovy wireframe) a Okrem toho displacement mapping je velmi podobny micropolygon displacement a je aj poziadavkou DX 9. Podporovala ho uz aj Parhelia. nezabera pamet lebo povrch sa deli na micro polygony az v cipe a nie je ulozeny a transfromovany cez agp a pamet do vpu. Preto dokaze aj geforce fx displace s niekolko milionmi polygonov /s. Ak chcete mozete si precitat moj clanok o DX 9 ,opengl a novych kartach a la geforce fx a radeon 9700 na www.dv.cz pod nazvom KONECNE REALTIME. 

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  19. 11. 2002 11:33  | 

Konkrétně radiosity prý na GeForceFX udělat jde. Jiná věc je, v jakém rozlišení, s jakým výkonem apod. Tedy proč to vlastně dělat na GPU, že? Ale to je to, co jsem psal.

Ray-tracing se extrémně snadno dělí na thready. (Proto taky mimochodem velmi efektivně využívá hyper-threading.) Jde o relativně jednoduchý program, který jde snadno naprogramovat v Cg (to je jazyk podobný C, kterým se programuje GeForceFX), je ale paměťově náročný.

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  19. 11. 2002 12:04  | 

S tou radiosity jsem to asi přestřelil, dalo by se na tom udělat nanejvýš velice primitivní demo.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Viper  |  20. 11. 2002 10:18  | 

S tím hyperthreadingem si to asi přehnal, ten je efektivní pouze pokud ty dva thready dělají různé věci. Pokud oba budou počítat ve FP tak se stejně jeden zastaví, protože nebude mít dost FP funkčních jednotek v procesoru, ale to už sem fakt moc nepatří, že...

Souhlasím  |  Nesouhlasím  |  Odpovědět
David Petrla  |  21. 11. 2002 11:35  | 

Tady jsou testy P4 s HT:

http://www.aceshardware.com/

Lightwave: + 23 %

Kribi SW renderer: + 33 %!

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jelituss  |  19. 11. 2002 15:54  | 

Pokud vim, prvni celovecerni film masivne vyuzivajici radiozitu bylo az Ice Age (a to nebylo renderovano Rendermanem, ale vlastnim softwarem studia, jez ji vytvorilo). Toy Story je vetsinou na urovni scanline rendereru, az na sceny ktere raytracing vyuziji (a lidi, co porad mate s tim raytracingem? Na cokoliv krome par sklenenych kulicek na chromovem stole to docela hodne sux... zkuste si najit neco o photon tracingu, pak neco uvidite).

 

Souhlasím  |  Nesouhlasím  |  Odpovědět
John Don  |  19. 11. 2002 08:12  | 

Redeon 9700 je král současnosti, jistě - Gforce FX ho asi překoná, ale..... třeba do té doby ATI malinko finančné posílí a udělá rychlejší kartu než je Gforce FX, ATI by vůbec mohla být nějakou dobu na špici! Třeba by si Nvidia rozmyslela ořezávat chipy o všechno možné a nazývat je Gforce 4 MX :) Ať tak jako ta, doufejme, že to Nvidia tentokrát posere a ATI bude nějakou dobu kralovat :o) Pak si snad budeme moci koupit karty Nvidia za nějaký slušný peníz :O) !!

Souhlasím  |  Nesouhlasím  |  Odpovědět
RedRicK  |  19. 11. 2002 09:44  | 

ATI? Radsej nech dalsie rychlejsie karty, by mohli najat viac a lepsich ludi do driver development teamu...

No...take Catalysty 3.7 uz mozno budu pouzitelne  (a ano, viem ze aktualne su 2.4)

RRK

Souhlasím  |  Nesouhlasím  |  Odpovědět
Michal Č  |  19. 11. 2002 08:30  | 

NV30 nebude zdaleka takova bomba, jako byl Radeonek9700, troufám si tvrdit, že výkonostní nárůst nebude tak výrazný, jako byl u R9700, krom toho bude pro R9700 hrát i cena, která jistě klesne po uvedení NV30 ;))

a další věc, mám pocit, že GPU získávají před CPU výrazný náskok, tzn., že k nejvýkonějšímu GPU neexistuje na trhu optimální CPU, které by výkon graf. karty vyhnal na maximum.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  19. 11. 2002 08:42  | 

No, si říkám kdy se pustěj do procesorů, aby ty jejich chipy měli čim plnit ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 08:44  | 

NV30 nebude zdaleka takova bomba, jako byl Radeonek9700, troufám si tvrdit,

...to si teda troufas, vubec nechapu o cem to mluvis, myslis to, ze v aktualnich hrach v realnych rozlisenich je 1,5-3% narustu fps oproti klasicke GF4 (viz test, co tu pred casem byl) opravdu takova bomba? => V tom pripade velmi vtipne. Jedine, co je bomba, je specialni Radeon9700 patch pomalu pro kazdou novou i starsi hru ;)

 

že výkonostní nárůst nebude tak výrazný,

...nekdo tu ma akorat vyraznou mlhu pred ocima...

 

a další věc, mám pocit, že GPU získávají před CPU výrazný náskok, tzn., že k nejvýkonějšímu GPU neexistuje na trhu optimální CPU, které by výkon graf. karty vyhnal na maximum.

...neni treba hned maximum, ale staci prece, kdyz je jasne patrny narust vykonu oproti predeslemu gfx modelu na stavajici (identicke) konfiguraci...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neználek  |  19. 11. 2002 16:10  | 

No konečně. Nenídůležiták zase fanaticky padá do prachu před NV30. Už nám to tady chybělo. Je zase nejchytřejší, o výkonu této zatímpapírové grafárny už má zcela jasno. No uvidíme s čím přijde ATI v době, až se konečně FX začne prodávat, resp. jak dlouho po ní, a jak moc nebo málo zase natrhne nVidii prdel.

Souhlasím  |  Nesouhlasím  |  Odpovědět
vita  |  19. 11. 2002 17:00  | 

Jedno je jistý ta nová karta od ATI se jmenuje RVpřímotop a bude potřebovat 500w zdroj.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  19. 11. 2002 08:34  | 

No jo no, když je nVidia nataktovaná na 500/500 a Radeon na 325/310 tak se pak nedivím že je výkonější ... to by fakt bylo smutné kdyby tomu tak nebylo ... Nicméně až ATI přejde na 0,13 micronu tak to bude hned lepší ...

Ale jinak je to perfekt, dvě supervýkoné karty, tak snad půjdou ceny dolu. Ale na druhou stranu, proč je kupovat, když současné karty zvládají úplně všechno levou zadní ... A DX9 .... ?, to bude trvat minimálně dva roky než vyjdou hry které to budou využívat ... Nebo snad někdo už prohlásil, že začne vyvíjet hru s DX9 ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 08:45  | 

na druhou stranu, proč je kupovat, když současné karty zvládají úplně všechno levou zadní

...no zkus pro zmenu pustit neco jineho nez MS Word a rychle zmenis nazor...

Souhlasím  |  Nesouhlasím  |  Odpovědět
AnalProbe  |  19. 11. 2002 09:26  | 

A co treba? Mam GF2Ti a zatim mi v zadny gamesce (krome vody v Morrowindu) nechybel zadnej efekt a nepozoruju ani zadne zpomaleni oproti GF4 co tu ma kamos na stejny sestave hned vedle. Treba UT2 mi na tom jede moooc pekne. Jedina vec je, ze si nemuzu dovolit zapnout FSAA.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 16:19  | 

(krome vody v Morrowindu)

...no na GF2 predne zadnou poradnou vodu v Morrowindu ani neuvidis

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  19. 11. 2002 13:23  | 

ááááá ..... pan odborník je tady .... Tak mi prosím tě prozraď co mi nepůjde na 8500 v 1024x768 naprosto plynule na nejvyšší detaily ... Klidně ti to řeknu, taková hra neexistuje, a ještě dlouho nebude ...  

Souhlasím  |  Nesouhlasím  |  Odpovědět
RedRicK  |  19. 11. 2002 14:29  | 

Unreal Tournament 2003 full aj s jeho 1024x1024 texturami.

RRK

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 16:23  | 

No ja bych chtel treba videt, jak Ti "lita" Doom3? Ani MOHAA: Spearhead se vsim na max, neni zrovna pri vic vojackach enonuno a tech prikladu je rozhodne povicero... Nerikam, ze se to na GF4Ti4600 (vyjma Dooma) neda prezit, ale do bezstarostne rajske zahrady to ma daleko...

Souhlasím  |  Nesouhlasím  |  Odpovědět
vita  |  19. 11. 2002 17:13  | 

naaaaaprosto plynulej UT2003 že???jako mě s GF4200 .Na venkovních mapach fps: 18-40.To je naaaaprosto plynulý.

Jo a na DOOMa to bude stačit taky 10fps je naaaprosto plynulý.

Souhlasím  |  Nesouhlasím  |  Odpovědět
kamil  |  19. 11. 2002 23:10  | 

nepojede Ti doom3 alpha release

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  20. 11. 2002 09:02  | 

No, obávám se že  DOOM III nepojde plynule ani za deset let, pokud to bude tak prasácky naprogramovaný. Někde psali, že ani R9700Pro to nepobralo ... Jinak UT3 je  naprosto v pohodě, ale nějak nevidím stále důvod, proč bych měl kupovat kartu za 20.000,- Myslím si, že s R8500 mám na další dva roky vystaráno ... (mám ji už rok a půl ... ) Až budou hry s DX9, (za dva roky) tak si koupím R350 za 6.000,-  )))))) 

Souhlasím  |  Nesouhlasím  |  Odpovědět
Lib  |  20. 11. 2002 10:48  | 

2 pripominky:
a) alfa verze Doom3 je tezce neoptimalizovana, jako vsechny ostatni softy, jen UT2003 na 2CD (beta, ale tesne pred vydanim ostre verze) behal znatelne pomaleji.
b) nepamatuju si presne, kdy vysel R8500, ale vic jak rok tu asi nebude. Ja ho mam od unora za 11.5k, to je asi 10 mesicu, a pochybuju, ze za 8 mesicu (rikas jeden a pul roku, to je 18 mes.) by cena klesla jen tak malo ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  20. 11. 2002 15:25  | 

a) no comment

b) září 2001 ... hm, tak sorry, to jsem si myslel že ho mám dýl ... 14 měsíců ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
xXx  |  20. 11. 2002 15:46  | 

Heh seš dobrý komik:o)) Jako koho zajíma (krome vyvojařu samozřejmě) jak běží D3 ver. 0.02.. kde sou tři OBROVSKÉ mapy a monstra se samy od sebe nepohonou:o) Každopádně je fakt je G4 je faj kvůli novým funkcím jako třeba ta voda v MW :o)

Souhlasím  |  Nesouhlasím  |  Odpovědět
Richard Böhm  |  19. 11. 2002 08:47  | 

No tak to má konečně jméno. Teď ještě aby to někdo konečně vyrobil a uvolnil na testy. Stejně to zase nebude takový horký. Pamatuju si když vyšla GF2 a s ní nějaké super demo které mělo předvádět co to umí. No když jsme to skoušeli, tak se to trhalo a fotilo to jak o život. No uvidíme jak se pochlapí teď. Každopádně by ATI měla vážně vládnout ještě tak půl roku až rok, aby se nám trošku zamíchaly pořadí. :0)))

Souhlasím  |  Nesouhlasím  |  Odpovědět
Lem  |  19. 11. 2002 09:22  | 

dota pro autora .. jen jsem se chtel zeptat jeslti je nekde vyuziti toho emulatoru :) nebo pripadne kde se daji sehnat ty TECHNOLOGY DEMOS ?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Tomáš Holčík  |  19. 11. 2002 10:57  | 

zatím nejsou testovací karty, takže ani nejsou demíčka. zkusil bych ale DirectX 9 dema od ATI. Nicméně nevím jesti to pojede, nezkoušel jsem to.

Souhlasím  |  Nesouhlasím  |  Odpovědět
DELCOP  |  19. 11. 2002 09:57  | 

Ať si kdo chce co chce říká, nVidia je klasika a má mnohem lepší podporu v ovladačích... O zvyšování výkonu o desítky procent si u ATI mohou nechat jen zdát...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  19. 11. 2002 10:44  | 

Opravdu?! Nechápu proč sem něco píšete, když o tom nic nevíte!!! Mám v práci 2.53GHz P4 s GeForceTi4600 a doma 2.53Ghz P4 s Radeon9700Pro a musim rici, ze nove Catalysty jsou mnohem bezchybnejsi nezli nove Detonatory. Nevím pánové kam na ty blbosti chodíte, ale měli byste se začít probírat z toho vašeho snu. Jsem spokojen s oběma kartama a každá z nich má své mouchy (v těch ovladačích), ale ani u jedné to není tak hrozné. Z posledních her jsem nerozchodil na Radeonu akorát nový Need For Speed, ale to není chyba driveru, ale primo autoru (píší to na svých stránkách). Zato Unreal Tournament 2003 chodí na Radeonovi mnohonásobně lépe (1600x1200 úplně drtí GeForceTi4600!) a proto ho radši pařím doma. Z mé zkušenosti je Radeon9700Pro je opravdu nejlepší karta na trhu a to nejen pro nové hry, ale i pro staré. Mimochodem ... veril inženýrům z nVidie mnohem víc, ale to co předvedli je fakt slabota, když je skoro stejné jak již několik měsíců prodávaný Radeon9700Pro ... myslím, že inženýři z ATI hravě překonají NV30 a to ještě do jejího uvedení na trh. A to je dobře, aspoň klesnou ceny a budeme si kupovat lepší upgrady do našich PC-miláčků .

Souhlasím  |  Nesouhlasím  |  Odpovědět
kkk  |  19. 11. 2002 13:22  | 

tiez som si kedysi kupil r9700pro (asi mesiac a opl dozadu) a  isiel som ho vratit do obchodu lebo mi nic nefungovalo a zamrzaly mi hry.  Ked si nieco kupim za 400$  tak chcem aby to fungovalo 100% a nie cakat na vyladovanie..

Ale v ten konkurencii s tebou suhlasim

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 16:34  | 

"Opravdu?! Nechápu proč sem něco píšete, když o tom nic nevíte!!! Mám v práci 2.53GHz P4 s GeForceTi4600 a doma 2.53Ghz P4 s Radeon9700Pro a musim rici, ze nove Catalysty jsou mnohem bezchybnejsi nezli nove Detonatory. Nevím pánové kam na ty blbosti chodíte, ale měli byste se začít probírat z toho vašeho snu."

...tohle vysvetluj zoufalcum v ruznych hernich forech, kde se shaneji po nejakem patchi, aby jim ta ktera hra bezela bez kazu v grafice, popr. vubec bezela

 

"Z posledních her jsem nerozchodil na Radeonu akorát nový Need For Speed, ale to není chyba driveru, ale primo autoru"

...no vidis, ja nemusim nic na autory svadet (tj. hledat chybu jinde, jen ne u sebe) me jede NFS:HP2 naprosto v pohode a nemusim si tudis nic namlouvat...

 

"veril inženýrům z nVidie mnohem víc, ale to co předvedli je fakt slabota, když je skoro stejné jak již několik měsíců prodávaný Radeon9700Pro"

...tim si myslel napr. ten skoro polovicni fillrate, kterym disponuje 9700Pro oproti GFFX? O pojmu "skoro stejne" ma teda kapku jine predstavy...a ne, ze to treba Radeona vydrti v Doomu o tolik snimku, kolik cini naskok Radeona pred starickym GF4...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  19. 11. 2002 16:59  | 

hmmm, nepripada Ti to trochu vsechno slabe?! Ten fillrate nic neznamena, protoze je docilen diky DDRAM II s 2x vyssi frekvenci nezli ma Radeon 9700pro a GPU s temer 2x vyssim taktem. To je preci logicke ... ale jak si vysvetlujes ty ostatni hodnoty kde je na tom FX hure nebo stejne jako "stary" Radeon9700pro (a to se ta FXka bude prodavat nejdrive za 3 mesice!!!).
Proto jsem napsal, ze jsem zklaman vysledkem inzenyru od nVidie. Vrazili do vyvoje pul miliardy USD a s odrenejma usima jsou lepsi nezli jiz vyrabeny a prodavany Radeon 9700pro. To mi pripada smutne, nebod na 100% se behem tech 3 mesicu objevi Radeon s R350 chipem, ktery bude take 0,13 mikronovy GPU, bude mit minimalne stejny takt a tak bude mit tak rychlou DDRAM II (mimochodem ATI byla prvni co predvedla DDRAM II na funkcni karte). Takze FXko bude v dobe kdy se bude prodavat zrejme opet cislo 2 a to me mrzi, nebot jsem si ji chtel koupit, ale pokud bude za stejne penize k mani vykonnejsi R350 tak si koupim ji.

Souhlasím  |  Nesouhlasím  |  Odpovědět
xR  |  19. 11. 2002 18:59  | 

1. ATI sice predvedla DDR2, ale pouze v DDR compatibility modu (ale tim se uz nikde nechlubila)

2.vertex i pixel shadery jsou u GF FX o generaci lepsi nez ma Radeon9700Pro

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  20. 11. 2002 09:28  | 

Opravdu?! A co reknete tomuhle?
The card demonstrated on TechTV and the ones mentioned in the ATI press release are all full DDR2 based graphics cards. ATI is the first and only company to have demonstrated the use of DDR2 in a graphics card. There are no tricks being played. In fact, the president of JEDEC demonstrated that DDR2 card on TechTV. No games.

To že tu nVidia dělá rozruchy ještě neexitující kartou, to je trapné.
A k těm pixel a vertex shaderum: Trochu prehanite s tvrzenim, ze jsou o generaci lepsi, protoze jsou u obou karet postavene na specifikace v.2 a těch pár rádoby novinek tam FXko má jenom díky tomu, že se ještě neustále dodělává a tak je logické, že v sobě bude mít novější technologie, když je o více jak půl roku starší!!! (vzpomeňte si, že květnu na (E3) v Las Vegas již byla funkční verze na které se hrál DOOM 3).
Prostě zde nemá cenu rozebírat co je lepší, když se FXko ještě dlouho nebude prodávat a když do té doby ATI vrátí úder zpátky a opět se usadí na trůnu (ten půlroční náskok je totiž hodně znát, neboť to co nVidia nyní předvedla už ATI většinou oficiálně demonstrovala).
Chápu, že Ti z váš, kteří nosí kerku ve tvaru loga nVidie, ze to tezce nesou, ale je to tak a je to dobre, ze to tak je. Protože na tom vydeláme my zákazníci.

Souhlasím  |  Nesouhlasím  |  Odpovědět
xR  |  20. 11. 2002 14:00  | 

Malokdo to vi, ale soucasti soecifikaci DDR2 je tzv. compatibility-mode, ktery nevyuziva plne vsech moznosti DDR2. Takze v tom zadny trik nebyl a ATI skutecne predvedla funkcni DDR2 dle platnych specifikaci... Ale tohle neni dulezite.

Co se tyce tech shaderu, tak bych si dovolil oponovat. Sam pisu (nebo v soucasne dobe spis studuju) ruzne shadery a nv30 je jednoznacne nejdal. Dynamicke vetveni, trigonometricke funkce v plne presnosti a rychlosti, neomezene zanorovani dependent-reads (ATI ma max. 4 urovne !!!), parcialni derivace, maskovani kanalu, dvourozmerna indexace, perlin-noise atd... Nic z toho R9700 nema (aspon ne primo HW). A vsechno je jiz podrobne specifikovano od unora (+ funkcni emulator vzapeti). Na ATIne je mozno (sloziteji) rozchodit vetsinu efektu, ovsem za cenu az 7x vetsiho poctu pruchodu...

Tim nechci rict, ze R9700Pro je spatna karta, naopak, ovsem ja si (kvuli programovani efektu) urcite poridim GF FX. Na soucasne hry by Radeon dokonce mohl diky 256-bitove sbernici byt i rychlejsi (s brutalnim AA), ale obavam se, ze ATI nebude moct jeho cenu kvuli vysokym vyrobnim nakladum (vcetne 10-vrstve desky) prilis snizovat. Ale do budoucnosti nema jeho architektura prilis sanci. 

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  20. 11. 2002 14:54  | 

Pravda je ale ta, že i Radeon9700pro (ktery jiz brzy nebude nejlepsi kartou do ATI ... nahradi ji R350), bude naprosto spolehlive skveli pro vsechny nove hry minimalne pristi 4 roky, nebot zatim neexistuje firma, ktera by pracovala na hre, ve ktere by pouzivala vsechny schopnosti Radeona9700pro (a jak jiste vite, tak prumerny vyvoj hry trva kolem 3 let !!). Takze teprve za 4 roky se muze stat, ze nejaka hra nepobezi uplne na 100% na Radeonu9700pro, zatimco na FXku ano.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jindra  |  20. 11. 2002 14:55  | 

Pravda je ale ta, že i Radeon9700pro (ktery jiz brzy nebude nejlepsi kartou do ATI ... nahradi ji R350), bude naprosto spolehlive skvely pro vsechny nove hry minimalne pristi 4 roky, nebot zatim neexistuje firma, ktera by pracovala na hre, ve ktere by pouzivala vsechny schopnosti Radeona9700pro (a jak jiste vite, tak prumerny vyvoj hry trva kolem 3 let !!). Takze teprve za 4 roky se muze stat, ze nejaka hra nepobezi uplne na 100% na Radeonu9700pro, zatimco na FXku ano.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Adam  |  21. 11. 2002 09:55  | 

dovol, abych te poopravil, Carmack dela DooM3engine od roku 2000 (po dokonceni Q3Aenginu) a "priorita" iDSoftu je licencovani enginu, takze za rok az rok a pul tu muze byt her na tomto enginu docela dost a verim taky, te John uz s DX9, jeho fcena taky pocita...to je muj nazor

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  20. 11. 2002 09:15  | 

Mě se líbí tvoje neobjektivnost, je přece úplně jasné, že NFSHP2 je zmršenej už od dema. Prostě se vůbec nenamáhali to na ATI kartách testovat a pak si sypali popel na hlavu. Nebo si snad myslíš že třeba UT3, který je hlavně psanej pro nVidiu karty by na ATI měl nějaké probémy ... ??? Čím to asi je .... ovladači, nebo programátory ....  ???

Souhlasím  |  Nesouhlasím  |  Odpovědět
kmiki  |  20. 11. 2002 05:13  | 

Chodi i hry ktere jsou na servru oznacene jako problemove  jako treba IGI  ale pri pouziti jednoho monitoru je treba ten druhy

zakazat i druhou gr. kartu potom zadny problem.A pro toho kdo hlasa ze tam musi byt path tak nemusi odskouseno.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr  |  19. 11. 2002 11:14  | 

Dobre, dobre - ale co ta spotreba !!!

P4 - 100W, GF-FX (stejne ATI9700Pro) dalsich 100W  - doufam, ze uz neprekroci tuhle hranici - nechtel bych mit comp se spotrebou par kilowatt/hodina

Souhlasím  |  Nesouhlasím  |  Odpovědět
viper  |  19. 11. 2002 11:37  | 

Konečně Nvidia dokázala zužitkovat alespoň část toho co přebrala od 3dfx. Nastává doba společných technologií.

GeForce + 3dfx = GeForce(3D)FX

Souhlasím  |  Nesouhlasím  |  Odpovědět
Gilles  |  19. 11. 2002 15:00  | 

No, len nech Nvidia neskonci ako 3Dfx ... a potom ju kupi ATI

No, ale ak by tam Nvidia dala povedzme 16 GPU, hned by to lepsie behalo, vid Voodoo6

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neni dulezite  |  19. 11. 2002 16:37  | 

"No, len nech Nvidia neskonci ako 3Dfx ... a potom ju kupi ATI"

...no to by se nejdriv trzni podil ATi musel aspon blizit tomu, co ma NV. Jinak i za "nadvlady" Radeonu9700 podil NV stale stoupa

Souhlasím  |  Nesouhlasím  |  Odpovědět
viper  |  19. 11. 2002 17:56  | 

No to se asi nestane, protože Nvidia má  lepší management než 3dfx, ale technologie mělo lepší 3dfx a konečně je nvidia použila

Jedině kdyby ATI představilo nějaký super čip 3xrychlejší než Radeon 9700 Pro za cenu GF4MX tak by to pravděpodobně Nvidii položilo

Viper

Souhlasím  |  Nesouhlasím  |  Odpovědět
xXx  |  20. 11. 2002 15:58  | 

ja si myslim že ani tohle by nVidiu nepoložilo.... v dnešní době už ne.... je to to samé jako s intelem.... prostě i kdyby AMD dělalo by mohlo (asi to dělá) tak intel neporazí.... a jeslti tak jen dočasně....

Souhlasím  |  Nesouhlasím  |  Odpovědět
Neználek  |  20. 11. 2002 19:43  | 

To je zajímavý jak to všichni přesně ví, podle toho jakou kartu mají doma v kompu. No uvidíme. Nechvalte nVidii před večeří. Karta tady ještě není. Až bude, všichni uvidíme jaká bude a jak rychle a jak moc dobře bude reagovat Ati. Jak sníží energetickou náročnost a jak zrychlí. Kdy přejde taky na 0,13 a DDR-II. A pak můžeme téměř objektivně srovnávat. Momentálně Ati na chvíli nakopalo nVidii prdel, a rozhodně má nesrovnatelně silnější pozici než AMD vůči Intelu. A uvidíme na jak dlouhou dobu nakope prdel FX zase Radeonu. Kecy jako že Ati je jen nakrátko a nVidia je ta pravá a nejlepší nadlouho si zatím nechte na koledu. A přijďte s nima oprávněně až bude FX v prodeji, než vypleskne Ati nějakýho lepšího Radeona. Uvidíme jestli toho budou schopni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
max payne  |  19. 11. 2002 21:53  | 

Neviem preco sa tu bavi o takych kravinach. Proste niektori nevedia zniest, ze ati pomaly drti nvidiu aj co sa tyka hardwaru aj softwaru. Ovladace su uz nad urovnou detonatorov, lepsia podpora videa a vsehovsudy robi z radeon kariet vyhodnejsiu investiciu do buducnosti. A presne ako uz bolo spomenute, ati uz ma pripraveny R350 s DDR2 a rychlejsim procakom. Nvidia vzdy mala velku hubu s fillratom a polygonratom a vzdy ju potom do 2 mesiacov nakopala ati do riti takym spôsobom, ze nvidia zatvorila inzinierov do labakov, a hrozila im ze ich pozabija ak rychlo nevymyslia nieco nove. Ale NVIDIA ide do riti, nema sancu. Ati neposkytuje len vyssi vykon, ale aj nove technologie. Nezaklada si na tom ze zdvihne takt pameti a procaku o 10mhz a hodi to na trh ako novy produkt. Tak sa trochu zamyslite co tu trepete. A realny rozdiel medzi 9700Pro a 4600Ti neni 3% ale 30% v UT2003 for example

Souhlasím  |  Nesouhlasím  |  Odpovědět
xXx  |  20. 11. 2002 16:02  | 

:o) Ty si asi nečetl moc specifikaci R9,7k co?? Je to v podstatě jen vylepšený R8,5k a o GFFX ešte nemá cenu vůbec mluvit protože je stále jen ve vývoji... až to bude na trhu tak pak to má nejaký vyznam a to že ATi vymíslí neco lepšího je jasné.... protože jeslti ne tak to můžou zabalit:o)

Souhlasím  |  Nesouhlasím  |  Odpovědět
Huh  |  20. 11. 2002 17:23  | 

Jen by mě zajímalo, oč je výhodnější psát 8,5k místo 8500, když to má úplně stejný počet písmen, složitější zápis a horší čitelnost...

Souhlasím  |  Nesouhlasím  |  Odpovědět
RedRicK  |  20. 11. 2002 18:11  | 

Ovladace nad urovnou Detonatorov???

Fakt 1: Osobnosti herneho priemyslu pouzivaju Detonatory ako referencne... cim to asi bude?

Fakt 2: Fora su plne zufalcov s problemami s kartami ATi a ich ovladacmi...

Fakt 3: Zivim sa ako pocitacovy technik a doteraz som rozchodil na prvy pokus viac nez 95% kariet s cipom nVidia... co sa o ATi povedat neda... S nimi boli problemy problemy a problemy...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Destructor  |  21. 11. 2002 08:54  | 

1. Mohl by jsi jmenovat ty osobnosti ...,  a referenční, to si děláš srandu ne ....

2. A to si zjistil kde, můžeš mi dát link ..... byl bych ti vděčnej ....  Jinak  je samozřejmě spousta dotazů, ale třeba jak je přetaktovat atd ...

3. No, to z teba asi musejí mít ve firmě radost .... S tím bych se moc nechlubil ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
xR  |  21. 11. 2002 13:52  | 

1. Kolega mel urcite na mysli Johna Carmacka, ktery tohle uvedl ve svem .planu. Tvrdil, ze pokud neco nechodi na nVidii, chyba je v nem, a pokud neco nechodi na ATI, chyba je v driverech...

3. mam podobne zkusenosti - nVidie bez problemu, ATI tak napodruhe, napotreti...

Souhlasím  |  Nesouhlasím  |  Odpovědět
Satyricon  |  25. 11. 2002 09:40  | 

No podle tveho nicku to vypada, zes tak akorat neco dovedes znicet a ne rozchodit osle!

Souhlasím  |  Nesouhlasím  |  Odpovědět
rodney  |  05. 01. 2003 08:06  | 

cece nechci te nejak soudit ale..

1. jj to s tebou bohuzel souhlasim hold nvidia ma prece jen vybudovane skvele renome

2. haha jenze vetsinou sou to tupci na hw a sw nebo ti chudaci co si koupili grafarnu od manli a jim podobnych

3. tim bych se nechlubil ja sem pomahal skladat hafo pocitacu hodne na radeonech a neco i na nvidii a fakt ani jeden nemel problemy tak cim to je? ono kdyz das i nvidii do desky ecs s exotickyma komponentama tak se ti nedivim ze to je to problemove ale kdyz si kupujes znackovy HW tzn desku pamet zvukarnu grafarnu tak proste fakt problemy nejsou je mi jasne ze ne kazdy ma penize priplatit si u hodne komponent za znacku ale pak za to plati tema problemama takze asi tak... kazdy je si sveho stesti strujce ....

Souhlasím  |  Nesouhlasím  |  Odpovědět
maumau  |  20. 11. 2002 18:44  | 

Ja myslim, ze za 300 babek to tak brzo nebude. Nez uvede ATI neco novejsiho, tak to bude trvat pekne dlouho a jeji cena bude tak i tak vysoka, takze ze by NV spadla na tech 300, to se cekat neda...

Souhlasím  |  Nesouhlasím  |  Odpovědět
MarAt  |  17. 04. 2003 16:35  | 

Proc mam doma GF FX 5200 a tu o nem nic nemuzu najit?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor

Aktuální číslo časopisu Computer

Megatest 20 procesorů

Srovnání 15 True Wireless sluchátek

Vyplatí se tisknout fotografie doma?

Vybíráme nejlepší základní desky