Test nVidia 6800GT SLI: dvě grafické karty místo jedné

Diskuze čtenářů k článku

Yarys  |  19. 12. 2005 16:53

dik za kvalitni info o tom jak to vypada s tim samotnym zelezem ve skrini.
nedovedl jsem si to predstavit a na vyzkouseni mi to asi jen tak nekdo nepujci-drahe hracky na to aby si to kde kdo jen tak chtel na vyzkouseni nahazet do skrine

Souhlasím  |  Nesouhlasím  |  Odpovědět
Honza  |  17. 06. 2005 12:54

kdyz chci pouziva SLI, je nutne, aby se jednalo vzdy o dve totozne karty?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  17. 06. 2005 22:14

V případě nVidia ano, je dokonce nutný nejen stejný výrobce, ale i stejná revize a stejný BIOS karty.. V praxi je to fakt nutné, dostal jsem karty s různým BIOSem, a dokud jsem je pomocí nvflash nepřeflashoval na stejný, bylo hodně problémů..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Honza  |  18. 06. 2005 12:09

Diky. Hm, tak to je pro mne dalsi duvod proc nekupovat. Chtel jsem nyni zatim jednu kartu a do budoucna prikoupit druhou. Ale sance, ze treba za rok sezenu nejakou GF6600 od stejneho vyrobce a jeste se starat o bios..
 
Chci investovat zhruba 15k do desky, karty, pameti a videl jsem to na nejakou MSI desku kolem 5500, 6600GT, 1024 Ram a Athlon XP 3000 a takhle co usetrim do desku vrazim asi do kvalitnejsich pameti.

Souhlasím  |  Nesouhlasím  |  Odpovědět
amoondre  |  15. 06. 2005 02:56

strasne ma zaujima, ze preco pouzivate procesor AMD s podla vas nevyladenym radicom, ktory kiezby bol na urovni i875, ked mozete pouzivat konkurencny (podla vasich recenzii 2x tak vykonny) Intel??

Souhlasím  |  Nesouhlasím  |  Odpovědět
Honny  |  17. 06. 2005 07:35

Odpovidal na blogu... Prej "reseni pro Intel prakticky neexistuje" nebo tak neco.

Souhlasím  |  Nesouhlasím  |  Odpovědět
tora  |  14. 06. 2005 22:41

Hodlá se někdo vyjádřit k tomu obrázku z Far Cry? I slepec by totiž poznal, že tento obrázek /http://www.zive.cz/Files/Obrazky/2005/06/sli/farcry.jpg/ NENÍ rozhodně 8xAA ale 0xAA!!!!!!

Souhlasím  |  Nesouhlasím  |  Odpovědět
freeman  |  14. 06. 2005 19:58

To je taká hovadina ako nás Intel presviedčal, že Prescot s 150W spotrebov je super bomba procák. Ktorý "hlúpák" dá za dve grafiky vyše 20000 Sk. To už vyrobcovia nevedia ako zdvyhnúť predaje tak vymýšlajú takéto hovadiny.  Radšej keby vyrábajú procáky s menšou teplotnou stratou. To je bomba vec ak Vám grafická huči ako vysávač ! Ja osobne som oželel trochu výkonu a vrazil som peniaze do odhlučnenia ."Zahlman chladiče atď.."

Souhlasím  |  Nesouhlasím  |  Odpovědět
enriqo, enriqo  |  14. 06. 2005 20:20

jj, aj mňa štve hluk z mojho 6600gt. Ide odtrchnúť gr. kartu z dosky. Je vôbec nijaká odskúšaná alternatíva na sparkle 6600gt agp?
A presne to som hovoril aj ja na PCT, kde akurát rozoberajú kt. driver je stabilnejší - radšej výrobcovia by sa mali viac sústrediť na vývoj grafickej karty ktorá nebude potrebovať dodatočnú šťavu a napr. pasívne chladenie.

Souhlasím  |  Nesouhlasím  |  Odpovědět
freeman  |  14. 06. 2005 20:38

No jasne. Kúp si chladič Zalman VF700-AiCu a máš vystaráno. Zaručujem ti, že to bude ok. Objednať si ho môžeš u www.tntrade.sk/ .





Souhlasím  |  Nesouhlasím  |  Odpovědět
enriqo, enriqo  |  14. 06. 2005 21:03

A bude to tichšie? Ide mi hlavne o to ticho. Udrží to gr. karta? Počul som, že je to problém.


Souhlasím  |  Nesouhlasím  |  Odpovědět
freeman  |  14. 06. 2005 22:08

Jasne. Veď sa pozri na www.zalman.co.kr. Zalman je zaručná značka ako BMW. Ja mam 9800pro + pasivny hladič a plus ventilator (všetko od zalmanu) cirka 15 až 18 db a to už nepočuješ. Ja keď zapnem počitač tak nikto nič nevie. Ale musel som kúpiť chladič aj na procák (AMD64 3200)a samozrejme aj nový zdroj. (Enermax). Potom bude ticho ako v raji.

Souhlasím  |  Nesouhlasím  |  Odpovědět
tora  |  14. 06. 2005 19:50

Lidi, nenechte se zblbnout, pokud se nechcete chlubit tím, že vám jde _konkrétně_ D3, HL a FC 100fps 16AF+16AS. V jiných hrách to skoro nemusí mít žádný význam a v některých případech je to prý i pomalejší:/

Souhlasím  |  Nesouhlasím  |  Odpovědět
AsyC  |  14. 06. 2005 17:59

mam LCD a muzu vam rict ze kazdy 10fps je poznat jako profesionalni hrac CS vim o fps svoje...ja hraju na 70fps a to je od 100 skoro nerozeznatelne ale jak fps klesne pod 60 tak uz je to poznat a neda se poradne hrat

Souhlasím  |  Nesouhlasím  |  Odpovědět
mar  |  14. 06. 2005 15:57

ja teda nevim jestli to nekdo neupravil, ale co to je ten obraek z FAR CRY ??? to je 8x AA ???? no tak to ani vomylem. kouknete na to pobrezi vpravo, to je zubaty jak 0x AA .

Souhlasím  |  Nesouhlasím  |  Odpovědět
tora  |  14. 06. 2005 19:53

jj je to pravda, na tohle by měl opravdu odpovědě někdo ze ZIVE!!




haló




haló

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 23:29

Máte pravdu, došlo k zaslání chybného screenshotu, posílal jsem redakci nový screenshot, a opraví to.

Děkuji.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr  |  14. 06. 2005 10:54

Pekny clanek, je videt, kde je v dnesni dobe technika. Jen me zarazi ta spotreba! Ta je neskutecna. A popravde v mem notebooku (centrino+ati9700) vidim vetsi technologicke umeni, nez v tomto cvalikovi. Spotreba 530W bez monitoru naproti 65W i s monitorem u notebooku neni adekvatni narustu vykonu:)
Petr

Souhlasím  |  Nesouhlasím  |  Odpovědět
nilnilseptium, nilnilseptium  |  14. 06. 2005 11:26

Tak tak. Uz prestavam hrat hry takze misto fps se zacnu honit za minimalni spotrebou a hlucnosti

Souhlasím  |  Nesouhlasím  |  Odpovědět
Allanon, Allanon  |  14. 06. 2005 12:13

Přesně tak, už mam na kompu akorát CS, HL a XIII a na to mi GF4 Ti4200 bohatě stačí, takže teď koukam na to, jak udělat počítač co nejtišší. A ne vyhodit 50kKč za něco, co bude za rok stát půlku a řve to jako vysavač.

Myslím, že se už tímto (SLI 2x GF6800) dostáváme do absurdit. Kurňa 535W zdroj pro počítač je zvrhlost

Souhlasím  |  Nesouhlasím  |  Odpovědět
enr!  |  14. 06. 2005 18:08

Ste na omyle. To že zdroj je 530W, tak to neznamená aj spotrebu. Ja mám doma záložný zdroj a je zapojený cez usb monitoring okamžiteho odberu (APC 500). Monitoruje spotrebu na troch konektoroch, takže je tam pripojený comp a monitor. Spotreba (odber) kým som mal crt 19" monitor bolo 210 W. Teraz už čumím ale do lcd 19" a odber je teraz v tomto momente 153W. Takže budíček s tou spotrebou. Na dnešnú dobu mám len také priemerné pc.

Athlon XP 2400+ @2,0 (pretakt.), 2x 512MB ram A-data 500MHz, MB Asus A7N8x-e deluxe, Sparkle 6600GT agp 128MB (má dodatočné napájanie), 1x hdd maxtor 160GB sata, 1x hdd 80GB westernd. pata, dvd-rw lg 4120B, tv karta aver pvr 150, case thermaltake tsunami blackwindow, zdroj enermax 420W noisetaker (nový typ), zvukovka integrovaná, 2x120cm ventilátor + chladiť na cpu, monitor lcd viewsonic vp191s 19" = 153W odber = spotreba. Sused je elektrikár a potvrdil to :).

Takže 500-600W? To je u mňa suma na rok = skoro 15000sk len na elektriku (pri cene 6sk/kW a denne 12hod v roku 365dní).



Souhlasím  |  Nesouhlasím  |  Odpovědět
Rosťa  |  14. 06. 2005 10:29

>> Dva disky se běžně používají pro zvýšení výkonu v RAID-0. <<  Mno spíše se dva disky používají v RAIDu primárně kvůli redundanci a tudíž předcházení ztráty dat v případě výpadku jednoho z nich, než kvůli zvýšení výkonu, což je jen takové malé plus navíc ....

Souhlasím  |  Nesouhlasím  |  Odpovědět
gl_st0rm  |  14. 06. 2005 10:49

jenze tady se bavime o lama(a jeste k tomu sw) raidech jako je 1, 0, 0+1 a ne 3, 5 nebo 10 kde sou potreba min 3 disky

samotny RAID-0 je imho uplne na nic, mit to v komplu tak asi ani nespim

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 11:02

s RAID-0 (a nejenom s ním) se samozřejmě musí zálohovat

Souhlasím  |  Nesouhlasím  |  Odpovědět
David  |  14. 06. 2005 10:58

Ochrana dat při RAID0 ????

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rosťa  |  14. 06. 2005 11:07

Mno samozřejmě že v RAID-0 ne :)  Tím příspěvkem bylo myšleno, že zapojovat dva disky do RAID-0 je k ničemu ...

Souhlasím  |  Nesouhlasím  |  Odpovědět
David  |  14. 06. 2005 13:42

RAID0 se hodí pro zrychlení čtení a zápisu

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rosťa  |  14. 06. 2005 11:08

Když dva disky do RAIDu, tak v mirroru

Souhlasím  |  Nesouhlasím  |  Odpovědět
gl_st0rm  |  14. 06. 2005 12:07

kdyz RAID, tak petku

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rosťa  |  14. 06. 2005 12:18

Mno o tom žádná   Ale tady se mluvilo o zdvojování v dnešní době a tudíž dvojici disků

Souhlasím  |  Nesouhlasím  |  Odpovědět
David  |  14. 06. 2005 13:44

RAID5 ti sice zabezpečí data, ale zase ti celkem brutálně zpomalí zápis, zrychlí čtení

Souhlasím  |  Nesouhlasím  |  Odpovědět
blah  |  14. 06. 2005 18:05

Raid 5 zapisuje stripovym sposobom a jedine co to spomaluje mozu byt i/o waity (v pripade sw raidu) a parita. V takom pripade treba zapojit proste viac diskov a dufat ze neodidu 2 naraz (pokial je len 1 ako backup :)). Samozrejme, na slusny vykon nie je mozne pouzit M$, ale zase pri hrach niet na vyber..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Jobi  |  14. 06. 2005 10:11

..Na druhé straně skříně je další výdaj související se SLI - značkový Enermax
zdroj o výkonu 535 W, zdroj Chill Innovation 510 W na danou sestavu nestačil
(i když by papírově měl), dvě přetaktované 6800GT SLI karty požadují
skutečně mimořádně kvalitní a předimenzované napájení..

=> Prostě jen na Wattech nezaleží, Chill nemá dost Ampérů na jednotlivých větví, aby to utáhl..
Škoda, že jse nepřipojili sestavu k APCčku, které dokáže přes SW změřit odběr..
Jobi - www.JobiWeb.Net

 

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 10:22

jasně, to je důvod, Chill 510W dodává do 12V větve jen 25A, kdežto Enermax hned 2x18=36A.. Dost podstatný rozdíl..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Caleb, Caleb  |  14. 06. 2005 09:41

Mel bych dotaz: co konkretne ma s obrazem udelat ono "anizotropni filtrovani"? Zkousel jsem to zapinat v ruznych hrach na ruznou uroven, ale zadne viditelne zmeny v obraze jsem si nevsiml...

Souhlasím  |  Nesouhlasím  |  Odpovědět
DAVE  |  14. 06. 2005 10:26

Anizo vyhlazuje obraz "do hloubky"...  Postav se v HL2 podel zdi dlouheho domu (treba na zacatku jak vylezes z nadrazi)  a porovnej Anizo Off a treba 8x..  Objekty co jsou od tebe "dale" uvidis s daleko vetsimi detaily.

Souhlasím  |  Nesouhlasím  |  Odpovědět
idoktor  |  14. 06. 2005 08:50

No vida...Když pan Hulán přestane machrovat, tak je schopný napsat docela slušný příspěvek...nebál bych se na základě tohoto článku rozhodnout o dalším nákupu hardware... jen tak dál

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr  |  14. 06. 2005 10:01

No neni to spatny. Celkem me dostala informace o nemoznosti pouziti slusnych desek jako DFI a MSI pro upgrade chlazeni na grafice. Vcera jsem lehce upravoval referencni medenou cihlu na Leadteku a vysledej je o 8C nizsi teplota a o hluku se ani nebavim.

Mel bych ale jednu poznamku k taktovani pameti, kdy prezentovat T2 v nastaveni pameti jako profi pretaktovani je trochu ulet. To je u sestav s A64 dobrych -10% vykonu proti T1.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Karol  |  14. 06. 2005 10:05

Ale klud klud. Pan Zadek Hulan sa este len teraz zoznamuje s tym hnusnym AMD, urcite mu to nanutili v redakcii. Majme trosku strpenia.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 10:14

Bohužel, ani Athlon 64 Venice nezvládá T1 při použití 4 kusů DDR500 pamětí, při použití jen dvou slotů ano...

Veškeré testy by byly tedy paradoxně rychlejší kdybych použil jen 1GB paměti (2x512MB) místo 2GB (4x512MB), protože poté lze použít T1.. Ale ve svém počítači 2GB potřebuji (spuštěné současně MySQL, Apache, Opera, MSIE, jEdit, Photoshop, Dreamweaver, Borland Delphi a další), takže jsem to testoval takto..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 10:17

Jinak řečeno, kéž by tak mělo AMD řadič paměti alespoň na úrovni starého chipsetu i875... Bylo by po řadě problémů s kompatibilitou..

Souhlasím  |  Nesouhlasím  |  Odpovědět
Redmarx  |  14. 06. 2005 10:28

A kdo rika, za je to u i875 lepsi ?

Ja jsem si delal doma testy pameti a na me desce Epox i875P dostanu vyssi vykon, pri 2x256 nez pri 4x 256 MB. Konkretne kdyz mam 2x256 tak casovani mohu dat na 2 a nepada to, kdyz mam 4x256 tak to zacne padat, takze tam musim dat 2,5. Zkousel jsem ruzne moduly, takze v tech to neni.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 10:37

Internet je plný problémů nekompatibilit Athlonu 64 a pamětí.. I uvedený problém, že se dvěma moduly jede T1 a se čtyřmi už ne, musím použít T2, je pro AMD ostuda.. Snad to další revize opraví, nicméně, kdo si má pořád kupovat nové CPU než AMD konečně udělá pořádný řadič paměti?

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr  |  14. 06. 2005 11:28

No nevim ja mam na A64 6,95GB/s na obycejnych DDR500@510 A-datech 2,5-3-3-5 T1, ktere maji na i875 max 5,8GB/s, coz me prijde jako docela rozdil. Treba TCCD pameti jsou jeste dale a na i875 funguji opravdu dokonale:) Kdyz clovek sestavuje pocitac tak jak ma a nekupuje to co zrovna maji na sklade, tak neni zadny problem. Osobne jsem zazil vice problemu s intelem nez s amd.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Karol  |  14. 06. 2005 10:45

Aha cize pri benchmarkovani je potrebne mat spustene Dreamweaver, jEdit, Delphi a ine aplikacie... zaujimave. Mozno by sa dala urobit taka vec, ze tie aplikacie na dobu benchmarkovania vypneme, tym padom nam postaci 1 GB RAM a mozeme testovat 2-2-2-5 1T (pokial nam to RAMky zvladaju), ked uz sa hrame na to, ze chceme mat najlepsie komponenty v PC.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 11:05

Na komentáře dle mého názoru hloupé a záměrně negativistické většinou nereaguji, nicméně, Cílem nebylo získat maximální číslo v 3DMark05 (=poměřování velikosti penisů), ale real-life testing, a nevidím důvod proč kvůli jednomu testu vytahovat 2 kusy DDR pamětí. Srovnání SLI versus nonSLI, což je předmět článku, tím NIJAK neutrpělo, chápete?

Souhlasím  |  Nesouhlasím  |  Odpovědět
lubos, lubos  |  14. 06. 2005 13:25

Ale ano, utrpelo.

Souhlasím  |  Nesouhlasím  |  Odpovědět
kubrasil  |  14. 06. 2005 13:39

nejsem vokenar a na linuxu bys dal service httpd stop; service mysql stop; kill jedit a zbytek tech kravin
a pak muzes testovat s gigem....no to je prusvih tech vokenaru ze sou zvykly aplikace spustet, nezastavovat je a pak jim furt chybi pamet a potrebujou tri graficky karty, 8 GB ramky a ja nevim co jeste....

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zdeněk Burda, Zdeněk Burda  |  14. 06. 2005 14:07

Řekl bych, že u Linuxu je normální, že ti všechno běží najednou. Teda aspoň na mých počítačích. Prostě si to odswápne a je to.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zorg  |  14. 06. 2005 13:38

Já bych se naopak díky tomu článku k nákupu nerozhodnul, takže tady díky

Souhlasím  |  Nesouhlasím  |  Odpovědět
Rudidlo, Rudidlo  |  14. 06. 2005 08:22

>Navíc, do ceny SLI je nutné započítat víc komponent než jen cenu druhé identické grafické karty podporující SLI, často je totiž potřeba jiný a výkonnější napájecí zdroj o kapacitě alespoň 500W, je nutná speciální základní deska (s nForce4 SLI chipsetem), a je nutné také kvalitně vyřešit chlazení skříně, v níž je přes půl miliardy topících tranzistorů.

No ještě je dobré započítat do požadavků telefonát dodavateli elektrické energie, aby přišel vyměnit jističe.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Advocatus Diaboli  |  14. 06. 2005 08:05

Myslim, ze autor zapomnel na jeden pomerne typicky scenar. Ja mam nyni jednu kartu 6600GT, ktera mi pro me obcasne hrani uplne staci a planuju, ze tak za rok si velmi levne mohu koupit druhou a trochu tak upgradovat me PC. Nemyslim, ze je nutne obe karty koupit najednou.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Flasi  |  14. 06. 2005 08:26

To je velka otazka. HW az tak nesleduji, ale pokud vim, tak zatim nikde nebylo vyvraceno, ani potvrzeno ze to pujde. Problem je, ze karty do SLI by mely byt stejne a pokud mozno i se stejnou verzi biosu. Sance, ze po roce sezenete na trhu stejnou kartu (stejne HW revize) a bude vam stacit flashnout bios te stare je podle me mala. Jak se budou v SLI chovat karty ruznych HW revizi jsem zatim nikde necetl - jenom spekulace, ze to bude ci nebude problem. Nemluve o tom, ze po roce uz nemusite sehnat ani stejnou kartu v novejsi revizi, ale karta se bude lisit, nebo dany model vyrobce opusti uplne.
Navic myslim, ze jestli chcete po roce vyssi vykon, tak je lepsi koupit kartu novou a starou prodat. Pokud to je superdraha 6800, tak se to jiste nevyplati, ale pokud dneska koupit 6600GT, tak myslim ze urcite. A narust vykonu bude jisty ve vsech hrach a ne jenom tech co to podporuji.

Souhlasím  |  Nesouhlasím  |  Odpovědět
wanrouter, wanrouter  |  14. 06. 2005 08:04

Jasne a ked si chce clovek spravit plnohodnotny pocitac so SLI kartami potrebuje 50 000 jasne.... nemam co robit....

Souhlasím  |  Nesouhlasím  |  Odpovědět
Ge0rge.., Ge0rge..  |  14. 06. 2005 15:00

Plnohodnotny pocitac? Pocitac s dvema kartami v SLI je silne luxusni pocitac. Do graficke karty do plnohodnotneho stroje nemusite dnes investovat vic nez 7000,-

Souhlasím  |  Nesouhlasím  |  Odpovědět
cc  |  14. 06. 2005 07:21

Az na to zesom to cital na www.Czechcomputer.cz je to celkom dobry clanok

Souhlasím  |  Nesouhlasím  |  Odpovědět
AZOR., AZOR.  |  14. 06. 2005 08:13

autor je ale stejnej , to máš jako zive.cz x novinky.cz

Souhlasím  |  Nesouhlasím  |  Odpovědět
elipsoid, elipsoid  |  14. 06. 2005 00:35

Diky, po delsi dobe poradnej clanek.
Jak tak koukam, staci investovat dvacet tisic a mate pod stolem hucici primotop. Asi se budu opakovat, ale bez ohledu na ceny her mi prijde lepsi vrazit ty prachy treba do xboxu360.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Petr  |  14. 06. 2005 00:53

něco na to bude

Souhlasím  |  Nesouhlasím  |  Odpovědět
hehe  |  14. 06. 2005 01:06

no pro profi hrace je to brutalni zbytecnost, navic na toto kazdy nema, muze si to koupit jen singl playerova nůbka, ktera zere 1600x1200 . penize za takovou sracku hazet je zbytecny za 2 roky to bude mit jiny vyznam, co mi to da ze v 3dmnarku mam 2x vic -.- lol

Souhlasím  |  Nesouhlasím  |  Odpovědět
Ge0rge.., Ge0rge..  |  14. 06. 2005 14:58

No jiste nebo do letani nadsvetelnou rychlosti To totiz v teto chvili existuje asi tak realne jako ten vas Microsofti Xbox nebo PlayStation 3, zatimco recenzovane reseni si skutecne muzete koupit uz ted. Az obe konzole vyjdou bude vykon grafickych karet pro PC zase nekde uplne jinde.

Souhlasím  |  Nesouhlasím  |  Odpovědět
DigitalDooM, DigitalDooM  |  14. 06. 2005 00:35

SI je zajímavé řešení ale má sutečně smysl až u těch nejdražších karet typu 6800GT ...ovšem ty ta cena apod jsou natolik ulitlé a využitelnost je vlastně jen v málo hrách že je to opravdu poze libůstka :)
 
ale i tohle ve světě PC potřebujeme vývoj .... BTW: už se těším na crosfire nejen že by měl vycházet levněji ale jeho použitelnost je upně někde jinde aovšem to ji srzí bude li zapotřebý chipset ATI :(

Souhlasím  |  Nesouhlasím  |  Odpovědět
Joker, Joker  |  14. 06. 2005 10:30

Bych řekl že na základě tohohle článku ve SLI žádný výrazný smysl nevidím. Pekelná cena, spotřeba proudu, zabrané místo v case, tepelné vyzařování a následně hlučnost chlazení.
Ale hlavně využitelnost je dnes minimální; podívejte se na výsledky non-SLI řešení, jako hranice dobré hratelnosti se udává 30+ FPS (u mě osobně je to ještě méně, asi tak 20), a třeba DOOM3 má ve hře FPS omezené na max. 60. Takže výsledkem v DOOM3 krom toho nejvyššího nastavení je skutečné zrychlení hry NULA. A i to nejvyšší nastavení má non-SLI 36 fps, tj. v pohodě hratelné, v ostatních hrách se pak pohybujeme někde nad 70. Čili pro dnešní hry je SLI defacto vyhazování peněz. Do budoucnosti je to otázka, jestli bude cenově a výkonově lepší si pořídit novou kartu, nebo dvě staré ve SLI.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Radek.Hulan, Radek.Hulan  |  14. 06. 2005 11:45

20 FPS na hru je naprosto nepoužitelné (pokud to není RPG či simulace), s takovými 100 FPS je vše podstatně hratelnější, myš je citlivější a hra se lépe ovládá... Doom 3 je skutečně omezen na 60FPS, ale toto zle změnit v base/AutoExec.cfg

Souhlasím  |  Nesouhlasím  |  Odpovědět
Moas  |  14. 06. 2005 13:46

to je relativni. Profi hraci urcite oceni 100 fps, domaci hraci se spokoji s 50, nenarocni jedinci vezmou 20 a jsou spokojeni. Koneckoncu kdysi jsem dohral Dooma na 386SX16 pri nejakych 8 - 10 fps a byl to zazitek i tak

Souhlasím  |  Nesouhlasím  |  Odpovědět
redwasp  |  14. 06. 2005 15:27

a co myslis ze s tema 100fps pak ta videokarta udela? Posle ti to na 75Hz monitor??? Dobre, mas-li hodne dobry monitor, bude to 85Hz. Honba za vykonem je dnes zbozne prani marketingovych oddeleni. V podstate souhlasim s nazorem ze 30fps je hranice postrehnutelnosti okem (filmy maji 24-25!). I kdyby nakrasne na tu vzdalenost a rozliseni to bylo 50, ale vic proste smysl nema. Navic kdyz monitor (a to ani nemluvim o LCD) to nedokaze ani zobrazit.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mlok  |  14. 06. 2005 17:22

Tohle

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mlok  |  14. 06. 2005 17:22

Tohle je

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mlok  |  14. 06. 2005 17:22

Tohle je právě

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mlok  |  14. 06. 2005 17:22

Tohle je právě velký

Souhlasím  |  Nesouhlasím  |  Odpovědět
Mlok  |  14. 06. 2005 17:25

Tohle je právě velký omyl. 30fps sice už téměř stačí (ještě je lehce znát trhání myši při rychlém zaměřování), tedy spíše 40+fps, jenže zásadní věc je, že je třeba trvalých 40+ fps. Pokud v testu má hra třeba 60fps, tak zaručeně bude padat v minimálních hodnotách pod 40, proto všichni chtějí 60 nebo i třeba 100fps v testu. Všechny testy by měly měřit nejen průměrnou hodnotu fps, ale také minimální.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Martin  |  17. 06. 2005 09:35

nedokážu si představit jak se hraje LANovka s 30fps to je pěkna blbost dyž hraješ proti lidem potřebuješ bejt zatraceně rychlej a přesnej

Souhlasím  |  Nesouhlasím  |  Odpovědět
Marabu  |  14. 06. 2005 21:59

Jste poněkud mimo - televize má předně proti monitoru/LCD podstatně nižší rozlišení (625 řádků interpolovaně), nemluvě o výrazné neostrosti obrazu. Televizi sledujete málokdy z menší vzdálenosti než 2 metry, monitor/LCD ze vzdálenosti kolem metru. Navíc při sledování televize jste "jen" pasivní divák, narozdíl od hry. Zkuste si zahrát first-person střílečku v 30 fps, 50 fps a 70 fps, uvidíte že v tom JE rozdíl - zvlášť pokud pozorujete pohybující se objekty z dálky.

Souhlasím  |  Nesouhlasím  |  Odpovědět
Worm, Worm  |  15. 06. 2005 00:58

No hlavně je rozdíl v tom, že v televizi obvykle běží filmy a seriály a na ty stačí 20 fps (ikdyž si je pouštíte na počítači).

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor