dik za kvalitni info o tom jak to vypada s tim samotnym zelezem ve skrini.nedovedl jsem si to predstavit a na vyzkouseni mi to asi jen tak nekdo nepujci-drahe hracky na to aby si to kde kdo jen tak chtel na vyzkouseni nahazet do skrine
kdyz chci pouziva SLI, je nutne, aby se jednalo vzdy o dve totozne karty?
V případě nVidia ano, je dokonce nutný nejen stejný výrobce, ale i stejná revize a stejný BIOS karty.. V praxi je to fakt nutné, dostal jsem karty s různým BIOSem, a dokud jsem je pomocí nvflash nepřeflashoval na stejný, bylo hodně problémů..
Diky. Hm, tak to je pro mne dalsi duvod proc nekupovat. Chtel jsem nyni zatim jednu kartu a do budoucna prikoupit druhou. Ale sance, ze treba za rok sezenu nejakou GF6600 od stejneho vyrobce a jeste se starat o bios.. Chci investovat zhruba 15k do desky, karty, pameti a videl jsem to na nejakou MSI desku kolem 5500, 6600GT, 1024 Ram a Athlon XP 3000 a takhle co usetrim do desku vrazim asi do kvalitnejsich pameti.
strasne ma zaujima, ze preco pouzivate procesor AMD s podla vas nevyladenym radicom, ktory kiezby bol na urovni i875, ked mozete pouzivat konkurencny (podla vasich recenzii 2x tak vykonny) Intel??
Odpovidal na blogu... Prej "reseni pro Intel prakticky neexistuje" nebo tak neco.
Hodlá se někdo vyjádřit k tomu obrázku z Far Cry? I slepec by totiž poznal, že tento obrázek /http://www.zive.cz/Files/Obrazky/2005/06/sli/farcry.jpg/ NENÍ rozhodně 8xAA ale 0xAA!!!!!!
To je taká hovadina ako nás Intel presviedčal, že Prescot s 150W spotrebov je super bomba procák. Ktorý "hlúpák" dá za dve grafiky vyše 20000 Sk. To už vyrobcovia nevedia ako zdvyhnúť predaje tak vymýšlajú takéto hovadiny. Radšej keby vyrábajú procáky s menšou teplotnou stratou. To je bomba vec ak Vám grafická huči ako vysávač ! Ja osobne som oželel trochu výkonu a vrazil som peniaze do odhlučnenia ."Zahlman chladiče atď.."
jj, aj mňa štve hluk z mojho 6600gt. Ide odtrchnúť gr. kartu z dosky. Je vôbec nijaká odskúšaná alternatíva na sparkle 6600gt agp? A presne to som hovoril aj ja na PCT, kde akurát rozoberajú kt. driver je stabilnejší - radšej výrobcovia by sa mali viac sústrediť na vývoj grafickej karty ktorá nebude potrebovať dodatočnú šťavu a napr. pasívne chladenie.
No jasne. Kúp si chladič Zalman VF700-AiCu a máš vystaráno. Zaručujem ti, že to bude ok. Objednať si ho môžeš u www.tntrade.sk/ .
A bude to tichšie? Ide mi hlavne o to ticho. Udrží to gr. karta? Počul som, že je to problém.
Jasne. Veď sa pozri na www.zalman.co.kr. Zalman je zaručná značka ako BMW. Ja mam 9800pro + pasivny hladič a plus ventilator (všetko od zalmanu) cirka 15 až 18 db a to už nepočuješ. Ja keď zapnem počitač tak nikto nič nevie. Ale musel som kúpiť chladič aj na procák (AMD64 3200)a samozrejme aj nový zdroj. (Enermax). Potom bude ticho ako v raji.
Lidi, nenechte se zblbnout, pokud se nechcete chlubit tím, že vám jde _konkrétně_ D3, HL a FC 100fps 16AF+16AS. V jiných hrách to skoro nemusí mít žádný význam a v některých případech je to prý i pomalejší:/
mam LCD a muzu vam rict ze kazdy 10fps je poznat jako profesionalni hrac CS vim o fps svoje...ja hraju na 70fps a to je od 100 skoro nerozeznatelne ale jak fps klesne pod 60 tak uz je to poznat a neda se poradne hrat
ja teda nevim jestli to nekdo neupravil, ale co to je ten obraek z FAR CRY ??? to je 8x AA ???? no tak to ani vomylem. kouknete na to pobrezi vpravo, to je zubaty jak 0x AA .
jj je to pravda, na tohle by měl opravdu odpovědě někdo ze ZIVE!!halóhaló
Máte pravdu, došlo k zaslání chybného screenshotu, posílal jsem redakci nový screenshot, a opraví to.Děkuji.
Pekny clanek, je videt, kde je v dnesni dobe technika. Jen me zarazi ta spotreba! Ta je neskutecna. A popravde v mem notebooku (centrino+ati9700) vidim vetsi technologicke umeni, nez v tomto cvalikovi. Spotreba 530W bez monitoru naproti 65W i s monitorem u notebooku neni adekvatni narustu vykonu:)Petr
Tak tak. Uz prestavam hrat hry takze misto fps se zacnu honit za minimalni spotrebou a hlucnosti
Přesně tak, už mam na kompu akorát CS, HL a XIII a na to mi GF4 Ti4200 bohatě stačí, takže teď koukam na to, jak udělat počítač co nejtišší. A ne vyhodit 50kKč za něco, co bude za rok stát půlku a řve to jako vysavač.Myslím, že se už tímto (SLI 2x GF6800) dostáváme do absurdit. Kurňa 535W zdroj pro počítač je zvrhlost
Ste na omyle. To že zdroj je 530W, tak to neznamená aj spotrebu. Ja mám doma záložný zdroj a je zapojený cez usb monitoring okamžiteho odberu (APC 500). Monitoruje spotrebu na troch konektoroch, takže je tam pripojený comp a monitor. Spotreba (odber) kým som mal crt 19" monitor bolo 210 W. Teraz už čumím ale do lcd 19" a odber je teraz v tomto momente 153W. Takže budíček s tou spotrebou. Na dnešnú dobu mám len také priemerné pc.Athlon XP 2400+ @2,0 (pretakt.), 2x 512MB ram A-data 500MHz, MB Asus A7N8x-e deluxe, Sparkle 6600GT agp 128MB (má dodatočné napájanie), 1x hdd maxtor 160GB sata, 1x hdd 80GB westernd. pata, dvd-rw lg 4120B, tv karta aver pvr 150, case thermaltake tsunami blackwindow, zdroj enermax 420W noisetaker (nový typ), zvukovka integrovaná, 2x120cm ventilátor + chladiť na cpu, monitor lcd viewsonic vp191s 19" = 153W odber = spotreba. Sused je elektrikár a potvrdil to :). Takže 500-600W? To je u mňa suma na rok = skoro 15000sk len na elektriku (pri cene 6sk/kW a denne 12hod v roku 365dní).
>> Dva disky se běžně používají pro zvýšení výkonu v RAID-0. << Mno spíše se dva disky používají v RAIDu primárně kvůli redundanci a tudíž předcházení ztráty dat v případě výpadku jednoho z nich, než kvůli zvýšení výkonu, což je jen takové malé plus navíc ....
jenze tady se bavime o lama(a jeste k tomu sw) raidech jako je 1, 0, 0+1 a ne 3, 5 nebo 10 kde sou potreba min 3 disky samotny RAID-0 je imho uplne na nic, mit to v komplu tak asi ani nespim
s RAID-0 (a nejenom s ním) se samozřejmě musí zálohovat
Ochrana dat při RAID0 ????
Mno samozřejmě že v RAID-0 ne :) Tím příspěvkem bylo myšleno, že zapojovat dva disky do RAID-0 je k ničemu ...
RAID0 se hodí pro zrychlení čtení a zápisu
Když dva disky do RAIDu, tak v mirroru
kdyz RAID, tak petku
Mno o tom žádná Ale tady se mluvilo o zdvojování v dnešní době a tudíž dvojici disků
RAID5 ti sice zabezpečí data, ale zase ti celkem brutálně zpomalí zápis, zrychlí čtení
Raid 5 zapisuje stripovym sposobom a jedine co to spomaluje mozu byt i/o waity (v pripade sw raidu) a parita. V takom pripade treba zapojit proste viac diskov a dufat ze neodidu 2 naraz (pokial je len 1 ako backup :)). Samozrejme, na slusny vykon nie je mozne pouzit M$, ale zase pri hrach niet na vyber..
..Na druhé straně skříně je další výdaj související se SLI - značkový Enermax zdroj o výkonu 535 W, zdroj Chill Innovation 510 W na danou sestavu nestačil (i když by papírově měl), dvě přetaktované 6800GT SLI karty požadují skutečně mimořádně kvalitní a předimenzované napájení..=> Prostě jen na Wattech nezaleží, Chill nemá dost Ampérů na jednotlivých větví, aby to utáhl..Škoda, že jse nepřipojili sestavu k APCčku, které dokáže přes SW změřit odběr.. Jobi - www.JobiWeb.Net
jasně, to je důvod, Chill 510W dodává do 12V větve jen 25A, kdežto Enermax hned 2x18=36A.. Dost podstatný rozdíl..
Mel bych dotaz: co konkretne ma s obrazem udelat ono "anizotropni filtrovani"? Zkousel jsem to zapinat v ruznych hrach na ruznou uroven, ale zadne viditelne zmeny v obraze jsem si nevsiml...
Anizo vyhlazuje obraz "do hloubky"... Postav se v HL2 podel zdi dlouheho domu (treba na zacatku jak vylezes z nadrazi) a porovnej Anizo Off a treba 8x.. Objekty co jsou od tebe "dale" uvidis s daleko vetsimi detaily.
No vida...Když pan Hulán přestane machrovat, tak je schopný napsat docela slušný příspěvek...nebál bych se na základě tohoto článku rozhodnout o dalším nákupu hardware... jen tak dál
No neni to spatny. Celkem me dostala informace o nemoznosti pouziti slusnych desek jako DFI a MSI pro upgrade chlazeni na grafice. Vcera jsem lehce upravoval referencni medenou cihlu na Leadteku a vysledej je o 8C nizsi teplota a o hluku se ani nebavim. Mel bych ale jednu poznamku k taktovani pameti, kdy prezentovat T2 v nastaveni pameti jako profi pretaktovani je trochu ulet. To je u sestav s A64 dobrych -10% vykonu proti T1.
Ale klud klud. Pan Zadek Hulan sa este len teraz zoznamuje s tym hnusnym AMD, urcite mu to nanutili v redakcii. Majme trosku strpenia.
Bohužel, ani Athlon 64 Venice nezvládá T1 při použití 4 kusů DDR500 pamětí, při použití jen dvou slotů ano... Veškeré testy by byly tedy paradoxně rychlejší kdybych použil jen 1GB paměti (2x512MB) místo 2GB (4x512MB), protože poté lze použít T1.. Ale ve svém počítači 2GB potřebuji (spuštěné současně MySQL, Apache, Opera, MSIE, jEdit, Photoshop, Dreamweaver, Borland Delphi a další), takže jsem to testoval takto..
Jinak řečeno, kéž by tak mělo AMD řadič paměti alespoň na úrovni starého chipsetu i875... Bylo by po řadě problémů s kompatibilitou..
A kdo rika, za je to u i875 lepsi ?Ja jsem si delal doma testy pameti a na me desce Epox i875P dostanu vyssi vykon, pri 2x256 nez pri 4x 256 MB. Konkretne kdyz mam 2x256 tak casovani mohu dat na 2 a nepada to, kdyz mam 4x256 tak to zacne padat, takze tam musim dat 2,5. Zkousel jsem ruzne moduly, takze v tech to neni.
Internet je plný problémů nekompatibilit Athlonu 64 a pamětí.. I uvedený problém, že se dvěma moduly jede T1 a se čtyřmi už ne, musím použít T2, je pro AMD ostuda.. Snad to další revize opraví, nicméně, kdo si má pořád kupovat nové CPU než AMD konečně udělá pořádný řadič paměti?
No nevim ja mam na A64 6,95GB/s na obycejnych DDR500@510 A-datech 2,5-3-3-5 T1, ktere maji na i875 max 5,8GB/s, coz me prijde jako docela rozdil. Treba TCCD pameti jsou jeste dale a na i875 funguji opravdu dokonale:) Kdyz clovek sestavuje pocitac tak jak ma a nekupuje to co zrovna maji na sklade, tak neni zadny problem. Osobne jsem zazil vice problemu s intelem nez s amd.
Aha cize pri benchmarkovani je potrebne mat spustene Dreamweaver, jEdit, Delphi a ine aplikacie... zaujimave. Mozno by sa dala urobit taka vec, ze tie aplikacie na dobu benchmarkovania vypneme, tym padom nam postaci 1 GB RAM a mozeme testovat 2-2-2-5 1T (pokial nam to RAMky zvladaju), ked uz sa hrame na to, ze chceme mat najlepsie komponenty v PC.
Na komentáře dle mého názoru hloupé a záměrně negativistické většinou nereaguji, nicméně, Cílem nebylo získat maximální číslo v 3DMark05 (=poměřování velikosti penisů), ale real-life testing, a nevidím důvod proč kvůli jednomu testu vytahovat 2 kusy DDR pamětí. Srovnání SLI versus nonSLI, což je předmět článku, tím NIJAK neutrpělo, chápete?
Ale ano, utrpelo.
nejsem vokenar a na linuxu bys dal service httpd stop; service mysql stop; kill jedit a zbytek tech kravina pak muzes testovat s gigem....no to je prusvih tech vokenaru ze sou zvykly aplikace spustet, nezastavovat je a pak jim furt chybi pamet a potrebujou tri graficky karty, 8 GB ramky a ja nevim co jeste....
Řekl bych, že u Linuxu je normální, že ti všechno běží najednou. Teda aspoň na mých počítačích. Prostě si to odswápne a je to.
Já bych se naopak díky tomu článku k nákupu nerozhodnul, takže tady díky
>Navíc, do ceny SLI je nutné započítat víc komponent než jen cenu druhé identické grafické karty podporující SLI, často je totiž potřeba jiný a výkonnější napájecí zdroj o kapacitě alespoň 500W, je nutná speciální základní deska (s nForce4 SLI chipsetem), a je nutné také kvalitně vyřešit chlazení skříně, v níž je přes půl miliardy topících tranzistorů.No ještě je dobré započítat do požadavků telefonát dodavateli elektrické energie, aby přišel vyměnit jističe.
Myslim, ze autor zapomnel na jeden pomerne typicky scenar. Ja mam nyni jednu kartu 6600GT, ktera mi pro me obcasne hrani uplne staci a planuju, ze tak za rok si velmi levne mohu koupit druhou a trochu tak upgradovat me PC. Nemyslim, ze je nutne obe karty koupit najednou.
To je velka otazka. HW az tak nesleduji, ale pokud vim, tak zatim nikde nebylo vyvraceno, ani potvrzeno ze to pujde. Problem je, ze karty do SLI by mely byt stejne a pokud mozno i se stejnou verzi biosu. Sance, ze po roce sezenete na trhu stejnou kartu (stejne HW revize) a bude vam stacit flashnout bios te stare je podle me mala. Jak se budou v SLI chovat karty ruznych HW revizi jsem zatim nikde necetl - jenom spekulace, ze to bude ci nebude problem. Nemluve o tom, ze po roce uz nemusite sehnat ani stejnou kartu v novejsi revizi, ale karta se bude lisit, nebo dany model vyrobce opusti uplne.Navic myslim, ze jestli chcete po roce vyssi vykon, tak je lepsi koupit kartu novou a starou prodat. Pokud to je superdraha 6800, tak se to jiste nevyplati, ale pokud dneska koupit 6600GT, tak myslim ze urcite. A narust vykonu bude jisty ve vsech hrach a ne jenom tech co to podporuji.
Jasne a ked si chce clovek spravit plnohodnotny pocitac so SLI kartami potrebuje 50 000 jasne.... nemam co robit....
Plnohodnotny pocitac? Pocitac s dvema kartami v SLI je silne luxusni pocitac. Do graficke karty do plnohodnotneho stroje nemusite dnes investovat vic nez 7000,-
Az na to zesom to cital na www.Czechcomputer.cz je to celkom dobry clanok
autor je ale stejnej , to máš jako zive.cz x novinky.cz
Diky, po delsi dobe poradnej clanek. Jak tak koukam, staci investovat dvacet tisic a mate pod stolem hucici primotop. Asi se budu opakovat, ale bez ohledu na ceny her mi prijde lepsi vrazit ty prachy treba do xboxu360.
něco na to bude
no pro profi hrace je to brutalni zbytecnost, navic na toto kazdy nema, muze si to koupit jen singl playerova nůbka, ktera zere 1600x1200 . penize za takovou sracku hazet je zbytecny za 2 roky to bude mit jiny vyznam, co mi to da ze v 3dmnarku mam 2x vic -.- lol
No jiste nebo do letani nadsvetelnou rychlosti To totiz v teto chvili existuje asi tak realne jako ten vas Microsofti Xbox nebo PlayStation 3, zatimco recenzovane reseni si skutecne muzete koupit uz ted. Az obe konzole vyjdou bude vykon grafickych karet pro PC zase nekde uplne jinde.
SI je zajímavé řešení ale má sutečně smysl až u těch nejdražších karet typu 6800GT ...ovšem ty ta cena apod jsou natolik ulitlé a využitelnost je vlastně jen v málo hrách že je to opravdu poze libůstka :) ale i tohle ve světě PC potřebujeme vývoj .... BTW: už se těším na crosfire nejen že by měl vycházet levněji ale jeho použitelnost je upně někde jinde aovšem to ji srzí bude li zapotřebý chipset ATI :(
Bych řekl že na základě tohohle článku ve SLI žádný výrazný smysl nevidím. Pekelná cena, spotřeba proudu, zabrané místo v case, tepelné vyzařování a následně hlučnost chlazení. Ale hlavně využitelnost je dnes minimální; podívejte se na výsledky non-SLI řešení, jako hranice dobré hratelnosti se udává 30+ FPS (u mě osobně je to ještě méně, asi tak 20), a třeba DOOM3 má ve hře FPS omezené na max. 60. Takže výsledkem v DOOM3 krom toho nejvyššího nastavení je skutečné zrychlení hry NULA. A i to nejvyšší nastavení má non-SLI 36 fps, tj. v pohodě hratelné, v ostatních hrách se pak pohybujeme někde nad 70. Čili pro dnešní hry je SLI defacto vyhazování peněz. Do budoucnosti je to otázka, jestli bude cenově a výkonově lepší si pořídit novou kartu, nebo dvě staré ve SLI.
20 FPS na hru je naprosto nepoužitelné (pokud to není RPG či simulace), s takovými 100 FPS je vše podstatně hratelnější, myš je citlivější a hra se lépe ovládá... Doom 3 je skutečně omezen na 60FPS, ale toto zle změnit v base/AutoExec.cfg
to je relativni. Profi hraci urcite oceni 100 fps, domaci hraci se spokoji s 50, nenarocni jedinci vezmou 20 a jsou spokojeni. Koneckoncu kdysi jsem dohral Dooma na 386SX16 pri nejakych 8 - 10 fps a byl to zazitek i tak
a co myslis ze s tema 100fps pak ta videokarta udela? Posle ti to na 75Hz monitor??? Dobre, mas-li hodne dobry monitor, bude to 85Hz. Honba za vykonem je dnes zbozne prani marketingovych oddeleni. V podstate souhlasim s nazorem ze 30fps je hranice postrehnutelnosti okem (filmy maji 24-25!). I kdyby nakrasne na tu vzdalenost a rozliseni to bylo 50, ale vic proste smysl nema. Navic kdyz monitor (a to ani nemluvim o LCD) to nedokaze ani zobrazit.
Tohle
Tohle je
Tohle je právě
Tohle je právě velký
Tohle je právě velký omyl. 30fps sice už téměř stačí (ještě je lehce znát trhání myši při rychlém zaměřování), tedy spíše 40+fps, jenže zásadní věc je, že je třeba trvalých 40+ fps. Pokud v testu má hra třeba 60fps, tak zaručeně bude padat v minimálních hodnotách pod 40, proto všichni chtějí 60 nebo i třeba 100fps v testu. Všechny testy by měly měřit nejen průměrnou hodnotu fps, ale také minimální.
nedokážu si představit jak se hraje LANovka s 30fps to je pěkna blbost dyž hraješ proti lidem potřebuješ bejt zatraceně rychlej a přesnej
Jste poněkud mimo - televize má předně proti monitoru/LCD podstatně nižší rozlišení (625 řádků interpolovaně), nemluvě o výrazné neostrosti obrazu. Televizi sledujete málokdy z menší vzdálenosti než 2 metry, monitor/LCD ze vzdálenosti kolem metru. Navíc při sledování televize jste "jen" pasivní divák, narozdíl od hry. Zkuste si zahrát first-person střílečku v 30 fps, 50 fps a 70 fps, uvidíte že v tom JE rozdíl - zvlášť pokud pozorujete pohybující se objekty z dálky.
No hlavně je rozdíl v tom, že v televizi obvykle běží filmy a seriály a na ty stačí 20 fps (ikdyž si je pouštíte na počítači).
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.