Ta zpicena ATI by mela radeji priznat, ze bezne prejmenovava sve zajebane chipsety co nejdou na odbyt - napr. u serie HD, aby si to postupne lide nakoupili - tim verejne okrada a obelhava.Mel by se nechat napsat nejaky zkurveny zakon, ktery by zakazoval prejmenovani hardwaru a opetovne prodavani toho stejneho $hitu.
Ale to víš že jo. Běž si zaonanovat nad svou GeForce nebo bud sticha.
" protože nás při snaze o vytvoření velkých monolitických grafických čipů omezují určité fyzikální zákony"Odkdy je zmetkovost fyzikální zákony ? nebo o co jde jiného ? vysvětlete mi to někdo prosím ať neumřu blbej.
stačí aby už nebylo kam co zmenšovat a zvedat počty tranzistorů taky nejde do nekonečna
..a bude potřeba zvětšovat jádra. logicky - když nemůžu zmenšovat prvky a přesto prvků přidám naroste tím celkový rozměr čipu. AMD (i já) mluví o fyzikálnch problémech dělat tyto větší čipy z důvodu nemožnosti zmenšování prvků.Prostě já o voze vy o koze.Zeptám se teda přiblble, co všechno brání udělat "čip" metr krát metr jehož cesty jsou 300nm tlustý ?
fyzika. Proste cas, ktery potrebuje signal aby probehl z jednoho konce velikeho cipu na druhy je prilis velky a dochazi k tomu, ze dalsi "vlna" vypoctu probehne tranzistorama na zacatku drive, nez predchoczi dobehne na konec... Takze se musi omezit bud frekvence, nebo velikost.
dle mne, velikost tranzistoru, jeho tepelné vyzařování, atd, ovlivňují zákony fyziky, taky musí donutit jednotlivé tranzistoru atomy aby zůstaly na svých místech, atd... Takže toto vše se řídí čím, cenou rohlíku v obchodě?
Jak uz psal kolega - brani ti v tom rychlost svetla
Ale kdeze rychlost svetla......mylis si dojmy s pojmami....ked uz tak je to tok ELEKTRONOV cize elektricky prud klasicka elektrika to je zaklad vsetkych PC a nie tok FOTONV cize svetla....keby sa informacie v PC prenasali svetlom ako to zatial vieme v OPT kabloch tak to by boli ine rychlosti....daco viem ze v Japonsku sa pokusali o opticke spojovacie polia ktore mali obrovsku priepustnost okolo 1-10Tb/s ale to boli len pokusi...asi tak:)
Nevím, nevím. Nedělají z nás pitomce? Co budou chtít za pár let? Doufám, že nebudu potřebovat výkon 2 PC a 16 GK abych si zahrál hru, nebo si snad budu muset k PC natáhnout zásuvku v které bude 380V aby bylo kde ty kompy zapojit?
na mašinu se 4ma grafickejma kartama mi přijde 2GB ram docela malo, matka si ted koupila "nějakej" notas a ma standartne...jako kazdej normalmnějsi NB o desktopu nemluvě. Jenom uchyl muze mit 4graficke karty s 2GB ddr4 a pouze 2GB ramky pro system. Vysloveně na hrani, pritom by clovek rekl,ze takova masinka by mohla bejt na všechno..cena dalsich 2GB se neda srovnavat s ostatnima komponentama...
Nevite prosim nahodou, co je to za case, nebo alespon vyrobce ???
to musi bejt hlucny jak prase, vzdyt ty ventilatory tam maj tak ctvrt centimetru mista pro nasavani vzduchu
ze honba za vysokym vykonem jde stale ruku v ruce s vysokou spotrebou a to i v dobe, kdy se mluvi o ekologii a vycerpani energetickych zdroju stale vice
Tak v sucasnej generacii doslo k poklesu, verim ze tento trend bude pokracovat ;)
nebude... vyrabi se karty se spotrebou o tretinu snizenou... jenze je budete potrebovat dve a to znamena opet narust spotreby energie... Dokud se neco na poli IT nezmeni opravdu razantnim zpusobem (myslim tim vyuzivani jinych fyz. principu), bude spotreba ruku v ruce s výkonem neustale stoupat - bohuzel.
Ale koukni se na procesory... Pentia D meli TDP 130W a dnesni Core 2 Duo maj TDP 65W pritom sou mnohem vykonnejsi.Ono ta spotreba do nekonecna zvysovat nejde a graficky karty sou porad technologicky za procesorama, tak snad pride stejny snizeni casem...
To je velice odvazny tvrzeni, ze grafiky jsou pozadu za procesarama, vykonove urcite ne, v cem tedy?
treba myslel nanometrama - o generaci pozadu ATI, nV o dvě - a to souvisi se spotrebou,treba myslel tohle. Tezko jde srovnavat nesrovnatelne : CPU x GPU... to je jako srovnavat Lucinku (8800Ultra OC) s ostatníma holkama (486 DX2 turbo_off)
Ano, vyrobni technologie je jedna vec, dalsi treba dual/triple/quad atd. core, dynamicka zmena frekvence podle zateze (kazdyho jadra zvlast samozrejmne). Je toho dost. Dnesni GPU sou v tomhle tak na urovni P4, takze ted by melo prijit faze P4D a pak uz snad C2D :).Jinak jedinej rozdil mezi CPU a GPU je v tom ze CPU musi byt hodne universalni, kdezto GPU je uzce specializovany a tak samozrejmne ve svy oblasti mnohem vykonnejsi.
Například ve výrobním procesu, tudíž spotřebě energie. Spusťte si CPU-Z a GPU-Z a porovnejte výrobní procesy vašeho CPU a GPU.
To je všechno hezký ale já žiju v dojmu že výroba GPU využívá právě ty továrny a výrobní prostředky které "zdědily" po výrobě CPU, tudíž masově se nikdy všechna GPU na stených "nanometrech" jako CPU vyrábět nebudou, a protože se neustále tlačí na výkon,.. budou vždy žravější než CPU (nebo budou mít menší výkon vůči jiným GPU atd.)
Ani nahodou, vsak si pozrite vyrobne procesy > 55 nm pre sucasne RV670 a 80 nm pre R600. Take ste niekedy videli u procesorov? :)
Tak ono na stejnem stroji jde podle potreb "nm" menit dle potreby ze... a z verglu jde po vytuneni vyzdimat i trochu lepsi vysledek 90nm->80nm...
Ty nejvýkonnější karty mají brutální spotřebu. Aspoň u nižších kategorií se spotřeba trošku snižuje. U špičkových herních karet bude těžké spotřebu snížit, ale u karet pro multimedia (na zpracování Rawu, na HDTV) to určitě v budoucích letech půje snížit na pár watů.
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.