Je vtipné sledovat teď jak se asi s titulkem zmýlili. Cena má být ještě vyšší jak u RTX 2000
Snad to konečně rozjede 4K stabilně nad 60 FPS což je dneska pořád docela problém, prakticky jediná grafika která na to má je 2080 Ti.
Grafika se 16 GB paměti? Ach jo, asi už stárnu, když si pamatuji, že jsem měl doma 32 MB grafiku. Na druhou stranu nároky se kontinuálně zvyšují, kdysi stačily stovky kilobajtů, za 20 let bude třeba málo i půl terabajtu.
Ja mam doma grafiku s 2MB RAM. Nejaka S3 Trio 64 V+
ISA Trident TVGA9000 s 512kB ram, a Hercules radic (HCG), kde se o videoram vubec neda hovorit. 😝
Pff, já měl v tý době Tseng Labs, brutál! Dokonce to mělo i ovladače pro 3DS R4 pod DOSem a Win3.1, 16-bit barvy, hroznej masakr, rozjel jsem na tom i Crusader: No Remorse v SVGA, ne zas až tak plynule, ale rozjel 😀Jop, bejvávaly doby 😀
16GB je logicky krok pro totální highend kde hraci chteji hrat ve 4K.. vsak dnesni mainstream ma uz bezne 8GB a to na tim lidi hrajou v 1080p nebo 1440p proste naroky na VRAM se rok od roku zvysuji to je celkem logické
Mam 5700 XT a hraji ve 4K. Co delam spatne?
Zijete / zijeme proste v jine realite nez Stratos. Ale ze by to bylo "spatne", to bych si tvrdit nedovolil. :o)))
v kontexte clanku a tejto diskusie nema zmysel rozdelovat pristup k veci na spatny alebo dobry. Spatne nieje ani jedno, dobre je ze mame siroku paletu ponukanych moznych velkosti pameti ktorej si vie kazdy vybrat . Kazdy okrem extremistov ktorym nevyhovuje vobec nic 😃
Tak 8 GB je na 4k dneska zatím dostačující minimum pokud se bavíme o max detailech a nových hrách. Za rok už nebude muset 8GB VRAM a výkon 5700 XT stačit, která je teda podle mě stavěná spíš na 1440p hraní.
To je mozne. Byly casy , kdy veskera pamet meho pocitace byla 48 kB a nektere tituly doposud nebyly prekonany v oblasti hratelnosti soucasnymi srackami "Strilej po vsem, co se hybe".Osobne jsem si pocitac poridil jen kvuli jedne hre, kterou nelze hrat na konzoli.
vse na max to ale asi nezvladne v tomhle rozliseni, prece jenom s nekterejma hrama ve 4K ma problem i RTX 2080 Ti
Tolik casu opravdu nemam, abych hral vsechny hry. PC jsem si poridil jen kvuli jedne hre, zbytek hraji na konzolich.
tak pokud to mas na uzky vyber her tak to je uplne jina situace, ja myslel proste hrat vetsinu her z posledni doby ve 4K a zde opravdu 8GB nestaci... nektery hry si vemou kldine 10-12GB, zvlast pokud mas textury ve vysokem rozliseni.Moc dobre to vim protoze ve 4K parim uz 5 let
Názor byl 1× upraven, naposled 20. 11. 2019 18:31
Na AMDčku, že jo 😀
Stačí dát do Googlu "lži pana belky" B-]
Já na RTX 2070 Super hraju taky ve 4K ale pravda je že nemůžu mít všechno na max a ve hrách kde to jde si musim pomáhat variabilnim rozlišenim. Jediná grafika která v současnosti opravdu má na 4K bez ochcávek s FPS minimálně 60 je RTX 2080 Ti. O těch novejch AMD toho moc nevim, třeba je tam ňáká s podobnym výkonem, ale moje 2070 Super je hodně na hraně na 4K hraní, jsem zvyklej mít ve hrách tak 80 FPS kvůli opožděný myši (60 FPS je málo) a ne v každý hře to ve 4K jde. Paradox je že čim novější hra, tim jede líp ve 4K protože asi dneska na to 4K už fakt optimalizujou, třeba u 10 let starejch her je někdy 4K s dost mizernym FPS což by člověk nečekal.Nejvíc grafický paměti žerou hry na iD Tech enginu (globální textury), tam se ti na max nastavení může dostat třeba na 7GB, větší využití VRAM jsem asi nikdy neviděl, většině her furt stačí 4GB, samozřejmě ve 4K je to dost na hraně.
Názor byl 2× upraven, naposled 7. 6. 2020 02:35
do retro PC jsem teď kupoval geforce 4200 Ti s 64MB pamětí, tu grafiku jsem chtěl jako malej, tak jsem si jí konečně po skoro 20 letech dopřál. 😀
16GB je celkem logickych, prece jenom Nvidia doposud ve velikosti pameti dost zaostavala za AMD a uz 1080Ti mela 12GB a to je karta stará necelé 3 roky.. Takze pokud by hypoteticka 3080Ti nedostala 16GB byl by to celkem FAIL...Ohledne cen, Nvidia uz ví že pristi rok pride RDNA2 na 7nm EUV a ze cipy budou vetsi a vykonnejsi (v kuloarech je tato architektura oznacovana jako nvidia Killer) takze cena 3080Ti rozhodne nemuze jit opet o 70% nahoru jako to predvedla 2080Ti vuci 1080Ti to by byla totalni sebevrazda od Nvidie.. A jelikoz prodeje obecne Turing karet neni nic moc (nvidia ztratila od ty doby dost na trhu, jenom posledni kvartal 10%) takze Ampere musi bejt mnohem efektivnejsi a levnejsi nez byl Turing, ktery mel efektivnost velikosti cipu ku vykonu dokonce horsi nez predchozi generace Pascal, neni divu ze byl proto Turing tak drahej protoze na stejnou porci vykonu bylo treba vic kremiku a vetsi plocha cipu coz sebou logicky nese vyssi vyrobni naklady ktery se musely nekde projevit.Obecne ocekavam od Ampere cestu zpet k Pascalu co se tyce efektivnosti a zjednoduseni celeho navrhu, ktery je proste u Turinga silene slozity a efekt neni nikde videt.pristi rok se tedy konecne po letech dockame vyrovnane bitvy nejenom v mainstremu a nizsim highendu ale i v TOP higehdnu obecne, coz by bylo hodne zajimave, protoze by to mohlo donutit Nvidii po letech zdrazovani donutit zas trosku ceny ponizit.. Prece jenom pokud porovname cenu highendu 980Ti vs 2080Ti tak pouze behem 5 let se cena TOP modelu nepekne vysplhala.. A nejenom i TOP highendu, cenovy rozdil treba mezi GTX960>GTX1060>RTX2060 je taky dost znatelny.. RTX 3060 by se tedy zas mela idealne navratit nekam k 6-8tis s DPH pri uvedeni..
Názor byl 2× upraven, naposled 19. 11. 2019 18:37
Vsude nacpeme informaci o tom, jak nvidia zaostava v tom ci onom. Stratos na hrad!
tak v pomeru cena/vykon rozhodne + ve vyrobnim procesuVsak staci se podivat jaky pomer cena/vykon nabizi treba RX 5700 XT vs RTX 2070 Super atd.. Predni pricky v tomto ohledu okupuje AMD uz rok dozadu minimalne.. Pokud se podivame na Herueku tak v TOP15 ohledne prodejnosti ma AMD 10 svych grafickych karet kde vevodi RX 580/590 nebo RX 5700 radahttps://graficke-karty.heureka.cz/takze z 15 neprodavanejsich grafických karet mas v zebricku 10 od AMD neni divu ze za posledni kvartal uzmulo AMD 10% trhu na ukor Nvidie.. Ty cisla nelzou
Ty magore, kolikrát ti tu bylo napsáno, že Heuréka neuvádí poměr prodaných grafik, ale že je to jen agregátor pro vyhledávané výrazy?100x opakovaná lež je lež a nic víc. Tohle si táhni blejt na tvůj Stratos kutloch kde ti to haranti žerou úplně stejně jako ti žraly kecy, že je Vega56 stejně rychlá jako RTX2080Ti a zrovinka v tom Crytek demu kdes blil jak to frčí na 60 FPS. Teď když vyšly najevo benchmarky (30FPS) tak držíš tlamu co? Twl choď kanálama ty DDobytku.
Přidávat paměť do herní karty když hry sotva využívají 8GB, natož 12GB jen proto, že si pan Belka myslí, že by to byl fail, není myslím nutné ani účelné. Pokud tak udělají, bude to kvůli šířce sběrnice. Ty přidané 4GB tam budou odpočívat v naprostém pokoji až do konce morální životnosti té karty (pozor aby se to nedozvěděla Gréta).
pokud by kartam na 4K hrani stacilo 8GB VRAM tak pro ma GTX 1080Ti i RTX 2080Ti vic VRAM nez onech 8GB?
fagot-> Nie tak to nieje. Zamienate pricinu s nasledkom. Primarne vyrobcovia GK neprisposobuju velkost instalovane RAM+GRAM narokom hier ale naopak vyvojari SW a hier musia zamerne osekavat kvalitu textur aby sa vosli do dostupnej pamete.Ak by mali priemerne PC a konzole napr 64GB GRAM tak by tam vyvojari nafukali ovela vacsie a krajsie textury + potrebne data. NApriklad si mozete do niektorych hier stiahnut dodatocne dorobene ultrahires texture packy. Druha vec ze potom by sme nestahovali 100GB na 1 hru ale napriklad 1000 GB na 1 hru. Vyrobci PC a konzol by museli instalovat nielen viac RAM+GRAM ale aj vacsie HDD/SSD.
U CPU bych byl tyhle sračky od tom jak AMD drtí konkurenci ještě schopnej tak nějak akceptovat, ale u GPU, kde AMD nesahá Nvidii ani po kotníky a má co dělat aby vždycky alespoň dorovnalo výkonem rok starej model od Nvidie, je to vážně trapný. B-]
Ani jsem to nečetl, zkusím hádat Nvidea špatná předražena adt a AMD je NEJLEPŠÍ.Automaticky ti dávám minus
Přesně tak. B-]
Tady ti musím dát za pravdu že AMD je v GPU totálně v pí.či a že nemá šanci ne dnes ne příští rok, boom od AMD přijde až za dva roky. Uvidíme co se povede příští rok ale nevydím to živě.
tak predrazene sou, proc myslis ze od uvedeni Turinga na trh sly akcie Nvidie dolu a sly dolu i trzby a zisky.. Karty sou drazsi a mene se jich proda no.. Vsak v posledním kvartalu zmizelo Nvidii 10% podílu na trhu na ukor AMD v grafických kartach a to je nejhorsi propad za posledních 5 let
Proc? No protoze rvou prachy do autoautonomnich nesmyslu, ktere prd vynaseji a je to rozhodne beh na dlouhou trat (pokud ne rovnou do propasti). GK jim vynaseji stale dost a rozhodne nestoji za ekonomickymi jevy, ktere tady zkreslene popisujete.
pS: Holt do nV investuji typicky jini lide nez do Elonovych vzdusnych zamku..
Ty sam jsi fail. Už umíš počítač procenta?
Bude zajímavé sledovat co ukáže AMD za novou Grafiku.
ceka se mnohem vetsi cip nez ma dneska RX 5700 XT s architekturou RDNA2 a 7nm EUV. A pokud prihlednem k faktu jak maly je cip v RX 5700 XT a jaky dokaze produktovat vykon tak pokud by ten cip byl 2x vetsi + vylepsena architektura + lepsi vyrobni proces, mohl by bejt vysledek celkem zajimavej a to stale pri pouzitelny plose cipu, kde by jeho vyroba nemusela stat majlant jako ma treba RTX 2080/2080Ti kde je velikost cipu opravdu priserna..
vetsi cip proto, ze jeho cast bude obsahovat taky RT jadra, jako u konkurence, jinak AMD pojede dolu
tak nemusi mit RT jadra, jenom HW upravi aktualni jednotky aby umely RT pocitat na HW urovni, tech cest jak to do cipu dostat je hned nekolik a nutne nemusej jit stejnou cestou jako Nvidia..
Ale vždyť jsi úplnej debil. "Jenom upravit HW" je v reálu komplet překopat archiotekturu ty mentále. AMD se na to vyfláklo, počítají to klasicky přes CU, které samozřejmě má i zlá hnusná nVidia (CUDA). nVidia má ovšem výhodu v tom, že pokud se využívají RT a Tensor jádra tak klasickým CU ušetří zátěž. Ale to né, to by Belka musel napsat, že je AMD za opicema a nemá žádnou novou technologii x-let, že jo...
Nejdůležitější parametr podle tebe je zaklínadlo 7nm. To jak někdo nemá tak vlastně úplnej debil, nerozumí tomu, malý jádro a basta! Takže supeeer, kde že má teda AMD tu konkurenci k RTX2080Ti?
A vůbec, kde jsou teď ty tvý kecy jak RT AMD podporovat nebude že to nemá cenu kdfyž na to není výkonný hardware, hmmmm?
Belko bohužel tohle jim nepomůže musí překonat vše od základu a to potrvá minimálně dva roky možná víc než se přiblíží nebo překoná Nvidi, Nvidie není Intel kterému ujíždí totálně vlak.
Zrovna se nVidia trefila do období, kdy budu zřejmě upgradovat desktopy, zvláštní náhodička. Budou-li též ceny přijatelnější, tak snad už nemám co víc si přát.
pokud zde AMD zautoci stejnou silou jako v poli proceesoru tak se snizeni cen rozhodne dockame. Vsak Intel ted po letech zdrazovani zlevnuje HEDT procesory o 50%..
Názor byl 1× upraven, naposled 19. 11. 2019 18:40
Tak tohle já nechápu. Každý den tu píšete jak máte miliony a všechno bohatství na světě a najednou budete řešit cenu grafické karty?
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.