Každá konkurence je potřeba, pokud to bude rozumné tak časem se vrátím zase k AMD s GPU až doslouží/nebude stačit GTX 1060 na moje hraní/nehraní 😀
Nvidia:Starts supporting FreesyncHuang: Freesync doesn't worksurprisedpikachu.png
V případě AMD je cena $699 doslova BOŽSKÁ, ale když tu samou cenu měla 2080 tak se tu mohl Belka přetrhnout v psaní článků jak je nVidia předražená 😀 Inu nestranost nade vše https://imgur.com/a/Eh9Lvwl
2080 Fe stoji 799 dolarů.. jen pro poradek Radeon VII v referencnim provedeni je za 699 dolaru a to ma drazsi HBM2 pameti s 2x vetsi kapacitou a 2x vetsi propustnosti.. V tomto ohledu je cena Radeonu VII hodne dobra..
No jo já zapomněl, teď se ti vlastně nereferenčky za $699 nehodí, to jsou najednou FE dobrý 😀 Co takhle vytáhnout to mezigenerační zdražení o $200 a pořádně to zkritizovat jako jsi to udělal minule u RTX 2060, která je dražší o $50 a nebo vlastně u celé RTX 2xxx řady. Dočkáme se také takového článku? Osobně tipuji, že ne a budem tu slýchávat ódy na kapacitu paměti Radeonu VII B-]
A kdo ví že Vega 2 se nebude prodávat za 699 Mining už skoro umřel.
Těch 699 minimálně ví samo AMDčko jinak by si to asi nelajzlo dát na slajdy... BTW mining ještě neumřel, mrkni se do Číny (resp. hranice s Mongolskem), ty fabriky tam stále stojí a silně pochybuju, že si je tam drží jen tak z hecu
Ma pravdu. Graficka karta bez umele inteligence je jako ponorka bez steracu. 😀
nejhorsi je ze AMD umeou inteligenci umi taky, jenom to HUang nevi :)
Kdyby radeji sef AMD kecal a AMD a sef nVidia o nVidii .. komedianti.
Jo kdyby mi raději vrátili do ovladačů podporu NVCUVENC pro CUDA :(
oni vyndali tedka i nvsmi z ovladacu :/
Belka, kdy se omluvis lidem za sve LZI z minuleho clanku? A uz ses doučil počitat procenta?
No jo, dyť oni to mají v názvu 😀 "Název NVIDIA pochází ze španělského envidia, což znamená závist."
😀😀 Fakt, ze ano...
No jo boji se že nyní má už velikou konkurenci a že ho drtí ve všech směrech a s nižší cenou, jo nvidio boj se boj protože tvé srajdy s minimem změn a výkonu za tolik peněz nikdo chtít nebude, a dobře jim tak jen ať jim AMD natrhne prd.el a pořádně!!
Názor byl 1× upraven, naposled 12. 1. 2019 17:29
Kazdy by byl rad, kdyby tu byla konkurence, ale bohuzel si Nvidia muze dovolit pridavat minimum vykonu za velke penize, prave proto, ze tu zadna konkurence neni. Sice se vam to nemusi libit, muzete se tu za AMD rvat, ale nebude vam to nic platne, do ted, proste AMD pro Nvidii nepredstavovalo zadnou hrozbu a proto si taky muze dovolit to co dela.
Kdyz na strane AMD stoji lhari a podivini jako je Belka, tak se neni moc cemu divit, ze se AMD nedari 😀
Pokud má někdo tendeci házet špínu na konkurenci, tak to svědčí, že se konkurenční produkt spíše povedl a Nvidia má obavy. Každopádně snad každý zákazník si přeje konkurenčí prostředí. To je snižování cen a zvyšování výkonu. Počkám si na porovnání výkonu Radeonu VII a RTX 2080 a pak se rozhodnu. Zajímat mě bude ale i výkon mimo herní oblast. Nejsem totiž tak bohatý, abych si kupoval kartu za 20K jen na hry. Tak chci porovnání výkonu např. při střihu 4K videa nebo při úpravě RAWů ve Photoshopu. Nikomu nestraním, vyberu lepší kartu poměr cena/výkon. Každopádně takové štěkání se mi nelíbí. Tímto si Nvidia nové zákazníky určitě nezíská.
Nevim, ja potrebuji hi-end, takze si budu kupovat 2080Ti, Titan RTX to je absolutne mimo misu cenove, ale kdybych mel byt tedy na vasem miste a vybrat si Radeon VII a nebo RTX 2080, asi bych si vybral 1080Ti, ktere by mi proto co vy potrebujete nabidl stejny vykon za nizsi cenu. UVidime s jakou cenovkou se vytasi AMD s tim radeonem.
Názor byl 1× upraven, naposled 12. 1. 2019 16:56
mam 1080Ti 2Ghz+ a 2080ti pro me ztraci naprosto smysl.. skoro 2x drazsi karta s vykonem 20-30% vyssim to je proste silene malo.. Vsak mezi 980Ti a 1080Ti byl rozdil klidne 60% ve vykonu a cenovy odskok nebyl zas nejak moc velky.. 2080Ti je proste fiasko jinak to ani nazvat nejde, kde je sakra ten vykon, kdyz ma cip brutalnich 750mm, coz je vuci 1080ti kde byl cip velky pouze 470mm celkem obrovsky skok a to ma jeste 12nm vs 16nm ale vykon neni teda moc videt. Pomer plocha cipu/vykon se u novy generace strasne zhorsil.
Cip je velky, protoze v sobe skryva jednotky pro RT a AI, a vykonove se 2080Ti vyplati, pokud nekdo potrebuje vykon, nerikam, ze je to tak skvely pomer cena vykon jako byl pri prichodu 1080Ti, ale porad se vyplati, ale je pravda, ze to co je dnes 2080Ti, jsem spis cekal od ciste 2080 a verzi Ti jsem cekal pozdeji s jeste vetsim vykonem. Ale pokud nekdo pouziva kartu tak, ze nevyuzije RT ani AI jednotky, je nesmysl aby si kupoval obycejnou 2080 to se vyplati koupit 1080Ti.
asi tak, kdo ma dneska 1080ti je pro nej 2080Ti zbytecna koupe.. uvidime co dalsi generace na 7nm, ta stavajici se proste z pohledu ceny/vykonu vubec nepovedla a neni divu ze prodeje sou pry u RTX rady nejhorsi za poslednich nekolik let a akcionari nvidie jsou s timto silne nespokojeni
Co má highendová herní karta společného s úpravou RAW ve Photoshopu ? 😀😀😀😀😀 Ty seš dobrej trotl 😀😉
Photoshop, Lightroom, Premiere, DaVinci Resolve a další... umí využít výkonu GPU. To je ta spojitost mezi výkonnou grafickou kartou a prací v těchto programech. Poslední větu raději nebudu komentovat.
Tak zrovna Photoshop umí využít leda kulový. Lightroom to samé. Premiere opět to samé, maximálně si můžeš vybrat render přes GPU. Resolve úplně to samý, prostě kecáš howna jak ten Belka. Nemám problém ti poslat 500MB .psd a na sebelepší grafice si s jedním layerem nehneš a můžeš mít těch grafik klidně pět 😀
tak ono to taky nechce mit 8GB ram...ja pracuji i s nekolika GB soubory a ok... a nebo mate starsi verzi PS, ktera neni dobre optimalizovana + v nastaveni PS mate moznost si volit, zda pracujete s mnoha malymi vrstvami, nebo malo velkymi...
Kde jste vzal to, že mám 8GB RAM a starší verzi PS? Jen pro doplnění - nastavení cache tile size vůbec nijak (!) nesouvisí s akcelerací nebo všeobecně s výkonem, je to jen a pouze nastavení velikosti cache a máte to tam samozřejmě i napsané. Ad velikost souboru - on je malinko rozdíl v tom jestli načítáte prachsprosté obrázky a nebo vrstvy s maskami a třeba ještě přes ně filtry. Já Vám mohu naprosto garantovat, že si s takhle připraveným PSD plynule nehnete ani na Quadru. Vrzalík napsal totální pitchovinu. A ano, stojím si za tím celkem pevně, Photoshop mě nějaký ten pátek živí, ale rád se tu nechám poučit 😀
Taky by mě zajímalo kde nabral padesát palečků přičemž napsal totální howno. Načítání RAWů záleží primárně na disku a né na grafice, následná úprava pak záleží na výkonu procesoru a opět nijak nesouvisí s grafikou. Grafika jako taková je zodpovědná za vykreslení nebo akceleraci pri zoomování příp. pár GPGPU filtrů. Tudíž platí přesně to co napsal Bowie 😉
Jak trapně se asi budete cítit po urážení druhé strany, když vám řeknu, že pracuji ve firmě, kde mimo jiné zpracováváme obrazová data (i RAW) a víme, že zpracování nemálo běžných obrazových operací je na rozumně výkonném GPU rychlejší než na CPU? ... Opět si potvrzuji, že nejagresivnější a nejvulgárnější jsou v anonymních internetových diskuzích ti diskutující, kteří potřebují šířit svoji "pravdu". Sice to pravda není, ale mohla by být.
Názor byl 1× upraven, naposled 13. 1. 2019 20:15
Trapně se cítit rozhodně nebudu - pokud provádíte nějakou operaci v obrázku tak samozřejmě GPU svojí funkci udělá nicméně jen do takové miry co jí PS dovolí a to bohužel neznamená, že si na násobně (!) rychlejším Quadru zpracuji data násobně rychleji byť má více než dvojnásobnou paměť než herní 970. Pokud se budem bavit o něčem co se provádí déle (typicky PS Actions) tak tam grafika nehraje prakticky žádnou roli a vše je závislé na CPU případně SSD z kterého se cucají data. Nic co jsem napsal výše není v rozporu. Zmiňovaná Premiéra je na tom teď momentálně na Ryzenech ještě o poznání hůře - např. pro preview používá na Intel CPU QuickSync a ten jaksi AMD nemá takže je to schopné se hryzat i na Belkou opěvovaném 16-ti jádru. Pravda, při výsledném renderingu přes CPU hraje v poměru výkon/cena AMD prim - to je bez diskuze, úplně stejně jako ten Winzip nebo kompilace prasečího C++
kezby, realna konkurence pro nvidii by byla fakt byla treba
zbytocne riesit marketingove vyjadrenia. treba pockat na to az bude karta vonku a potom porovnat s RTX
"..nemá podporu umělé inteligence"AMD ma celou otevrenou platformu ROCM kde je mozno vyuzivat AI. Dokonce portovat veci, ktere bezi na CUDA. (Caffe, Tensorflow, Torch apod.)https://gpuopen.com/compute-product/rocm/Srovnani vykonuhttp://blog.gpueater.com/en/2018/04/23/00011_tech_... Vykon verzi ROCMhttps://www.youtube.com/watch
nj tohle asi HUang ani nevi :) Me pride ze svoji konkurenci vubec nesleduje natoz aby si tohle nastudoval dopredu nez neco placne.
A kdy se něco nastuduješ ty o spotřebe Nvidia karet? Ty tvoje detinske lži o tom, jak GTX 2060 ma o 45 % vetsi spotrebu oproti 1060...
121 vs 170 = 1,4049https://www.techpowerup.com/reviews/NVIDIA/GeForce_RT...
Lži to nejsou. Výkon má jako 1070Ti a o trochu nižší spotřebu. Obě dvě jsou na 16nm, tam moc neuděláš.
Ono šlo prvotně o tenhle graf, z kterého Belka naprosto neznámým způsobem vyčetl o 45% vyšší spotřebu https://www.zive.cz/clanky/geforce-rtx-2060-v...
rocm je sracka, s horsi opencl implementaci nez amdgpu-pro, kdyz nevis tak o tom nepis, s cuda 6 nesrovnatelne, dneska je cuda 10 😃
rocm pouziva amdgpu (otevrena verze ovladace) ta je jak v cem vetsinou horsi nez amdgpu-pro (zcasti uzavrena).Jelikoz se neda v rocm (rocm je otevrena platforma) primo pouzit amdgpu-pro (castecne uzavreny ovladac) tak se da jit oklikou pres upstream driver (pokud to nekdo potrebuje). ROCm (Platforma pro heterogeni vypocty - obrovsky rozsah) se porad vyviji a jde dopredu i pres nektere problemy (jako kazdy SW). HIP (prevod cuda na opencl) je jednou z mnoha vlastnosti. Jeto velke + kdyz si na AMD muzete zkusit neco, proco by jste jinak potreboval HW od Nvidie ( vetsinou ne levny).Opencl na nvidia take neni slavne nebot je protezovana cuda. Cuda 10 se da na plno vyuzit jen s turingem (na starsich architekturach nejake zarne vysledky take nebudou). Jsem zvedav na "Prakticke dopady" Tensor Core.
Názor byl 2× upraven, naposled 13. 1. 2019 04:19
benchmark je krase, ale nepisou kolik u toho ty karty zerou, v realnem svete je opncl tragicke, jak pisu, horsi nez polovicni vykon na watt, ono kdyz vam to 4 mesice zere 4000w misto 2000w a stravite 2x tak dlouho psanim kodu, protoze neexistuji nastroje jako pro cuda, nejde jen o to to napsat, ale i optimalizovat, tak vas nejake amd prejde hodne rychle
Zalezi na podstate. Zda je priorita mit IOPS (operace za cas) nebo IOPW (operace na watt) pripadne je treba take zohlednit cenu. Obcas se povede oboji. Jinak s tou cudou to vam davam za pravdu az na "..vas nejake amd prejde hodne rychle"OpenCl je mnohem komplexnejsi (CPU, GPU,Programovatelna logika aj.).Obecne zalezi na SW jak mu to dobre ci spatne jde s vypocty na HW (celkem dulezite kvuli koupi at amd ci nvidia)Napr. pri pouziti backendu ViennaCL (pouziva cuda) v mem pripade AMD casto ma navrch nad NVidii i co do efektivity.Napr. v jiste vypocetni uloze prevalcovala r9 280X (2000 Kc) casove i efektivitou GTX 1080 (9000 Kc).Po prakticke strance se to vyuzit neda, vic by grafika propalila v idle modu nez pri praci.
koukam dostavas peknej kotel minusu ze ses odvazil napsat neco v tom smyslu ze ma AMD neco lepsiho nez nvidia :)
Většinou nejvíc brečí ten, kdo se cící nejvíc ohrožen. 😀Pokud vím, tak rok zpátky u Intelu to bylo podobné a jak je na tom Ryzen dneska 😃
Intel taky hlasil do sveta ze nebere AMD jako konkurenci kdyz AMD vytasilo s prvni generaci Ryzenu, dneska nas ceka 3 generace Ryzenu a Intel je tezce pod tlakem.. Nvidia s Huangem se proste boji aby nedopadli podobne, protoze Nvidia je mensi firma nez Intel a pokud dokazalo AMD porazit Intel muze porazit i Nvidii..
Kde Intel hlásí, že AMD není jeho konkurence? Zase si vymejšlíš pohádky ulhanče. Že je AMDčko hrozně drtí je jen tvůj výmysl stejně tak jako v případě, že AMD drtí nVidii.
intel hlasil, ze je nieco zle, ked AMD dosiahlo 1% trhu v servroch ( z 0,2%) a vacsina z nas si vtedy tukala na celo, ze noaco? Sef intelu potom odstupil, vymyslel sa "vztaz so zamestnancom" ale ono to bol iba zaciatok pruseru, ktory sa naplno prejavi az v blizkej buducnosti..
Intel spíš dělal že AMD neexistuje. Když Epyc začínal dostávat marketshare tak panikovali. Proč asi vydali 8700K o půl roku dříve než bylo plánováno? A bůh ví jestli by to bez ryzenu nebylo za 4-jádro.
8700K není serverový CPU. Intel si byl plně vědom o nástupu AMD, myslím že někde byl rozhovor kde jasně řekli, že AMDčku nedovolí víc jak 10% a mám takový dojem, že nemají 1% ale snad už i 2%. Jestli bylo vydání 8700K vyvolané AMDčkem je mi celkem jedno, hlavní je že to evidentně jde a klidně ať je AMD tlačí co je v jejich silách - aspoň mám o něco větší šanci dostat lepší nebo levnější CPU 😉
Na tom něco bude...babisu pláče cesko-slovensky snad každý tyden
Ano je, nVidia má dvojnásobny výkon na watt. Nechápu jakože AMD existuje. Nestoji totiž.polovinu. o se.podpore raději ani nepsat.
kdo hraje ve 4K a ma nabusenej komp za desitisice tak spotrebu opravdu neresi, zda mu komp zere 300W nebo 400W ho opravdu netrapi.. vetsinach takovch lidi ma treba i kompletne chlazeny PC vodnim chlazenim takze komp je neslysny, teploty krasny a spotreba je to posledni co je trapi...
Každý hráč, má dnes počítač za desetitisíce. A každý kdo chce tichý a výkonný herní stroj řeší TDP, teploty a kolik to žere, protože to spolu úzce souvisí. Neřeší to určitě ten co neplatí elektriku a stroj si staví za cizí kačky, a taky promile hráčů, kteří jsou tak ve vatě, že kompromisy neřeší.
Na Belku nema smysl reagovat. Ten uz mnohokrat prokazat, ze o grafickych kartach ci pocitacich nevi zbla vůbec nic.
mam nejnabusenejsi edici 1080Ti co se vyrabela s vodnim blokem a papka klidne 350W+ a jelikoz to chladim vodou a mam naproste ticho + max teploty 44°C tak mi je naka spotreba uplne u zadele :) spotrebu resi max setrilci co nemaj na elektriku nebo na poradnou skrin ci chlazeni apod.. nebo jako podle tebe kdyz chci hrat ve 4K mam koupit uspornou grafiku s malym vykonem? to asi nedava moc logiku ne.. Kdo si kupuje supersport taky ho asi netrapi ze to auto je schopny zrat klidne 50-100 litru bezninu na 100Km pokud to zacnes drtit nekde na zavodnim okruhu..
Ve vašem případě je to jako si pořídit supersport co žere 60l/100 a pak s ním na okruhu v Himalájích jezdíte 70km/h, protože to víc nejede. Nebo nám ještě povyprávějte jak si správně užít 4k v 60fps, s příkonem 600W na 144Hz monitoru? :)
pokud mam 4K monitor a hjraju vse na max tak se nemusis bat ze z grafiky nemackam 100% jejiho potencialu + ji mam pretaktovanou do maxima..
Belko máš obyčejnou Palitku, zdaleka není nejnabušenější (to jsou modely od MSI, Galaxy nebo EVGA). Tady třeba měřily spotřebu na 2050MHz jak tvrdíš a hale žralo jim to 334W https://www.tomshardware.com/reviews/msi-geforce-gtx-1... takže kde je těch tvejch 350W+? Na tvým měřáku za kilo z Lidlu nebo kdes to sebral?
TDP je dost jedno, jde o vykon na spotrebu, pokud nvidii pretaktujes tak, ze bude mit stejnou spotrebu jako amd, bues mit dvojnasobny vykon, v cuda operacich i vice (amd numi openCL, kde neni mozna psat tak efektnivni kod)
TDP jedno není ani u paření ani u těžby.
tdp je uplne jedno, dulezite je, kolik karta realne zere, ale jsi debil, nechapes rozdil
Kolik karta "žere" je příkon a ne TDP. Já jsem možná debil, ale o nedůležitosti TDP jsi nám tu začal polemizovat ty. 😝
Ano.
O jaké podpoře?😀Kam se s podporou sere nVidia.😀😀
Prej podpora. 😃 Borec na streamu zahlásil, že se mu zhoršili FPS a mě už hlavou problesklo, že má nvidia kartu minulé generace.
jakoze maji treba 1/2 ovladace, amd max. 1/8 funkcni, sw podpora hw, pyco blba!
Meleš hlouposti, PÍČO.Jak mohou být funkční jen z jedné osminy? No povídej, přeháněj, chytráku.Ty nemáš vůbec šajn o čem meleš, hlavně že meleš, vořechu.
14nm Vega byla známá tím že s undervoltem jsi mohl spotřebu shodit 50-80W. Čekám že Vega 2 bude na tom podobně.
Keby to šlo na všetkých kartách tak by to asi AMD urobilo sama nie?
No tak pokud říká, na základě uvedených grafů, že výkon R7 je mizerný, tak tím zároveň tvrdí, že je i mizerný výkon jedné z jejich nejlepších gk RTX2080. Trapas, typickej NvIdiot 😀
tohle si asi Huang neuvedomil a to je jeste RTX 2080 FE edice drazsi a ma mene pameti coz je totalni fiasko ve srovnani s R VII, presne jak rikas
Navíc "If we turn on RTX, we will crush it" ale crushne I Turing a navíc je RayTracing jenom v BF a DLSS ve Final Fantasy 15
To znamená jediné: AMD se nová karta fakt povedla.
presne tak pokud konkurence haze na produkt spinu znamena to ze je to dobry produkt a boji se ho... kdyby to pro ne nebyla zadna hrozba tak to nijak nekomentuji.. Nvidia ma viditelne z rozjeteho AMD bobky, kdyz vidi jak zatapi Intelu a ze se to samy muze brzy stat i jim protoze AMD staci minimum penez k tomu aby vymysleli prevratnou technologii jako to ukazali s Ryzenem, ktery AMD vyvinulo defakto z niceho a s nulovymi zdroji protoze se poslednich 8 let potacelo nad propasti a hrozilo ze zkrachuje.. Nvidia vydelava miliardy to same Intel ale nikde to moc videt neni
Moment, co přesně je na technologii Ryzenu tak převratného? 😃
To že Intelu slušně vypálil rybník.B-]
Jakože má po několika letech na trhu konkurenceschopné procesory? A tak to jo, to je u AMD skutečně revoluce.
Názor byl 1× upraven, naposled 12. 1. 2019 16:05
kdyz se podivame na to jak se vyviji ZEN architekura jak se zveda pocet jader, vykon a frekvence probiha zde opravdu velky progres za posledni 2 roky.. U Intelu zadny progres moc vicet neni a to cpe do vyvoje mnohem vic penez nez AMD.. Z tohoto pohledu je to pro inzenyri Intelu celkem ostuda.. Pokud ZEN na 7nm prekona Intel a ten nebude mit adekvatni odpoved s novou architekturou na 10-7nm bude to pro nej celkem problem, protoze coffee lake je proste dinosaurus co uz tu davno nemel bejt.. proc asi musi Intel pouzivat ty svindly s TDP u 9900K? jinak by totiz 2700X o tech 15% neporazil ale stezi dorovnal.. A pak kdo by to kupoval za skoro 2x tolik penez ze..
Navrhli a vyrobili jeden kus křemíku, který je pomocí Infinity Fabric spojen s ostatními drobnými kusy křemíku, mohou tak snadno nakombinovat serverový epic i dvoujádrovy Athlon z toho samého. Navíc tak malý kus křemíku mohou snadno připájet na heatspreader a nemusí používat jako konkurence teplovodivou pastu která je kvůli předpokládané dlouhé životnosti málo účinná.
Modulárnost.
Z toho tvého a stachova vykreslování AMD má člověk skoro pocit, že AMD je jen nějaká chýše uprostřed pralesa, kde Lisa Su ovládá pár cvičených opic a vyrábí tam HW za pomocí bambusového nářadí. Nemají zdroje, nemají lidi, nemají nic a i přes to mají výsledky...Zatímco Huang si plave celé dny ve svém bazénu plném peněz a jednou za čas se skočí podívat do svého obřího marketinkového oddělení, zda už vymysleli něco nového, čím lidi nasrat...
Ten má co kritizovat on a jeho Ti varianta za 35000 Kč s funkcí která kromě nějakých demo předváděček (1080p 60FPS) není ničím využívaná.
Hóóódně kyselé hrozny. A to se AMD rozhodlo dát Vegu VII do placu narychlo a jen proto, že jim Nvidia nechala stodolarovou mezeru v cenách karet. Jak bude pištět, až vyrukují s Navi?
Jako prasata před porážkou...
Huang je trosku narcis a nesnese konkurenci, Lisa Su je mu hodne podobna svym zevnejskem i oblkanim na prednaskach a to ho viditelne sere :) Kazdopadne pokud srovnam prednasku Huanga na RTX karty kde snad 100x rekl "it just works" s tim co prevedlo AMD tak jeho prednaska byla katastrofa zvlast kdyz jeho sliby se naplnily tak na 5% ohledne toho vseho humbuku kolem Raytracingu
Honzíku všichni víme, že jsi psycholog a víš co koho sere od pohledu, ale tady se obávám, že máš něco z očima. Nepoznat chlapa od ženský je už docela na pováženou a tu koženou bundu jsem na Su taky nikdy neviděl. To 100x "It just works" řekl pokud se nemýlím dvakrát a to to ještě nebylo přesně, ale každý se může přesvědčit sám https://www.twitch.tv/videos/360153308 Hale že ty zase lžeš? B-]
https://www.youtube.com/watch
Celou dobu je řeč o CESu a ty mi sem flákneš nějakej sestřih, fakt jak s tatarem :-O Pošli sem časy kde 100x zaznělo "It just Works" a kde má Su koženou bundu. Jak říkám, lžeš jak držku otevřeš, den co den.
Nvidia ale nevydala Turing na CES 2019A Lisa Su měla tu bundu ve středu při AMD keynotě
Jj, typická kožená bunda ...s krátkým rukávem 😀 S tím CESem a Turingem máš pravdu, byla tam představená jen 2060. Projížděl jsem si prezentaci RTX a zvášený počet "It just Works" jsem zaznamenal u Tomb Raidera, napočítal jsem to 6x a ne 100x
Výkon mizerný opravdu není, ale možná měli raději zvolit 8gb GDDR6, aby kartu mohli prodávat levněji. Pak by to byl dost vydařený produkt. Takhle je to v podstatě jen alternativa pro RTX 2080 bez ray tracingu s dvojnásobnou pamětí. Prezentace byla zcela v pořádku, Lisa odvedla velmi dobrou práci.
Přesně tak pokud tam bude dost výkonu na 4k při slušných fps tak se nedivím že Huang piští jako prase ne kazdej musi mit nutne jeho raytracing 🙂 co se týče samotného eventu aspon byl slyset potlesk a nadšení což u jeho uvedení rtx spíš vypadali vsichni dost rozpačitě.
kdyz Huang prozradil ceny RTX karet bylo v hledisti hrobove ticho a radsi hned prezentaci ukoncil a zmizel z hlediste.. u AMD byli lide z produktu a novinek nadseni viz ukazka vykonu procesoru RYZEN na 7nm vuci 9900K a z noveho Highendu Radeonu VII meli prisedici taky viditelne velkou radost. Huang asi citi ze se AMD zveda a ma strach ze dopadne jako Intel..
Pokial boli prisediaci podobna krvna skupina ako jeden nemenovany "redaktor" zive.cz, tak si od radosti mozno aj cvrkli do gati.🙂
Taky že dopadne jako Intel a dobře jim tak objema,Btw už se otestoval RTX v novém benchmarku kde je raytracking a RTX 2080ti dostalo 30fps což je směšné 😂😂
Zatimco ty, kdyz jsi nedavno blabolil, ze 2060 ma oproti 1060 o 45 % vyssi spotrebu, tak nebylo v diskusich hrobove ticho, ale naopak chechot 😀😀Jak se ti s tim zije, kdyz te lidi povazujji za meneceneho a chechtaji se tve verejne projevovane hlouposti?
Jenže 8 GB přestává novým hrám stačit.
Tak tak. Resident Evil 2 Demo na Max a pouze 1080p ukazuje, že bere 12.5 GB VRAM.
Prosím pány dislikery o argumenty, já udávám čistě fakta😉
je pravda ze pro 4K hrani je 8GB malo.. vsak predchozi generace v podobe 1080 Ti mela 11GB a od 2080 Ti se ocekavalo ze bude mit uz rovnou 16GB coz by si za dane penize karta zaslouzila a Nvidia zde viditelne setrila.. AMD vzalo v tomto ohledu vec so svych rukou (nebala se toho) a osadila 4K kartu poradnou a hlavne rychlou pameti 16GB VRAM s 1TB/s to je opravdu masakr a je jistota ze tohle kartu ve 4K rozhodne brzdit nebude a da to prostor tahat z cipu maximum jeho potencialu coz je jenom dobre.. Ono AMD vylo vzdy v tomto ohledu lepsi..Kdyz Nvidia mela v highendu 2GB AMD melo 3GB, kdyz mela Nvidia s mainstremu 6GB, AMD melo 8GB apod.. Proste AMD na ramkach nikdy nesetrilo a je to jenom dobre, protoze kolikrat ty karty od Nvidie uz po 1-2 letech zacne mala VRAM dost brzdit i kdyz cip by jeste ten vykon poskytovat mohl ale ramky ho nepustej..
Fanoušek nepotřebuje argumenty. Ohrožuješ jeho modlu.
To, že to píše v menu je jedna věc, druhá věc je reálná spotřeba - na 1080 Ti to nežere víc než 8GB. Navíc co jsem koukal na YT tak tam to hrajou solidně i na GTX 960
Jenže 8GB začíná být málo. Já Huangovi na nepoužitelný RT a pseudo AI kašlu, 16GB je mi mnohem milejší.
Předělat Vegu z HBM na GDDR by se jim sakra nevyplatilo, nemluvě o tom že Vega 7 je jenom rebrandovaná Instinct/Firepro M50.Více smyslu by dávalo vydat 8GB variantu za 450-550 podle ceny HBM
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.