Mimochodem objevili se první čísla o prodejích Turing karet, silně se liší od zdejšího diplomovaného specialisty Belky, který od začátku roku tvrdí, že je to prodejní propadák https://www.game-debate.com/news/26790/nvidia-boasts-...
Dokud nebude možné srovnat RTX, GTX a AMD ve stejné scéně a při stejně nastavených detailech, tak je celkem zbytečné debatovat nad zbytečností drahých RT jader. Aktuální demo ukazuje jen to, že to jde na všem. Neříká nic o nadčasovosti AMD, ani zbytečnosti RT jader. Nevíme vůbec nic o náročnosti scény z hlediska RT.To by se muselo ukázat, že když to demo jede na Vega 56 ve 30fps, že na RTX 2060 jede velmi podobně. To by byl opravdu velký fail. Ale tohle srovnání nemáme, takže to jsou zase jen belkoviny.
Srovnání v RT máme - stačí se podívat na testy realtime rendererů v OpenCL/CUDA kde výsledky odpovídají hrubému výkonu karet.Co ale nemáme je třeba ten Quake 2 (Vulkan) protože AMD jaksi ještě nevyrobilo knihovnu pro RT. Nemáme ani Port Royal kde pro změnu AMD nemá podporu pro DXR (DX12). Tohle ví i Belka, ale o prvním případu mlčí a o druhém tvrdí, že je za tím loby nVidie a Microsoftu (čili hajzlové zase ubližují AMDčku) 😀
Ja som bol v tom že CryTek mal existenčné problémy a rozpadol sa...
Turecká vláda do toho nalila prachy.
Ray Tracing je fajn pro fotorealistické obrázky )a videa), ale vzhledem k náročnosti bych ho uvítal jen jako možnost u her, které podporují "nahrání scény" a následné renderování videa. Pro uživatelsky generovaná videa by to mělo smysl a nevadilo by, že se video renderuje desetkrát déle, než trvala vlastní hra. V reálném čase je raytracing příliš náročný, ale především nevím o žádné hře, která by raytracing využila jako herní mechanismus. Zatím je všude jen jako přílepek, efekt, který odvádí pozornost.
Možná by se do té kategorie dala hodit série Thief, když si odmyslíme fakt že ty herní mechanismy zvládli autoři naimplementovat pomocí tehdejší běžné 3D akcelerace (a případně CPU).
Portal by byl super s raytracingem. Ale obešli se bez něj.
Raytracing jako takový není úplně problém (dá se omezit počet paprsků na úroveň kdy je vizuální dopad zanedbatelný). Jenomže pak do toho přichází část s texturami, bump mappingem, sprity (2D objekty, typicky vegetace). Přes to teprve přichází Global Illumination (ambient oclussion, indirect lighting, refrakce apod.) - proto to mimojiné dnes "šumí". Pokud se ve scéně objeví další zdroj světla tak se náročnost scény násobí tzn. dejme tomu výbuch, výstřel ze zbraně, odraz ve skleničce = počet rays krát dvě. Samozřejmě, že v nVidii dělají diletanti, kteří jen tak pro nic za nic dali do čipu tensor cores (AI pro denoise filter) a RT cores (ulehčení vytížení GPU přes CUDA cores) 😀
nvidioti si asi teď trhají vlasy. Ale musí se říct že marketingové lži mají propracované.gsync taky nejdriv neslo bez modulu v monitoru a teď už najednou jde 😃
Hm... jo, rvou si vlasy nad tím, jak někteří chápou ray tracing.Ale když přistoupím na vaši logiku, že ray tracing = odrazy, co teda marketingové lži AMD, které půl roku tvrdí, že ray tracing je nesmysl, protože grafiky na to nemají a ještě dlouho nebudou mít výkon, a pak vydá demo, kde „to“ jede na mainstreamové grafice ve 4K? Nebo se jenom spletli?Víte, na kolik to demo v CryEngine jede na Veze 56 ve 4K? Prý na 30 fps. Víte, na kolik jede Crysis 3 v CryEngine ve 4K na velmi vysokých detailech? Na 30 fps. Takže Crytek vlastně dokázal implementovat do CryEngine ray tracing s nulovým dopadem na výkon na dva roky staré kartě, zatímco neschopní idioti v Nvidii kvůli tomu museli navrhnout nové API, novou kartu a přidat na ni šest miliard tranzistorů.Jenom mi není jasné, že s takovou AMD ty neschopáky z Nvidie nedokáže převálcovat levou zadní. Jo vlastně moment, za to přece může čestný a pravdivý marketing AMD, že jo.
Zbyněk Říha kouří Stavba hned po Belkovi.
Stacha
ad1) Pane Vágner, jak jste z toho co sem napsal odvodil co rozumím pod pojmem ray tracing?ad2) O tom demu vím přesně tolik co vy. A z toho těžko soudit, ale fabulovat se z toho dá krásně.ad3) argumentacni faul typu: pane babiši vy kradete. já že kradu? a co tady kalousek?
Z tohoto „taky“:gsync taky nejdriv neslo bez modulu v monitoru a teď už najednou jde 😃jsem se domníval, že tím chtěl básník říct, že ray tracing „taky“ neměl jít bez RT cores a jde.Nebo to byl jenom takový výkřik, že Nvidia lhala s g-sync, tak lže se vším? (jak přesně lhala? v tom, že se soudobými monitory to nebylo možné řešit jinak? Víte, že i to AMD k tomu potřebovalo novou generaci monitorů s jinou elektronikou, co se dostala do prodeje až o rok později?) O tom demu vím to, co o něm napsal samotný crytek tady:https://www.cryengine.com/news/crytek-releases-neon... takže nepotřebuju až zase tak fabulovat, co všechno se tam přes ray tracing počítá a co ne.
Co jsem se dočetl tak to Crytek demo používá Voxel Path Raytracing (čili velmi hrubý výpočet kde by měla mít nVidia výhodu minimálně v denoise filteru přes Tensor Cores - žádný šum tam ovšem nevidím takže věřím tomu, že to na Veze jede). Další věcí jsou nepřesnosti, které vyscreenoval Maudit (ať si o něm myslíte co chcete tak tohle je fakt). Taky by chtělo vzít v potaz to, že je to předem nascriptované demo kde se nepočítá fyzika, AI apod. proměnné interaktivní akce.Co se RT týče tak v dobách GTX 480 dávala nVidia na CD demo s autama, které sice nešlo v realtimu, ale nutno podotknout že dnes je Vega papírově 10x výkonnější takže bych to viděl spíš na fail AMD než té nVidie 😉O G-Syncu si myslím své - ta elektronika tam není jen tak z hecu, i blbej 5 let starej monitor má okem viditelné lepší výstupy než levný Freesync 2 - to co tvrdí Belka je naprostá číčovina (zadarmo, pro všechny, standard, lepší atd.).Ještě ad to demo - déšť na sklech není dělaný raytracingem/refract, je to normal map (obdoba bump map). Na nVidii už celkem slušně běhá ten Quake (RT/Indirect light/Volumetric light/Global Illumination a to celé s HDR) https://www.youtube.com/watch To GI je mimochodem vidět třeba na zbrani, to rasterizací úplně dobře nafejkovat nejde B-]
Netvrdím, že ten Q2 je top - dnešní hry jsou násobně složitější na geometrii nicméně z hlediska světla a vývojáře je hned na začátku jasné co umožní RT aniž by někdo musel předem vytvářet "baked textures" - prostě si hýbnu se světlem a GPU dodělá to ostatní.OT hodně slušná dema jsou na webu Demoscene/Pouet, tam už se s tím rytracerem experimentuje nějaké 4 roky, první krůčky jsou implementovány i v DX9 takže nějaké kecy Belky jak to nemá smysl a že s tím teď teprve přišla zlá nVidia jsou naprosto mimo
To demo nevydalo AMD
Adam ale nepsal, že to demo vydalo AMD, psal, že AMD od doby vydání RTX karet tvrdí, že raytracing nemá smysl. Přitom na GDC sama Lisa Su otočila o 180° (ihned po předvedení VII) a slíbila, že se na RT technologie můžem těšit včetně algoritmů podobných Belkou nenáviděném DLSS https://www.youtube.com/watch (nechce se mi to hledat, ale je to někde ve 3/4 videa před tím než ukazuje Ryzen).Oficiálně AMD nemá realtime raytracing v herní sféře nikde, pouze přes ten Belkou proklamovaný plugin (cca 9 profi aplikací, kde to nVidia má roky před nimi)...
Ale gsync nejde bez modulu v monitoru, protože ne všechny freesync monitory podávají stejný výkon. Může se ukázat suttering nebo tearing podle toho, jak moc to výrobce odfláknul (chtěl ušetřit), u opravdových gsync monitorů máš jistotu, že se obraz nikde a nijak neroztrhne. Sám mám freesync monitor, který je podporovaný a u rychlého výkyvu FPS se nestihne přizpůsobit a obraz sem tam rozsekne.
Problém Freesyncu je, že docela často funguje jen ve specifickém rozhraní třeba 40-60 fps. Specifikace je to hodně volná a často se inzeruje i tam, kde nefunguje zdaleka ideálně. Je pár dražších monitorů, kde freesynk funguje 30-240 (nebo kolik monitor zvládne), ale většinou je to podstatně omezenější rozsah a to nedělá dobrý dojem, když se člověk dostane mimo.
Přesně tak. Tohle je právě důsledek toho co tu roky Belka a Stach denně drtí do lidí. VESA Adapative Sync = Freesync (zdarma) = GSync (ale za draho) přitom je to kravina největšího kalibru...
"nasvícení scény které se jmenuje ray tracing"What the #$%^ did I just read?
Zase nesmysl. Tady je reálné využití http://jdem.cz/exj938 a to prosím 1080Ti strčí Vegu 56 do kapsy.
Ty neumíš číst?
Moc ne, tady ten pán si vůbec myslí zajímavé věci.
A co na to tvůj pán na ddworld? Pořád píše o tom jak je to technologie o ničem 😀
omyl, psal ze je to nepouzitelny a to na zakalde realneho pouziti napriklad v battlefied 5 kde si tech par efektu ke kterym se to pouziva v hektickem hrani ani nevsimnes a jeste dostanes propad fps na pulku.a pak psal ze je to od nvidei jen marketingove oblbovatko aby ospravedlnila novou generaci karet s dvojnasobnou cenou a minimalnim narustem vykonu.cili ma celkem pravdu.
Píše přesně toto:- NVIDIA a její RTX není rozhodně nutné pro Ray tracing a velmi pravděpodobně to není ani z moha důvodů efektivní řešení- Samozřejmě NVIDIA dodává, že RTX karty stále budou pro dané úlohy výkonnější, což by bylo dobré, protože pokud by nebyly, neměly by nic, čím by se dala omluvit jejich cena a jejich prakticky stejný výkon jaký měla starší generace.Takže druhou větou úplně popřel to první tvrzení. Ale to je u něj normální.Mimochodem cloudové hraní v podání Nvidie bylo u něj naprostý fail, teď u googlu který prý použije AMD HW je to naprosto top. Takže asi tak.
Je to idiot.
K tomu cloudovému hraní - opravdu si někde troufne porovnávat Now a Stadia? To snad ne... 😃 Now jsem testoval tak 20 hodin, a fakt to byla mizerie - už jen třeba tím, že mnohokrát nenaběhla spouštěná hra, ale jen Steam, odkud hra nešla spustit, atp... Nehledě na žalostně málo serverů, a dost často snižování kvality streamu... Za to co jsem koukal, tak testeři "Project Stream" byly ve směs spokojeni, a vypadalo to i celkem použitelně (na poměry cloudového hraní). No a v neposlední řadě - Google bude poskytovat krom jiného, i prostor pro vývojáře, kteří budou moci využít sílu serverů k výpočtu například fyziky, atp... a to Now fakt nemělo...
Tehdá jsem zkoušel OnStream - defacto jediná služba kde šlo hrát Gran Turismo (Playstation) a krom prvního dne kdy byly přetížené servery nebyl problém. Pokud se nepletu tak to jelo přes Tesla servery. Pak to nějak Sony zařízlo díky změně licence, dnes je z toho Vortex.gg ale bez her na jiné platformě pro mě nemá význam
Prosimtě nějak to v tom to popření nevidím, můžeš to nějak ozřejmit?
Prosím Vás vždyť si Belka odporuje v drtivé většině toho co napíše. S příchodem RTX karet slepě papouškoval AMD, že RT nemá smysl protože karty na to nemají výkon. Když vyšel plugin pro realtime renderer pro AMD karty tak začal tvrdit, že RT AMD podporuje několik let (opět lež, plugin vyšel někdy v říjnu 2018). V tomhle článku čtenářovi podsouvá, že výkon Vega 56 je vlastně to samé jako 2080 Ti. Podobně tvrdil, že nikdo RTX karty nekupuje a teď na FB vehementně tvrdí, že všichni s 1080 přechází na 2080 (možná protože se objevila statistika). Jsem celkem přesvědčený že s příchodem Navi a nových konzolí, které mimojiné RT nebo podobné algoritmy mají podporovat bude tvrdit, že teď najednou je to vlastně malý zázrak jak je AMD nadčasové 😉
Ne, všechny efekty v tom demu pomocí ray tracingu fakt realizované nejsou. Naopak, těch efektů realizovaných pomocí ray tracingu je tam minimum. To je taky důvod, proč to běhá, jak to běhá. 😃
A stejně jsou kyselé...
No, pokud je to opravdu raytracing tak na množství efektů nezáleží. Pokud to není raytracing... tak to není raytracing.
Není to opravdu raytracing. Je to hybridní rendering, kombinace rasterizace a efektů počítaných pomocí ray tracingu (a ještě nejspíš řešeného jinak než u DXR a RTX)
čili jako BF5
Ano. Je to obdoba využití v BF5 a po stínech asi dost možná nejjednodušší aplikace. Ale RTX toho přes RT cores zvládá raytraceovat poněkud víc.
Což jaksi nevíme, zatím jsme to neviděli.
Dá se o tomto přístupu najít něco více? Nevím úplně co si pod tím představit a ani co přesně googlit.
Napřed bych mrknul na tohle https://www.gamedev.net/projects/380-real-time-hy... - je tam souhrn funkcí v kostce, future features už jsou reálně nasazeny právě v Q2 demu.Jak to funguje v Turingu je celkem dobře popsané na Toms hardware https://www.tomshardware.com/reviews/nvidia-turing-gpu... Na technickou věc kápnul nedávno i Souček (překvapil mě, že se to obešlo bez hejtu na nVidii) https://diit.cz/clanek/nvidia-prinasi-pod... Proto mimojiné je možné vykreslit "raytracing" na starších kartách bez brutálního dopadu na výkon ovšem za cenu snížení detailů a nutnosti optimalizace - jinými slovy hru v Cryenginu si ještě hodně dlouho nikdo nezahraje, ale až vyjde (horizont 2 let) tak nebude extra problém jí spustit i na Playstationu
"Asi největším posunem v oblasti počítačové grafiky za poslední rok je realistické nasvícení scény, které se jmenuje ray tracing."Ne, není. Je to akorát diskutované téma ohledně grafiky ve hrách. Počítačová grafika zná pojem Ray tracing už velmi dlouho a už dlouhou dobu ho hojně využívá.Demo - nevidím video, musel jsem najít youtube, což bylo stejně rychlejší, než to pouštět ve vašem přehrávači. Problém je, že nevíme kolik z toho je předpřipraveno a co je doopravdy počítáno. Sice se to zrcadlí jak bludiště na Petříně, ale světlo a stíny mi v některých záběrech příjdou trochu mimo. Uvidíme v reálném nasazení, jak dalece se budou lišit technologie a jejich výkony v herním nasazení.
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.