Nvidia: Končí éra grafických karet, přivítejte Fermi

Diskuze čtenářů k článku

01. 10. 2009 20:45

Výrobci procesorů za chvíli zkrachujou

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
02. 10. 2009 07:00

Ne. Viz Amdahluv zakon.

Souhlasím  |  Nesouhlasím  |  Odpovědět
21. 10. 2009 07:50

Co s nim?

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
21. 10. 2009 09:52

Prosta aplikace A. zakona. Zisk z paralelizace zavisi od ulohy. Na ulohy s velkym p (neparalelizovatelna cast) je CPU v soucasne podobe (out of order zpracovani instrukci, chytra cachova architektura...) podstatne vyhodnejsi nez cokoli odvozeneho od GPU. Nebavime se o tom, ze CPU zvladaji spolu s chipsetem kopec vychytavek, ktere se proste hodi. Trebas virtualizaci.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
01. 10. 2009 20:45

Ati má nové grafické karty ATI HD 5870 a 5850 s directx 11, Windows chystá Windows 7, Intel předvedl Core i5 a Core i7 - tak nechme Nvidii Nvidí, chápu že jsou z toho nervozní, že jsou mimo hru. Obrázky a vize mají hezký, ale...

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 17:33

kdyz vidim ide pro cuda tak se mi postesklo po ms-vs pro c++ :/, kdepak ty casi sou.

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 16:20

asi jsem lama, ale proc nechat flakat vicejadrove CPU a cpat zase vypocty na grafiky? Proc grafika nemuze byt na grafiku a jedno jadro cpu na fyziku a druhe na zbytek?

neni to jen proto, ze nvidia nezvlada souboj s amd a nechce preneset souboj do jine dimenze?

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 16:38

Protoze v nekterych aplikaci muze vykon graficke karty oproti klasickemu procesoru daleko zajimavejsi. Teda nevim jestli to, ze je tam napsano 512 Jader, lze priprovnat k klasickym jadrum na CPU, ale pokud je tomu tak, tak pokud by se prepsali nektere aplikace, tak tu muzeme mit velmi zajimavy skok vykonem dopredu....

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 16:42

Nikdo nerika, ze se ma flakat CPU. To ma nekolik malo velice vykonnych a komplexnich jader. Grafika disponuje mnoha relativne pomalymi a jednoduchymi "jadry", coz se hodi na jiste typy uloh. Je to celkem hezky videt na vypoctu FFT - konkretni hodnoty viz http://www.science.uwaterloo.ca/~hmerz/CUDA_benchFFT/...

Pro urcity pocet spektralnich car (podle vysledku testu na jmenovane strance 8192 a vice) zacne byt vyhodne hodit praci na GPU, protoze jeji sila je v masivni paralelizaci. Ale pro mensi pocty je lepsi to nechat na CPU. Zdaleka ne kazdy problem se hodi pro masivni paralelizaci, proto nehrozi, ze by se CPU flakalo.

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 21:12

Protoze procesory na to nemaj dostatecnej vykon. Ikdyz pouzijes treba Intel I9, ktere zvlada 6 jader (12 vlaken), tak to stejne bude slabsi nez kdyz bys pouzil kousek graficke karty. Ale i ty grafiky maji jista omezeni hlavne ve "velikosti" vypoctu co tam muzes provadet. Ale vyborne se hodi na velke mnozstvi jednoduchych vypoctu. A to je treba ta fyzika.

A co se tyce toho ze se jadra procesoru flakaji, tak to je hlavne zpusobeno programatory, kteri jsou lini pouzit vlakna. Snad kazda hra/vypocet jde paralelizovat, ale kdyz programatori se nechtej naucit asi tech 6 prikazu navic tak je to pak tezky. A jadra se holt flakaj.

Souhlasím  |  Nesouhlasím  |  Odpovědět
21. 10. 2009 07:49

Opravdu si myslis, ze umet programovat paralelne znamena, ze nekde vyrobis par vlaken?

Ono je totiz taky potreba, aby ta vlakna mela co delat, aby se pokud mozno vyuzila vsechna jadra rovnomerne a na plno, aby se navzajem neblokovala a necekala na sebe atd. A to rozhodne neni tak jednoduche. Navic rada uloh se resi paralelne dost blbe, takze oproti klasickemu sekvencnimu pristupu to ani nemusi prinest zadne znatelne zlepseni. Zajimalo by me, co si naprogramoval ty a jak efektivne by to vyuzilo treba 4jadro

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 11:29

Srovnávat AMD a Nvidii nelze.

Nvidii teče do bot s integrovanýma GPU na jednom čipu s CPU. Je vidět, že tento směr bere Nvidia velmi vážně. Nvidie začíná hledat i jinde než na poli grafik, nyní vstupuje na pole obecných akcelerátorů.

G300 není konkurencí 5000. Totiž, až poté co vypustí AMD 5000 řadu, začne Nvidie ještě vypouštět GPU na stávající G200. Takže proti AMD 5000 je určena Nvidie G200.

Ty obecné jednoptky vypadají zajímavě, ale aby to nebylo vfýrobně moc drahé.

A osobně si myslím, že i AMD na něčem takovém pracuje.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
01. 10. 2009 11:00

I když normálně takové ty technologické články moc nečtu, tak tohle jsem si přečetl opravdu s chutí. Musím poznamenat, že když jsem četl článek o Radeonech HD 5000, tak jsem byl docela zklamaný. Zvýšil se výkon a to o hodně, ale já si pořád říkal: sakra, k čemu to? Výkon ve hrách je většinou dostatečný u minulé generace, ale využít ho i jinak, to by bylo zajímavé. Vždyť zatím nedokážeme ani pořádně využít multi-core procesory, u nových Core přidává možnost přetaktovat jedno jádro na úkor ostatních, aby to aspoň k něčemu bylo, a v těch GPU toho výkonu dřímá... Myslím, že tohle je přesně ten směr, kterým to chce zapracovat.

Souhlasím  |  Nesouhlasím  |  Odpovědět
01. 10. 2009 11:38

Obecné akcelerátory, koprocesory jsou potřeba, jenom mám obavy aby vše nebylo programováno na Intelův Larrabee

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
01. 10. 2009 12:01

pokial vyvojari pouziju OpenCL, bude to uplne jedno. Vykona sa fallback pre architekturu, ktora je dostupna a najoptimalnejsia pre danu ulohu.

Souhlasím  |  Nesouhlasím  |  Odpovědět
avatar
01. 10. 2009 18:09

Ovšem OpenCL (a podobné technologie) má mnohá omezení a rozhodně nenahradí "normální" programování na úrovni vyšších programovacích jazyků a frameworků.

Ovšem pravděpodobně přijde doba, kdy se jako OpenCL budou umět chovat i .Net nebo Java VM. Už dnes umí GPU využít na některé operace .NET (WPF).

Souhlasím  |  Nesouhlasím  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor