Harlan: nový programovací jazyk umí využít výkonu grafiky

Můj názor  |  zobrazit i odpovědi (trvale)  |  řadit od nejstarších Komentáře nyní řadíme od nejnovějších.
Tímto odkazem můžete řazení změnit.
 |  nových názorů: 20

Názory k článku

avatar
10. 07. 2013 21:04

Lisp style? Kdo se má v těch závorkách vyznat. Ale jinak se v dnešní době začaly poměrně slibně vyvíjet funkcionální jazyky jako F# a dokonce i C# si bere některé věci z funkcionálního programování. Super na to je, že jelikož jsou tyto jazyky často založené na nějakém matematickém modelu nebo formalismu, tak s nimi dají dělat spí kusy a urychlovat výpočet.

Souhlasím  |  Nesouhlasím  |  Odpovědi (3)Zavřít odpovědi  |  Odpovědět
avatar
10. 07. 2013 14:35

To brzo.

Souhlasím  |  Nesouhlasím  |  Odpovědět
10. 07. 2013 12:48

btw, v tom lispu máte trochu zmatek - Lisp je souhrnné označení pro rodinu jazyků, Scheme, Common Lisp, Clojure a jiné jsou některé z těchto jazyků; využití je víceméně obecné, většina Implementací Scheme se hodí spíš pro zabudování do větších aplikací (i když třeba Racket je dobře obecně použitelný)každopádně to vypadá zajímavě, funkcionálním programováním se zabývám a Scheme je jeden z mých oblíbených jazyků

Souhlasím  |  Nesouhlasím  |  Odpovědět
10. 07. 2013 12:16

Lisp jsem se učil před lety na škole a doufal jsem, že ho už nikdy neuvidím...
Jinak GPU lze programovat mnohem pohodlněji i jiným, člověku bližším, způsobem.

Souhlasím  |  Nesouhlasím  |  Odpovědi (2)Zavřít odpovědi  |  Odpovědět
10. 07. 2013 11:16

Keby mi mohol niekto vysvetliť: je možné zaroven aby GPU spracovávala obraz pre monitor (a žiadne preblikávanie a lagy a pod) a zároven (akosi pomimo) spracovávala dalšie úlohy?A pokiaľ tomu rozumiem tak toto sa hodí do programov kde je potrebné veľa threadov zároven. Napríklad spracuvávaš obrázok a každý pixel sa spracuváva osobitne (a nezávisle od susediacich pixelov) - potom si viem predstaviť že program povie: "teraz urob 5 milionov threadov v GPU a ja počkám kým všetky dobehnú".

Souhlasím  |  Nesouhlasím  |  Odpovědi (1)Zavřít odpovědi  |  Odpovědět
10. 07. 2013 10:44

Vyjadreni "Již delší dobu je grafický čip (GPU) nejvýkonnější součástí počítače." je nepravdive. GPU je akcelerator, ktery umi rychle zpracovavat urcite operace a v nich je relativne vykonny, diky urcite univerzalnosti je ale oproti specializovanym cipum vylozene snek. CPU je jeste univerzalnejsi proto je zpracovani stejnych operaci na CPU jeste pomalejsi nez na GPU. Pokud je neco potreba zpracovavat rychle a je to obecne vyuzitelne delaji se na to specializovane obvody, viz akcelerace H264, sifrovani atd ... .Skutecny pokrok v vyuzivani GPU pro vypocty by byl kdyby slo v beznych programovacich jazycich rict, tahle cast kodu se muze zpracovat na GPU.

Souhlasím  |  Nesouhlasím  |  Odpovědi (1)Zavřít odpovědi  |  Odpovědět
avatar
10. 07. 2013 10:35

Raději bych uvítal jazyk, který bude mít takovou sílu, že porazí humusoidní Javascript všude tam kde má JS zaseknutý drápek.

Souhlasím  |  Nesouhlasím  |  Odpovědi (6)Zavřít odpovědi  |  Odpovědět
Zasílat názory e-mailem: Zasílat názory Můj názor