Zle som sa vyjadril. Predpokladal som idealny navrh a implementaciu riesenia, nie prakticku realizaciu neidelanym programatorom, tam mate pravdu. GPU su strasne na chylne na chyby v navrhu a implememntacii. Drobna nepresnost v narhu sposobi ovbele vacsiu degradaciu vykonu na GPU ako na CPU. Da sa to predstavit si tak, ako P4, ktora mala vysssi vykon ako Athlony, ale vysoku "missprediction penalty" , t,j, ked neodhadlo CPU spravne, co bude nasledujuci krok, tak sa vyrazne spomalilo. GPU ju maju ovela vacsiu "pokutu za zly odhad" a neodhaduju dynamicky ako CPU, ale staticky, podla archgitektury, t./j je iny odhad v GPU od AMD, iny v Inteloch a iny v GPU od nVidia
Názor byl 1× upraven, naposled 22. 04. 2014 12:05