Možná nerozumím spravně zkratkám ve větě: "...25 TFLOPS v SP (FP16) a 12,5 TFLOPS v DP (FP32)", ale FP16 je half precision a FP 32 je single precision, FP64 je potom duble precision. Pro neuronové sítě sice FP16 stačí (při dopředném běhu se dle mých zkušeností liší výsledek až od třetího desetinného místa), ale na některé algoritmy, a to i v oblasti strojového učení, je zapotřebí stále těch FP64.