Jak wiadomo niektóre gpu bardzo dobrze radzą sobie z przetwarzaniem 16bitowych floatów a inne... no marnie. I tutaj nasuwa się pytanie. Czy istnieje jakiś spis jak radzi sobie dane gpu z odpowiednim typem danych.
Najbardziej mnie interesuje wydajność w operacjach binarnych (and, or xor not przesunięcia itp) i czy nie traci się w takim wypadku mocy...
Ewentualnie jak ktoś ma dane to może się pochwalić coś ala
gtx 1070(ogólnie pascal):
float 1,
half 0.035, (1/32)
double 0.035,
int32 4
gdzie liczba przy typie danych to wydajność względem float