2016-06-24 4 views
0

Soumith's benchmarkには、TorchのCUDNN [R4] -fp16ベンダーとCUDNN [R4] -fp32ベンチマークの両方があります。Torch - fp16を有効にするには?

Torchで浮動小数点16を有効にするにはどうすればよいですか?

私はthis oneのようなディスカッションが見つかりましたが、どうすればいいのか分かりません。

ありがとうございました!

答えて

0

半精度を有効にする必要はないと思います。 cutorch.hasHalfがtrueの場合、これはうまくいくはずです。

require('cutorch') 
a = torch.CudaHalfTensor(3) 
b = torch.CudaHalfTensor(3) 
print(torch.cmul(a,b)) 

もしそうでなければ、最新版に更新してみてください。

luarocks install cutorch 
関連する問題