0
Soumith's benchmarkには、TorchのCUDNN [R4] -fp16ベンダーとCUDNN [R4] -fp32ベンチマークの両方があります。Torch - fp16を有効にするには?
Torchで浮動小数点16を有効にするにはどうすればよいですか?
私はthis oneのようなディスカッションが見つかりましたが、どうすればいいのか分かりません。
ありがとうございました!
Soumith's benchmarkには、TorchのCUDNN [R4] -fp16ベンダーとCUDNN [R4] -fp32ベンチマークの両方があります。Torch - fp16を有効にするには?
Torchで浮動小数点16を有効にするにはどうすればよいですか?
私はthis oneのようなディスカッションが見つかりましたが、どうすればいいのか分かりません。
ありがとうございました!
半精度を有効にする必要はないと思います。 cutorch.hasHalfがtrueの場合、これはうまくいくはずです。
require('cutorch')
a = torch.CudaHalfTensor(3)
b = torch.CudaHalfTensor(3)
print(torch.cmul(a,b))
もしそうでなければ、最新版に更新してみてください。
luarocks install cutorch