2017-02-23 3 views
1

2-GPUマシンで微調整されたInception v3を持っています。 は今、私は1つのGPUで別のマシン上で訓練されたモデルを実行しようとしていますが、私はこのようなエラーを得た:デプロイ時のGPU数を変更する

「tower_1 /グラデーション/ tower_1/conv0/BatchNorm /瞬間をノードAにデバイスを割り当てることができません/ enough_statistics/Sub_grad/BroadcastGradientArgs ':明示的なデバイス仕様'/device:GPU:1 'を満たすことができませんでした。使用可能なデバイス:/仕事:localhostの/レプリカ:0 /タスク:0/CPU:0、/仕事:localhostの/レプリカ:0 /タスク:0/GPU:モデルが2を望んでいることを0

ですそれが訓練されたもののような-GPU環境。このモデルを1 GPUしか使用しないように変換できますか?

答えて

0

2つのことを変更して機能しました。

  1. セッションでallow_soft_placementオプションをオンに:model.ckpt-50000

model.ckpt-50000.data-00000-of-00001から

config = tf.ConfigProto(allow_soft_placement=True) 
sess = tf.Session(config=config) 
  • 名前の変更モデルのファイル名に

  • 関連する問題