2016-11-09 8 views
-1

私は、TensorFlowの高レベルマシンラーニングAPI(tf.contrib.learn)を使用してTensorFlowモデルを構築しました。このモデルをLinux/Unixサービスとして実行する必要があります。または、モデルを実行可能ファイルとしてエクスポートします。これは可能ですか?もしそうなら、私はどうすればいいのですか?TensorFlowモデルをLinux/Unixサービスとして実行できますか?

何か助けていただければ幸いです。

答えて

0

ローカルコンピュータでtensorflow serverを実行してから、RPC経由で接続することをお勧めします。サービスコマンドは/etc/initdまたは/etc/systemdに設定できます。

+0

予測応答を300ミリ秒(理想的には100ミリ秒)以内に必要とするので、私のサーバーから訓練されたモデルを予測する必要があります。これは、別のサーバー(TensorFlowサーバー)上のモデルを呼び出すと、 。どのように達成することができますか? – Vasanti

+0

ローカルマシン上でも引き続きRPCを実行できます。それは10msを超えてはならない。それ以外の場合は、[C API](https://github.com/tensorflow/tensorflow/blob/master/tensorflow/c/c_api.h)を使用できます。 – drpng

+0

ローカルマシンから10秒以内にRPC呼び出しを行うにはどうすればよいですか?現在、私はTensorFlow Servingを設定し、訓練されたモデルをエクスポートしたUbuntuシステムを持っています。しかし、私が保存されたモデルの予測をしているとき、予測を行い、それをコンソールに表示するのに約2〜3分かかります。 – Vasanti

関連する問題