2016-11-11 17 views
1

テンソルフローから始めたばかりです。私は、作成したデータセットをうまく訓練することができました。ここで問題となるのは、このモデルを使って予測を行うにはどうすればいいのかということです。私はそれをRESTサービスとして作っていきたいと思っています。そこで私はいくつかの値を渡して予測として応答を得ることができます。役に立つリンクも大歓迎です。モデルは現在VM上にあります。テンソルフローを訓練したモデルをサービスとして使用する

感謝:)すべての

答えて

1

まず:あなたのモデルを保存し、ロードしてみてください:https://www.tensorflow.org/versions/r0.11/how_tos/variables/index.html

その後は、トレーニング後、あなたは簡単に呼び出すことができます。

rest_prediction = sess.run(prediction_tensor, feed_dict={x_tensor: user_input})

重要な違いがありますトレーニング中はbatch_sizeの入力がありますが、RESTサーバーがある場合は入力が1つです。テンソルの形状(https://www.tensorflow.org/versions/r0.11/resources/dims_types.html)は可変でなければなりません。これを達成する方法はここにあります:https://www.tensorflow.org/versions/r0.11/resources/faq.html#tensor-shapes

簡潔で簡単なコードスニペットを投稿すると、より良いお手伝いをすることができます。

+0

これは役に立ちます..しかし、私は私のコードで生成された.pbファイルをヒットする方法を使用して終了しました.. –

2

GCPでCloud MLを見たことがありますか?それはまさにあなたが探しているものかもしれません。
https://cloud.google.com/ml/

あなたのモデルのアーキテクチャにいくつかの調整が必要になる場合があります - 変数バッチサイズおよび追加入力/コレクションに出力するように - しかし、彼らはよくdocumentation.

場合は、パフォーマンス、スケーラビリティに説明されていますモデルを更新することを決定した場合、短いダウンタイムが問題になることはありません。テンソルフローを持つ単純なフラスコサーバーをインストールするだけでも問題はありません。

クラウドMLを使用したくない場合、大量のリクエストを処理する必要がある場合は、tensorflow servingを調べてください。

関連する問題