2016-07-01 4 views
0

Webサービスを展開する際に、Azure ML Webサービスを例として作成しましたが、不明なエラーに直面しています。エラーは説明なしで出てくるので、トレースするのは難しいです。Azure Machine Learning Webサービス入力データの問題

スタジオ内で実験を実行すると、問題なく実験が実行されていました。ただし、Webサービスにデプロイすると、スタジオと同じ入力でテスト機能が失敗しました。

サービスのサンプルを公開して、問題の内容を誰かが確認できるかどうかを確認しました。

https://gallery.cortanaintelligence.com/Experiment/mywebservice-1

サービスに関するいくつかの情報:

サービスがなSVMLight形式の疎な特徴ベクトルを表す文字列として入力を取ります。入力された特徴ベクトルの予測クラスを返します。スタジオ内の実験が問題なく実行されている間に、デプロイされたサービスからテスト関数を実行すると、エラーが失敗します。

どのように間違っていたか考えている人はいませんか?

答えて

0

テストダイアログを使用するということは、リアルタイムAPIであるリクエスト/レスポンスサービスを使用していることを意味します。これは要求を完了するための最大時間としてhttpタイムアウトを持っています。特徴ベクトルが長すぎるので、要求はタイムアウトしている。

https://azure.microsoft.com/en-us/documentation/articles/machine-learning-consume-web-services/#batch-execution-service-bes

+0

以下に説明するように、あなたはただ、現時点ではリクエスト - レスポンス・サービスに注力したいバッチ実行サービスを使用してみてくださいすることができます。 私はPythonノートブックで同じ入力を使ってPythonモデルをテストしましたが、それはマイクロ秒で速く実行されます。私は –

+0

ここに2つの問題があります、私はそれが紺碧からのものかどうかわかりません? 1.デスクトップPythonノートブックでPythonのモデルを実行しましたが、マイクロ秒で実行されますが、Azure ML Studioで実行すると、そのモジュールの時間はわずかです。 2. webserviceの入力データはsvmlight形式の文字列です文字列の長さは非常に小さいことがあります。私は1つの機能だけでテストしましたが、問題はまだ起こっています。入力データから問題が発生した場合、なぜスタジオ内で実行されているのですか。 –

+0

{ "タイプ": "InvokeModuleEndEvent"、 "moduleNameの": "のPythonスクリプトRRSを実行"、 "エラー": "実行は、内部エラーが発生しました"}、 { "タイプ": "RequestSummary"、 "ステータス ":"失敗 "、 "エラー ":"モデルが割り当てられたメモリ割り当てを超えていました。 "} –

関連する問題