2016-11-04 4 views
2

export.metaファイルが553.17 MBのテンソルフローセッションを作成しました。私はGoogleのMLにエクスポートグラフをロードしようとするたびに、それはエラーでクラッシュ:Google MLで大型モデルを作成できない

gcloud beta ml models versions create --origin=${TRAIN_PATH}/model/ --model=${MODEL_NAME} v1

ERROR: (gcloud.beta.ml.models.versions.create) Error Response: [3] Create Version failed.Error accessing the model location gs://experimentation-1323-ml/face/model/. Please make sure that service account [email protected]com has read access to the bucket and the objects.

グラフはVGG16の顔認識の静的なバージョンなので、exportダミー変数を除いて空であります一方、すべての「重み」は、export.metaの定数です。それは物事に影響を与えますか?これをどうデバッグするのですか?

答えて

4

アップデート(2017年11月18日)

サービスは、現在展開モデルは、チェックポイントファイルを持っていることを想定しています。いくつかのモデル、例えば始まりは変数を定数に折り畳んだので、チェックポイントファイルはありません。私たちはこのサービスのこの限界に取り組むつもりです。一方、回避策として、あなたはダミー変数を作成することができ、例えば、

import os 

output_dir = 'my/output/dir' 
dummy = tf.Variable([0]) 
saver = tf.train.Saver() 

with tf.Session() as sess: 
    sess.run(tf.initialize_all_variables()) 
    saver.save(sess, os.path.join(output_dir, 'export')) 

アップデート(2017年11月17日)

この記事の前のバージョンは、の根本的な原因と指摘トレーニングサービスがV2チェックポイントを生成していたが、予測サービスがそれらを消費できなかったという問題がありました。これは修正されました。したがって、V1チェックポイントを書き込むためにトレーニングを強制する必要はなくなりました。デフォルトでは、V2チェックポイントが書き込まれます。

もう一度お試しください。将来後世のために

前の回答

、以下のようにここに残して、まだいくつかのケースでは、一部のユーザーに適用される場合がありますオリジナルの答えであった:

エラーは、これが権限であることを示しています問題であり、モデルのサイズには関係しません。一般モデル(「実験-1323-ML」)は、デプロイするために使用しているのと同じプロジェクト内にあるを持ってバケツ限り、適切なアクセス許可を設定します

gcloud beta ml init-project 

getting started命令が実行をお勧めしますモデル(通常の状況)。

まだ問題が解決しない場合は、正しいアクセス許可を手動で設定するには、theseの手順に従う必要があります。

+0

私は同じ問題を抱えています。私のモデルは約90MBで、export.metaの定数として保存されています。バケットは同じプロジェクト内にあります。 2つの指示のどちらも役に立ちませんでした。どのようなアイデアが問題になるのでしょうか? –

+1

私はモデル関連の問題だと思います。私は別のモデル(無関係なもの、同じプロジェクト、同じバケット、別のフォルダ)を試してみると動作します。失敗しているのは、クラウドMLの要件に準拠するように調整された入出力を備えた開始モデルです。 –

+0

エラーメッセージは本当に間違いです。元の投稿を更新します。 – rhaertel80

関連する問題