deep-learning

    1

    1答えて

    私は次の論文を読んでいます。また、変数にEMA減衰を使用します。 https://arxiv.org/pdf/1611.01603.pdf はトレーニング中、モデルのすべての重みの移動平均は0.999の指数関数的な減衰率を維持 です。 これらはTensorFlowを使用しており、EMAの関連コードが見つかりました。 https://github.com/allenai/bi-att-flow/bl

    -2

    1答えて

    私は画像分類器を構築していますが、私は66クラスと画像を50000と私のPCのRAMは12ギガバイトです私のRAMは画像のトレーニングには不十分です私の質問は画像の解像度はモデルの精度に影響します私は畳み込みニューラルネットワークを使用しています。

    0

    1答えて

    私はGANチュートリアルを行っていますが、私は '再利用'フラグを使用していることに気付きました。下のコードを見ると、可変範囲の初期化でreuseが使用されていることがわかります。 (私はドキュメントを見ているが、まだ明確ではない試してみました: https://www.tensorflow.org/versions/r0.12/how_tos/variable_scope/) def discr

    -1

    1答えて

    私は約20時間、7つの学習可能なレイヤーを持つ畳み込みネットワークを訓練してきました。ネットワークが収束しているか、まだトレーニングが必要かどうかを判断する一般的な方法は何ですか?ここで は、最初の畳み込み層のパラメータのヒストグラムです: はここでトレーニングとテストセットの損失と精度のグラフです:明らか

    1

    1答えて

    線形回帰のためのテンソルフロープログラムです。私は最適化(最小化)損失関数のためにGradient Descentアルゴリズムを使用しています。しかし、プログラムを実行している間、損失関数の価値は増加しています。私のプログラムと出力は以下の通りです。私のプログラムのための import tensorflow as tf W = tf.Variable([.3],dtype=tf.floa

    0

    1答えて

    私のデータセットは以下のとおりです。意味がありません。 。ホットエンコードされたターゲット配列[0,1]、[1,0]を使用していくつかの結果を得ました(テストセットで〜83%の精度に達する)。これは私がターゲット配列をバイナリ形式[0]または1に変更し、categorical_crossentropyをバイナリクロスエントロピーに変更したことがどれほど愚かであるかを認識しています。 このアプローチ

    0

    2答えて

    私はトレーニング中にテンソルが のAudioset2017データセットのResNet50を訓練しています。結果を検証すると、私の損失関数は変動しますが、全体の傾向は低下していますが、私はこれを恐れています。 バッチサイズ= 100の100エポックで実行しました。 となり、学習率が低下して増加しましたが、効果はありませんでした。 私の訓練は正しいですか、このネットワークを使用できますか、それとも間違

    1

    1答えて

    私は178要素のデータセットを持っており、それぞれに13個のフィーチャと1個のラベルが含まれています。 ラベルはワンホットアレイとして保存されます。私の訓練データセットは158要素で構成されています。ここで は私のモデルは次のようになります。 x = tf.placeholder(tf.float32, [None,training_data.shape[1]]) y_ = tf.placeho

    0

    1答えて

    私は非常に不均衡なデータセットを持っており、model.fit_generatorでclass_weight = 'auto'を使用したいと思います。しかし、私がそれを行うと、私のモデルは学習しません:training_acc = 0.65、val_acc = 0.64(エポック1から50まで) class_weight = 'None'に設定すると、training_acc = 0.92となり、

    0

    1答えて

    のすべての出力でのクロスエントロピーを計算します。 しかし、LSTMのすべての出力でクロスエントロピーを計算する方法はわかりません。 私のプログラムの一部です。 cell_fw = tf.nn.rnn_cell.LSTMCell(num_hidden) cell_bw = tf.nn.rnn_cell.LSTMCell(num_hidden) outputs, _ = tf.nn.bidire