deep-learning

    1

    2答えて

    私はこれを行うとります t = Variable(torch.randn(5)) t =t.cuda() print(t) をそれは毎回、5〜10 minituesかかります。 帯域幅をテストするためにcudaサンプルを使用しましたが、問題ありません。 次に、pdbを使って最も時間のかかるものを見つけました。 私は/anaconda3/lib/python3.6/site-packages

    0

    1答えて

    私は明らかに何かを理解していません(最初のケラス玩具) 私の入力x、y。 Xは1Dの実数値、yはスカラーです yが正か負かを予測したいと思います。 1つの方法は、1つのホットとして符号化し、categorical_cross_entropy(動作する)を使用し、もう1つは同じ(動作しません)を行うカストムロス関数です 私は8つの例を訓練しており、 。私のカスタム関数が0.56 で立ち往生ここでは、

    1

    1答えて

    私は、(500+)列間の相関が高いデータセットを持っています。私が理解しているところから(もし私が間違っていれば私を訂正してください)、ゼロ平均と1つの標準偏差で正規化する理由の1つは、与えられた学習率を持つオプティマイザが、 Xのスケールに学習率を採用するのではなく、問題を解決することができます。 同様に、なぜ私は自分のデータセットを「白くする」べきかという理由があります。それは画像処理の共通ス

    1

    2答えて

    この偉大な記事(http://machinethink.net/blog/coreml-custom-layers/)のおかげで、coremltoolsとLambdaを使ってKerasカスタムレイヤーを使って変換を書く方法を理解しました。 しかし、私は状況を理解することができません、2つのパラメータで機能します。 #python def scaling(x, scale): retur

    0

    1答えて

    テンソルフローを使用してスライディングウィンドウのコードを実行しています。 これはTheanoのためです。そのため、画像サイズの注文に誤りがあります。 誰も私にテンソルフローの修正方法を教えてもらえますか? エラー: とValueError:チェックエラー:予想INPUT_2する形状を有するように(なし、224、224、3)が、形状を持つ配列(1、3、224、224)を得た image=load_

    1

    1答えて

    私はcaffeフレームワークを使用するのがとても新しいです。私は画像上で動作するネットワークを持っています。入力として画像を取り込み、画像を出力します。 caffeには、出力イメージを保存するために含める必要があるレイヤがありますか? ありがとうございます。

    0

    2答えて

    と仮定 A = [[1,2,3],[4,5,6],[7,8,9]] B = [[1,2,1],[2,1,1],[1,1,2]] kernel_size = 2 * 2、ストライド= 1で畳み込む後、出力我々は、のすべての2×2部分 間の畳み込み演算を適用する必要が [[18,18],[28,37]] なければなりませんBの2 * 2部分ごとに。 テンソルフローを使用してこの操作を

    1

    1答えて

    でトレーニングを再開し、次のように私はkerasを使って簡単なLSTMモデルを構築し、訓練を受けた: model = Sequential() model.add(LSTM(activation='tanh',input_dim=6,output_dim=50,return_sequences=False)) model.add(Dense(output_dim=1,activation =

    0

    1答えて

    私は、同じネットワークで異なる入力画像(56x56x3,56x56x10,56x56x30,56x56x30,56x56x61)を入力しています。 1)ネットワークのパラメータの数は入力ごとに同じであることを知りたいですか? 2)各エポックの計算時間は、入力時のチャネル数を増やすことによってわずかに高くなりますが、それは正常ですか? UPDATE Parameter calculation for

    1

    1答えて

    私は、分類タスクで神経ネットワークを訓練しており、精度は高くはありませんが、学習しています。どのテストの例が自信がないのか把握しようとしているので、何が起きているのかについてさらに洞察を得ることができます。 これを行うために、私はTensorflowで標準softmax確率を使用することに決めました。これを行うには、私はtf.nn.softmax(logits)を呼び出し、ここで提供される確率を使