keras

    11

    3答えて

    Kerasを初めて使用していて、データセットでバイナリMLPを実行しようとしていて、理由が分からないインデックスを取得し続けています。 from keras.models import Sequential from keras.layers.core import Dense, Dropout, Activation from keras.optimizers import SGD mo

    12

    4答えて

    次のコードからinput_shapeエラーが発生し続けます。 from keras.models import Sequential from keras.layers.core import Dense, Activation, Dropout from keras.layers.recurrent import LSTM def _load_data(data): """

    1

    1答えて

    examplekaggle_otto_nn.pyはKerasで、バックエンドはtheanoです。次のプリントアウトで 、5行目は、何かが言う: CNMeMは初期サイズで有効になっている:私は疑問に思って 、CuDNN利用できないメモリの90.0%、このCuDNN not availableを行います問題はGPUデバイスが検出可能なためですか?自分のプログラムをGPUで正しく実行していますか?それと

    9

    2答えて

    ニューラルネットワークとKerasライブラリの新機能です。hereの埋め込みレイヤーを使用して入力データをマスクする方法が不思議ですRNNの場合、2Dテンソルから3Dテンソルに変換されます。 (増加時に)次のようにデータを見て、私の時系列セイ:今すぐ X_train = [ [1.0,2.0,3.0,4.0], [2.0,5.0,6.0,7.0], [3.0,8.0,

    0

    1答えて

    kerasがオプティマイザを再実装したことがわかります。私はkerasでは利用できませんが、バックエンドで利用できるオプティマイザを使用したいと思います。 tensorflowから: tf.train.FtrlOptimizer あなたは私が、やってフレームワークをハックする、バックエンドからのオプティマイザを使用できるようにする必要がありますどのようないくつかの箇条書きで私を案内していただけ

    0

    1答えて

    私はstackoverflowの同様の問題に対する他の答えをいくつか読んだことがありますが、この場合は何も助けにはなりません。私は539のRGB画像、寸法607×607×3のセットを有し、各画像は6つのクラスのうちの1つである。私はMNISTとCIFAR10のデータセットで成功しましたが、このデータセットのCNNを作成すると、同じクラスをすべて予測することによって、トレーニングが一定のままであると

    1

    1答えて

    モデルクラスのfitメソッドを呼び出すときにvalidation_splitパラメータを指定すると、すべてのエポックで同じ検証データが使用されますか?あるいは、各エポックごとに検証データが変更されますか?

    8

    2答えて

    私は、LSTMベースの音声認識装置を実装しようとしています。これまでのところ、Mergeレイヤーの例に従って、双方向LSTMを設定することができました(私は双方向LSTMとして動作していると思います)。今私は深い双方向LSTMにする別の双方向LSTM層でそれを試してみたい。しかし、以前にマージされた2つのレイヤの出力を、LSTMレイヤの第2のセットにどのように接続するかを理解することはできません。

    1

    1答えて

    私は以前のバージョンのケラでうまく機能したスクリプトを持っています。ディストリビューション0.3.2でスクリプトを実行すると、すべてのエラーメッセージが表示されます。以下は、スクリプトのいくつかの行を見つけます: model = Sequential() model.add(Dropout(self.dropx[0])) model.add(Dense(nb_features, self.nb

    6

    3答えて

    私はケラスを使ってディープネッツに取り組んでいます。活性化の「ハード・シグモイド」があります。その数学的定義は何ですか? 私はシグモイドが何であるか知っています。誰かがQuoraについて同様の質問をしました:https://www.quora.com/What-is-hard-sigmoid-in-artificial-neural-networks-Why-is-it-faster-than-s