lstm

    0

    1答えて

    「分類」と「回帰」のような部分を持つモデルがあります。乗算レイヤーを使ってそれらをマージします。乗算を行う前に、しきい値に基づいて分類部分の出力を0または1に設定する必要があります。私は以下のようにカスタム関数でラムダ層を使用しようとしましたが、私は様々なエラーに直面していますが、私はそれらのエラーについての手がかりがありません。私が行っているようにそれらを一つずつ解決することは、私の理解には足り

    0

    1答えて

    私はTensorflow tutorial for LSTMを複製しようとしており、reader.pyには、ptb_producerという機能があり、バッチを生成します。 このありますように:API pageで今 i = tf.train.range_input_producer(epoch_size, shuffle=False).dequeue() x = tf.strided_slice(

    3

    1答えて

    ボールの軌道が落ちることを予測したい。その軌道は放物線である。私は、LSTMがこれには多すぎるかもしれないことを知っています(つまり、単純な方法で十分です)。 私は2つのLSTMレイヤーと最後に密なレイヤーでこれを行うことができると思いました。 私が望む最終結果は、モデル3の高さh0、h1、h2を与え、h3を予測させることです。次に、h1、h2、h4を予測するために前に出力したh3などを与えたいと

    2

    1答えて

    私は入力として3次元の3つの異なる時系列を持ち、時系列は異なる長さを持つことができるRNN分類器を作ろうとしています。そこで、私は3つのRNNをモデル化し、それらを最終層に接続しました。どのようにすべきで、再利用はオプションではありませんので ValueError: Variable rnn/multi_rnn_cell/cell_0/basic_lstm_cell/kernel already

    0

    1答えて

    <!-- language:python--> import tensorflow as tf import numpy as np from tensorflow.python.ops import rnn, rnn_cell from tensorflow.contrib.data import Dataset, Iterator a = [[0.0,0.0,1.0,1.0,0.0

    1

    1答えて

    こんにちは、私は、LSTMを扱うときに、X、YとKerasのバッチ入力シェイプとの関係を把握していないようです。 現在のデータベースは84119,190パンダのデータフレームです。私はここから取り込んでいます.XとYに分かれていますので、機能は189です。あなたが私が間違っている場所を指摘できれば、 、寸法)それは評価されるだろう。 import numpy as np import panda

    0

    1答えて

    私はTensorflowバックエンドでKerasを使用して複数のシーケンスのシーケンス予測を一度に1ステップずつ行います。つまり、それぞれにm個のタイムステップを持つn個のシーケンスがあり、それらをすべて1つのmodel.predict()コマンドでKerasにロードし、モデルはn個の要素のそれぞれについて予測された次のステップに対応する 'n'シーケンス。 私の目標は、Kerasがシーケンス間の

    1

    2答えて

    同じ問題が発生しましたが、同じ修正を適用しようとしたときに別のエラーが発生しました。私はしかし、5 gpusを実行しています。私はあなたのサンプルがバッチ・セイブとgpusの数の両方で割り切れることを確認する必要があることを読んだが、私はそれを行った。私は数日間インターネットを磨き、私が持っている問題を解決できる何かを見つけることができません。 attributeTables [0](700 35

    1

    1答えて

    データセットCが50,000(バイナリ)の128のサンプルを持っています。クラスラベルは、1または-1のバイナリです。たとえば、サンプルは[1,0,0,0,1,0, .... , 0,1] [-1]のようになります。私の目標は、バイナリクラス(すなわち、1または-1)に基づいてサンプルを分類することです。私はRecurrent LSTMを使って分類のための良いモデルを生成しようと考えました。そうす

    0

    1答えて

    私はケラスに小さなニューラルネットワークを持っています。 contextTrain, contextTest, utteranceTrain, utteranceTest = train_test_split(context, utterance, test_size=0.1, random_state=1) model = Sequential() model.add(LSTM(input_