0

私は多層ニューラルネットワークを構築しています。私は訓練プロセスに関する質問を持っている、私は希望の出力とトレーニングデータのセットを持っています。私は接続重みを更新するためにBackpropagationアルゴリズムを使用しています。多層ニューラルネットワーク - トレーニングプロセス

ネットワークトレイントレーニングデータは別途必要ですか? :ネットワークは、実際の出力が所望の出力に等しくなる適切な接続重みを見つけるたびに、1入力をとる。ネットワークは別のトレーニング入力を受けます。

これは間違いありませんか?

+0

質問が分かりません。 「訓練」とは何が関係しているのでしょうか?ネットワークは、すべてのトレーニングデータにわたって予測値と観測値の差を最小にするように重みを調整します。 –

+0

あなたは正しいですが、ネットワークがどのようにウェイトを調整するかについてはわかりません。ネットワークは時間内に(トレーニングデータから)1つの入力のみを取るか?それが適切な重みを見つけたら....それは別の入力を取るでしょうか? – Makaveli

+0

。 。それは概念的にどのように動作するのですか?情報を蓄積し、重みをあまり調整しない方法があります。 –

答えて

1

いいえ、実際の出力がターゲット出力と等しいかどうかに関係なく、バックプロパゲーションアルゴリズムはトレーニングセットの次の要素に移動する必要があります。 次に、特定の量のトレーニングケースが経過した後に、重み/パラメータを更新します。これは、指定したバッチサイズによって決まります。 そして、渡されたトレーニングの反復ごとに、平均合計エラーは、通常、以前の反復よりも低くなければなりません。

+0

ありがとう!これは私が探していたものです!エラー率は次のように計算できますか? 0.5 * [SUM(target-atcual)^ 2]? – Makaveli

+0

@Makaveliはい、バックプロパゲーションのために、エラー修正のためのエラーコスト関数を定義する必要があります。あなたが言及した "0.5 * [SUM(target-atcual)^ 2]"は、これは平均二乗誤差コスト関数と呼ばれる。さらに多くのことがありますが、最も一般的なケースではその特定のコスト関数で十分です。 –

+0

ありがとうございます!これは多くの助けになりました!テストプロセスのデータに出力がない場合、出力を予測するためにエラーレートをどのように使用できますか? – Makaveli

関連する問題