2

私は、tic-tac-toeを再生できるニューラルネットワークを作成します。ネットワークには9つの入力ニューロンがあり、ボードの状態(ネットワーク移動の場合は1、相手の移動の場合は1.5、空のセルの場合は0)と出力ニューロンが9つあります(出力ニューロンの値が最高値の場合は、状態)。ネットワークには隠れ層がありません。活性化機能 - シグモイド。学習方法 - Q学習+バックプロパゲーション。tic-tac-toeのニューラルネットワーク

ネットワークは訓練されていますが、不十分です(占有されているセルのステップを続けます)。だから私は隠された層を追加することにしました。そして、私は質問したいと思います:

隠れ層の中で使用するニューロンの数と、どのような活性化関数が隠れ層と出力層に適していますか?

+1

私はあなたのプロジェクトが好きです。あなたがGithubに投稿すると、皆に利益をもたらすでしょう。残念ながら、私たちがこの質問にどのように答えているかははっきりしていません。あなたの質問は、機械学習の質問よりも、あなたが私にバグを持っているように聞こえます(占領されたセルに歩み寄る)。 – SmallChess

答えて

1

一般に、隠れ層に追加するニューロンの数は、hereで説明されていますが、経験則として、隠れ層のニューロンの数は入力ニューロンの数とほぼ同じでなければなりません。

あなたはまた、here

を議論隠された層の数を追加することを検討してシグモイド活性化関数は良好であり、とにかく、あなたはそれをチェックして、他の活性化関数に比較することができます。

具体的には、forceは、出力ニューロンに異なるアーキテクチャーを使用して占有セルを選択することを(全く)考慮しないことも考えられます。

+0

アドバイスありがとう!私はそれらを使用しようとします。 – John

関連する問題