neural-network

    0

    2答えて

    私はGPUmatを試しましたが、mathworksのニューラルネットワークツールボックスはそれをサポートしていません。それ以外の場合は、自分でnn-toolboxを変更する必要があります。しかし、それは私にとっては難しいことです。私のための任意の提案?

    2

    1答えて

    私はこのネットワークをテスト入力データ用にシミュレートするときにnewhop関数を使用してHopfiledネットワークを訓練しました。[y,Pf,Af] = sim(net,{1 repeatnum},{},{im1});正常に動作していますが、入力引数として反復回数例えば100反復。ネットワークは例えば5回目の反復で入力データに収束し、シミュレーションを続行する必要はありません。ネットワークの収

    0

    2答えて

    私は、バックプロパゲーションとフィードフォワードを使用して画像から認識数字を訓練するニューラルネットワークプログラムを作成しました。その作業はかなり良いです。私はちょうど私が何を保存するか分からないので、私はこの訓練されたニューラルネットワークをどのように保存するのか知りたいと思っていました。私の目的は、訓練するのに非常に時間がかかり(1000回の反復と多くのトレーニングセット)、その後私はそれを

    2

    2答えて

    Googleの予測APIは素晴らしいですし、テキスト分類も混在した分類もありますが、すべてのソフトウェアに使用するにはコストがかかります。 Googleの予測APIに似た機能を提供する.netの代替手段はありますか? にはテキスト分類が必要です。 注:人工知能、分類には初めてです。

    2

    1答えて

    私はthis questionを投稿しました。私のニューラルネットワーク(確率的勾配降下を使用してバックプロパゲーションを介してトレーニングしています)がローカルミニマムに詰まっているかどうか尋ねました。以下の論文は、XORニューラルネットワークにおける極小値の問題について述べている。最初の1つは、ローカルミニマムの問題はないとしているが、次の論文(1年後に書かれている)は、2-3-1 XORニュ

    4

    1答えて

    私は現在、ニューラルネットワークにNEAT(Neuroevolution of Topologies)メソドロジを実装しようとしているプロジェクトに取り組んでいます。これはすでに何度も何度もやり遂げられてきましたが、過去数年間にいくつかの言語で方法論の改訂版さえありましたので、私は現時点では新しいものを作りません。方法論の私の少しの "捻挫"は、分散実装を試みることです(MPIも可能ですが、Map

    1

    1答えて

    SilvaとAlmeidaのアルゴリズムは、各重みに対して個別の適応学習率を導入することで、既存のバックプロパゲーションアルゴリズムを改善します。次のように新しい学習率の値が計算されます:私は、定数uとdがu > 1とd < 1なるように設定されていることを読んで 。これらの制約はかなり広いので、これらの値を設定するための一般的なガイドラインはありますか、または私の具体的な問題の実験によってそれを

    0

    2答えて

    私はMATLABの初心者です.Cのオンラインバックプロパゲーション(BP)コードを確認したいのですが、コードが同じネットワーク設定で正確に同じかどうかをテストする必要があります。ネットワーク設定は、元のBP(XOR問題の場合)2入力、2隠れノード、1出力です。使用される学習率設定は0.01、運動量0.95であり、停止基準は0.01であり、性能指標はsseである。エポックが を(私は後方に伝播するよ

    8

    2答えて

    私はいくつかの簡単なNNトレーニングのためにPyBrainを使用しようとしています。どのようにすればよいかわからないのは、ファイルからトレーニングデータを読み込むことです。どこのウェブサイトでも説明されていません。私はフォーマットを気にしないので、今構築することができますが、行数を手動で追加するのではなく、ファイルで行う必要があります。何百行もあるからです。ここで

    7

    3答えて

    私はPyBrainチュートリアルClassification with Feed-Forward Neural Networksに従っています。私自身のクラシファイアを構築したいと思います。 _convertToOneOfManyが出力を変更する方法がわかりません。 なぜ初期操作alldata.addSample(input, [klass])はクラスごとに複数の出力ニューロンを作成するのですか?