gradient-descent

    1

    1答えて

    私はAndrew Ngのマシン学習コースで宿題1をやっています。しかし、私は、多変数勾配降下をベクトル化するときに彼が何を話しているのか、私の理解に立ち往生しています。 次のように彼の式が提示される: シータ:=シータ - アルファ* fは1/mで作成されることになってはF *の和(H(XI)-yi)* iは西インデックス ここで、h(xi)-y(i)はtheta * xiとして書き直すことができ

    2

    1答えて

    完全に接続された2つの隠しレイヤーと1つの出力レイヤーを持つMLPを設計しました。 私は、バッチまたはミニバッチのグラジエント降下を使用すると良い学習曲線が得られます。 しかし、実行中の直線確率的勾配降下(紫) 私が間違って何を得るのですか?私はちょうど1本の列車を提供する場合、私の理解で は、私は、Tensorflowで確率的勾配降下法を行う/例にように、各列車のステップを、学ぶ:入力が10成分

    1

    1答えて

    線形回帰で勾配がどのように使用されるかについて、誰かに私に高水準を与えることはできますか?私はグラデーションが基本的に効率的にローカル最小値を見つけることを理解していますが、実際にデータへの回帰をどのように形成するのに役立ちますか?誰かが実際にデータポイントにラインが形成されるイベントの注文を私に与えることはできますか?私はポイントの勾配を計算する方法を理解していますが、それが実際にラインをより効

    0

    1答えて

    私は線形単層パーセプトロン(つまり、隠れ層なし、すべての入力をすべての出力に接続し、線形活性化関数)を構築しようとしています。デルタルールは、私は期待している結果を得ることはありません。私は損失関数として平均二乗誤差を使用していますが、はであるべきであり、単純にlearning_rate * error(* 2)の重み更新となりますが、何らかの形で結果が私の手動計算と大きく異なって見えます。私は何

    0

    1答えて

    私はポリシーのグラデーションを行っています。私は、タスクにとって最良の目的関数が何であるかを把握しようとしています。タスクは、エージェントが存続するタイムステップごとに1の報酬を受け取り、終了時に報酬を受け取るオープンai CartPole-v0環境です。私は目的関数をモデル化する最良の方法であることを理解しようとしています。私が介入し、終了時に負の値を返すために、報酬関数を変更しない限り、平均報

    1

    1答えて

    私は機械学習をPythonで勉強しています。 このコードはStandford Uivクラスからのものです。 私はこれらのコードを把握しようとしましたが失敗しました。 問題はloss_W = lambda W: self.loss(x,t)です。 それは本当ではありませんloss_W(1)またはloss_W(2)または何かが結果を変更できないのですか? 私はこれら2つのコードの結果が異なることを理解

    2

    1答えて

    let k = alpha * partial_derivative (J (theta1)) w.r.t theta1 theta1 := theta1 - kです。 アンドリューのコースでは、彼はアルファが学習率であると言いました。デリバティブが正の場合はalpha * kを引いて、負の場合はそれを加算します。なぜalpha * just the sign of derivativeではなくa

    0

    2答えて

    私は非常に素朴な勾配descentをPythonで実装しようとしています。しかし、それは無限ループになるようです。私はそれをデバッグするのを助けてくれますか? y = lambda x : x**2 dy_dx = lambda x : 2*x def gradient_descent(function,derivative,initial_guess): optimum = ini

    1

    1答えて

    私はPython関数をコーディングしますが、予測は事実と一致しません。予測する価格は負です。しかし、私はそれが間違っている場所を見つけることができません。デリバティブ[i]とウェイト[i]を計算すると、それは正しいのですか?助けてください。 def feature_derivative_ridge(errors, feature, weight, l2_penalty, feature_is_co

    0

    1答えて

    現在Andrew NGのMLコースを行っています。私の計算上の知識から、関数の一次微分テストは、ある場合には臨界点を与える。また、線形/ロジスティック回帰コスト関数の凸面性を考慮すると、グローバル/ローカル最適化が存在することを前提としている。そのような場合には、最小限のベビー・ステップをグローバル・ミニマムに達するという長い道のりを歩くのではなく、最初の派生テストを使用して、コスト関数Jを最小に