3
正則化では通常、大きな重みにペナルティをかけるためにk * w^2を損失に追加することを理解しています。しかし、Kerasには、2つの正則化パラメータ、weight_regularizerとactivity_ regularizerがあります。違いはなんですか?Kerasではweight_regularizerとactivity_ regularizerの違い
正則化では通常、大きな重みにペナルティをかけるためにk * w^2を損失に追加することを理解しています。しかし、Kerasには、2つの正則化パラメータ、weight_regularizerとactivity_ regularizerがあります。違いはなんですか?Kerasではweight_regularizerとactivity_ regularizerの違い
中間層からの出力にはactivity_regularizer
が適用され、大きな出力が不利になります。
私は仕様で体重正当化を見つけることができませんが、カーネル正則化があります。カーネルはある種の重み付けされているので、同じことを前提としています。私は正しい? – Primoz