0
オンラインのリソースによると、sklearn.cross_validationモジュールの "train_test_split"関数はデータをランダムな状態で返します。静的でない "train_test_split"によるモデル評価?
同じデータでモデルを2回トレーニングすると、学習プロセスで使用されるトレーニングデータポイントがそれぞれ異なるため、2つの異なるモデルが得られますか?
実際に、この2つのモデルの精度は大きく異なる可能性がありますか?それは可能なシナリオですか?
再現性のある動作をしたいが、それでもなおランダム分割に基づいている場合(これはPRNGの基本的なパターンです)、シードを一定に設定できます。これをしないと、おそらく時間ベースのシーディングが使用され、結果は異なります。これらの違いには理論的な制限はありません。理論的には破局的である可能性があります(使用するクラシファイアに応じて)。 – sascha