0
WindowsでPython 2.7を使用する。分類問題のために特徴T1
およびT2
を使用してロジスティック回帰モデルを適合させ、目標はT3
です。scikitで異なるフィーチャ次元を持つロジスティック回帰モデルlearn
T1
とT2
の値と私のコードを示します。問題は、T1
が次元5を持ち、T2
が次元1を持っているので、scikit-learnロジスティック回帰訓練によって正しく活用されるように、それらをどのように前処理するべきですか?
ところで、私は学習サンプル1の平均、T1
のその機能は[ 0 -1 -2 -3]
で、T2
の特徴は、学習サンプル2のために、[0]
で、T1のその機能は[ 1 0 -1 -2]
とT2
の特徴である[1]
で、...
import numpy as np
from sklearn import linear_model, datasets
arc = lambda r,c: r-c
T1 = np.array([[arc(r,c) for c in xrange(4)] for r in xrange(5)])
print T1
print type(T1)
T2 = np.array([[arc(r,c) for c in xrange(1)] for r in xrange(5)])
print T2
print type(T2)
T3 = np.array([0,0,1,1,1])
logreg = linear_model.LogisticRegression(C=1e5)
# we create an instance of Neighbours Classifier and fit the data.
# using T1 and T2 as features, and T3 as target
logreg.fit(T1+T2, T3)
T1、
[[ 0 -1 -2 -3]
[ 1 0 -1 -2]
[ 2 1 0 -1]
[ 3 2 1 0]
[ 4 3 2 1]]
T2、
[[0]
[1]
[2]
[3]
[4]]
ありがとうございました。連結後、ロジスティック回帰には、トレーニングサンプルごとに6つの機能があると思いますか? –
ところで、 'X_test'の目的は何ですか? –
@LinMaはい、そうです。連結後、6つの機能があります(T1の最初の5つの機能とT2の最後の機能)。 –