2013-09-24 29 views
17

ロジスティック回帰係数を返す方法を知り、予測確率を自分で生成できるようにする必要があります。Scikit Learn:ロジスティック回帰モデル係数:明確化

sigmoid(dot([val1, val2, offset], lr.coef_.T)) 

しかし:私は、私はこのような予測確率を返すことができるように、典型的なロジスティック回帰をたどるlr.coeff_値を想定していた

lr = LogisticRegression() 
lr.fit(training_data, binary_labels) 

# Generate probabities automatically 
predicted_probs = lr.predict_proba(binary_labels) 

私のコードは次のようになりますこれは適切な処方ではない。誰もScikit Learn LogisticRegressionから予測確率を生成するための適切なフォーマットを持っていますか? ありがとう!

答えて

15

はドキュメンテーション(http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html)を見て、オフセット係数はlr.coef_

coef_アレイ、形状決定に 機能の= [n_classes-1、n_features]係数記​​憶されていません関数。 coef_は、liblinearの内部メモリレイアウトに続くraw_coef_から導かれたreadonlyプロパティ です。 intercept_ array、shape = [n_classes-1]判定関数に を追加したインターセプト(a.k.a.バイアス)。パラメータ 代行受信がTrueに設定されている場合にのみ使用できます。

試してみてください。

sigmoid(dot([val1, val2], lr.coef_) + lr.intercept_) 
+0

#prgao、おかげで、しかし、あなたの答えは私だけの確率を生成しない方法について説明します。あなたはそれらを計算する方法を知っていますか?ありがとう。 – zbinsd

+2

sigmoid(ドット([val1、val2]、lr.coef_)+ lr.intercept_) – prgao

+1

#prgao、それはそれでした。ちょっと、これは 'sigmoid(dot([val1、val2、1]、lr.coef_.T))'を実行したと考えましたが、 ([val1、val2、1]、lr.coef_.T)+ lr.intercept_) 'である。これを指摘してくれてありがとう。 – zbinsd

関連する問題