2017-12-11 9 views
0

次のDataFrameがあるとします。ここで、A、B、C、Dは分類タスクのバイナリ結果です。 「1」は「仕上がり」に関連し、「0」は「仕上がっていない」に関連する。複数のバイナリ入力に基づく予測

A B C D True 
0 1 1 1 1 
1 0 0 0 0 
1 1 1 1 1 
1 1 1 1 1 
0 1 1 1 1 
0 0 0 0 0 
1 1 1 1 1 
0 1 0 0 1 
0 1 1 1 1 
1 1 1 1 1 
0 1 0 0 0 

私はそれがA, B, C, Dの値に依存True結果を予測する方法を可能だろう。

scikit learnで多変量ロジスティック回帰を適用しますか?

+0

本当にSOの質問 – SuperStew

+0

しかし、CrossValidaded? – Christopher

答えて

1

あなたはsklearn's LogisticRegressionを使用することができます。

from sklearn.linear_model import LogisticRegression 

endog = data.TRUE.values 
exog = data.drop('TRUE', axis=1).values 
model = LogisticRegression() 
model.fit(exog, endog) 

model.score(exog, endog) # mean accuracy 
# 0.90909090909090906 

model.predict(exog)  # your predicted values 
# array([1, 0, 1, 1, 1, 0, 1, 1, 1, 1, 1], dtype=int64) 

は、あなたが統計モデルを訓練して、すでにモデルを与えてきました(イン・サンプル)のデータに基づいて予測しようとしている。この例では覚えておいてください。 これは一般的には手の込んだ統計的練習とみなされますので、注意して進んでくださいまたはサンプル外のデータをテストしてください。

+1

私はあなたのコメントを完全に理解しています。私はまた、制限を参照して、しかし、査読者はそれを求めた。 – Christopher

+0

バイナリの予測ではなく、確率を得る方法はありますか? – Christopher

+0

はい@Christoperです。 http://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html#sklearn.linear_model.LogisticRegression.predict_proba –

関連する問題