5

私はScikitを使ってテキスト分類を学んでいます。私は(疎)文書用語行列のクラスに関する各属性の情報利得を計算したいと思います。 情報ゲインは、H(クラス) - H(クラス|属性)として定義されます。ここで、Hはエントロピーです。情報Scikit-learnで計算する

wekaを使用すると、これはInfoGainAttributeで実行できます。しかし、私はscikit-learnでこの方法を見つけられませんでした。

ただし、上記の情報ゲインの式は相互情報と同じ尺度であることがsuggestedです。これはwikipediaの定義にも一致します。

このタスクを達成するためにscikit-learnの相互情報に特定の設定を使用できますか?

答えて

5

あなたはここに

値として、ここで、この意志の出力はキーとその情報利得として、語彙の各属性の辞書、すなわち項目例

from sklearn.datasets import fetch_20newsgroups 
from sklearn.feature_selection import mutual_info_classif 
from sklearn.feature_extraction.text import CountVectorizer 

categories = ['talk.religion.misc', 
       'comp.graphics', 'sci.space'] 
newsgroups_train = fetch_20newsgroups(subset='train', 
             categories=categories) 

X, Y = newsgroups_train.data, newsgroups_train.target 
cv = CountVectorizer(max_df=0.95, min_df=2, 
            max_features=10000, 
            stop_words='english') 
X_vec = cv.fit_transform(X) 

res = dict(zip(cv.get_feature_names(), 
       mutual_info_classif(X_vec, Y, discrete_features=True) 
       )) 
print(res) 

あるscikit-学ぶのmutual_info_classif を使用することができます出力のサンプルです

{'bible': 0.072327479595571439, 
'christ': 0.057293733680219089, 
'christian': 0.12862867565281702, 
'christians': 0.068511328611810071, 
'file': 0.048056478042481157, 
'god': 0.12252523919766867, 
'gov': 0.053547274485785577, 
'graphics': 0.13044709565039875, 
'jesus': 0.09245436105573257, 
'launch': 0.059882179387444862, 
'moon': 0.064977781072557236, 
'morality': 0.050235104394123153, 
'nasa': 0.11146392824624819, 
'orbit': 0.087254803670582998, 
'people': 0.068118370234354936, 
'prb': 0.049176995204404481, 
'religion': 0.067695617096125316, 
'shuttle': 0.053440976618359261, 
'space': 0.20115901737978983, 
'thanks': 0.060202010019767334} 
関連する問題