0

最近Dimension Reductionメソッドを研究していて、pythonパッケージ "sklearn.feature_selection"が非常に便利だとわかりましたが、問題はSelectPercentile.fitメソッドがスコア関数の計算方法を説明していないことです。それがどのように動作するかSelectPercentileスコア関数はどのように機能しますか?

link

は誰でも知っていますか?ありがとうございました。

たとえば、「SelectPercentile」に「SelectFdr」を選択し、SelectFdrメソッドの基準は各フィーチャの各p値に依存します。どのように "SelectFdr"が仮説を設定するか、またはエラー率を定義する方法を知っていますか?

サブスクリプションが「推定偽発見率に基づいて機能を選択する」SelectFdrメソッド。だから、最初にいくつかの分類方法を使用している必要がありますので、誤検出率を計算することができます。私の問題は、どの分類方法が "SelectPercentile"にあるかです。

+0

私はユーザーがコンストラクタで独自のスコア関数を提供できると思います。デフォルトの関数は[f_classif](http://scikit-learn.org/stable/modules/generated/sklearn.feature_selection.f_classif.html#sklearn.feature_selection.f_classif)です。 –

答えて

0

あなたはリンクの下でソースコードのコメントを見ることができます: https://github.com/scikit-learn/scikit-learn/blob/ef5cb84a/sklearn/feature_selection/univariate_selection.py#L368

あなたは、パラメータとしてスコア関数を選択することができます。関数を決定しない場合、デフォルト関数はANOVAです。

+0

たとえば、 "SelectPercentile"に "SelectFdr"を選択した場合、SelectFdrメソッドの基準は各フィーチャの各p値に依存します。どのように "SelectFdr"が仮説を設定するか、またはエラー率を定義する方法を知っていますか? –

+0

私はそれをありがとう! –

+0

@MarcusLinこの場合、selectFdrはBenjamini-Hochbergプロシージャを使用します。このライブラリのソースコードでは、各メソッドには何をすべきかというコメントがあります。 –

関連する問題