-2
import sklearn 
import numpy 
from sklearn.svm import SVC 
f=open ('svm_data','r') 
X=[] 
y=[] 
for line in f: 
comps=line.strip().split('\t') 
x=[float(comps[0]),float(comps[1])] 
Y=float(comps[2]) 
X.append(x) 
y.append(y) 
X=numpy.asarray(X) 
Y=numpy.asarray(Y) 

多くのサポートベクトルは、あなたが何を訓練していない実装サポートベクトル

+0

あなたは[ドキュメント](http://scikit-learn.org/stable/modules/generated/sklearn.svm.SVC.html)を読みましたか?それは 'sklearn'がサポートしているか、それともツールを持っていますか? – wwii

+1

コード内のインデントを訂正してください。 – wwii

答えて

2

与えられたデータに3つのカーネルそれぞれRBF、線形および次の多項式を使用して得られたこのproblem.Howでサポートectorsを見つける方法あなたのコードでは、サポートベクトルの数と性質はデータとパラメータによって異なります。

あなたの分類器/回帰を訓練している場合、あなたがそれらを得ることができます:docsに概説されているよう

sv = clf.support_vectors_ 

形状の配列[n_SV, n_features]です。ドキュメントから

コンプリート例:

import numpy as np 
X = np.array([[-1, -1], [-2, -1], [1, 1], [2, 1]]) 
y = np.array([1, 1, 2, 2]) 
from sklearn.svm import SVC 
clf = SVC() 
clf.fit(X, y) 

print(clf.support_vectors_) 
+0

おそらく 'clf.n_support_'を追加する価値がありますか?これは文字通りサポートベクターの数を(クラスごとに)保持していますか? – lejlot