2016-04-14 33 views
3

私は一般的にscikit-learとGMMを使い慣れていません...私はガウス混合モデルのフィッティング品質にいくつかの問題があります(scikit-learn) 。問題はsklearn.mixture.GMM(ガウス混合モデル)

データの配列はDATA HEREで、n = 2のコンポーネントを持つGMMに合わせたいと思うかもしれません。

ベンチマークとして、私はNormal fitをスーパーインポーズします。

エラー/おかしな:

  1. 設定n = 1つの成分、Iは
  2. 設定n = 2つの成分フィットGMM(1)通常のベンチマーク、ノーマルフィットGMMより優れていると回復することはできません(2 )フィット
  3. GMM(n)は常に同じフィット感を提供しているようだ...ここ

は私が得るものです:私はここで間違ってやっていますか? (画像にはGMM(2)のフィットが表示されます)。あなたの助けを前にありがとう。

enter image description here

以下のコード(同じフォルダにデータを保存し、それを実行するために)

from numpy import * 
import pandas as pd 
import matplotlib.pyplot as plt 
from datetime import datetime 
from collections import OrderedDict 
from scipy.stats import norm 
from sklearn.mixture import GMM 

# Upload the data: "epsi" (array of floats) 
file_xlsx = './db_X.xlsx' 
data = pd.read_excel(file_xlsx) 
epsi = data["epsi"].values; 
t_ = len(epsi); 

# Normal fit (for benchmark) 
epsi_grid = arange(min(epsi),max(epsi)+0.001,0.001); 

mu  = mean(epsi); 
sigma2 = var(epsi); 

normal = norm.pdf(epsi_grid, mu, sqrt(sigma2)); 

# TENTATIVE - Gaussian mixture fit 
gmm = GMM(n_components = 2); # fit quality doesn't improve if I set: covariance_type = 'full' 
gmm.fit(reshape(epsi,(t_,1))); 

gauss_mixt = exp(gmm.score(reshape(epsi_grid,(len(epsi_grid),1)))); 

# same result if I apply the definition of pdf of a Gaussian mixture: 
# pdf_mixture = w_1 * N(mu_1, sigma_1) + w_2 * N(mu_2, sigma_2) 
# as suggested in: 
# http://stackoverflow.com/questions/24878729/how-to-construct-and-plot-uni-variate-gaussian-mixture-using-its-parameters-in-p 
# 
#gauss_mixt = array([p * norm.pdf(epsi_grid, mu, sd) for mu, sd, p in zip(gmm.means_.flatten(), sqrt(gmm.covars_.flatten()), gmm.weights_)]); 
#gauss_mixt = sum(gauss_mixt, axis = 0); 


# Create a figure showing the comparison between the estimated distributions 

# setting the figure object 
fig = plt.figure(figsize = (10,8)) 
fig.set_facecolor('white') 
ax = plt.subplot(111) 

# colors 
red = [0.9, 0.3, 0.0]; 
grey = [0.9, 0.9, 0.9]; 
green = [0.2, 0.6, 0.3]; 

# x-axis limits 
q_inf = float(pd.DataFrame(epsi).quantile(0.0025)); 
q_sup = float(pd.DataFrame(epsi).quantile(0.9975)); 
ax.set_xlim([q_inf, q_sup]) 

# empirical pdf of data 
nb  = int(10*log(t_)); 
ax.hist(epsi, bins = nb, normed = True, color = grey, edgecolor = 'k', label = "Empirical"); 

# Normal fit 
ax.plot(epsi_grid, normal, color = green, lw = 1.0, label = "Normal fit"); 

# Gaussian Mixture fit 
ax.plot(epsi_grid, gauss_mixt, color = red, lw = 1.0, label = "GMM(2)"); 

# title 
ax.set_title("Issue: Normal fit out-performs the GMM fit?", size = 14) 

# legend 
ax.legend(loc='upper left'); 

plt.tight_layout() 
plt.show() 
+0

誰もが問題を再現することができますか?ありがとう –

答えて

2

問題は、単一のコンポーネントにバインドされたデフォルト1e-3であると意味されるmin_covarを、差異オーバーフィットを防止する。その制限を下げる

は、(写真参照)、問題を解決:

gmm = GMM(n_components = 2, min_covar = 1e-12)

enter image description here

関連する問題