2016-11-10 20 views
0

私は隠れマルコフモデルにはかなり新しいです。私は理論のかなり基本的な部分に私の頭を包み込みようとしています。基本的な隠れマルコフモデル、ビテルビアルゴリズム

私はHMMをクラシファイアとして使いたいので、時系列のデータがあれば、私は2つのクラス、すなわち背景と信号を持っています。

各クラスの排出確率はどのように見積もられていますか?ビタビアルゴリズムは、prob(データ|状態)を推定するために背景と信号のテンプレートを必要としますか?または、私は完全にポイントを逃したのですか?

答えて

0

ビテルビでの分類を行うには、モデルパラメータを既に知っている必要があります。
背景と信号は、2つの非表示の状態です。モデルパラメータと観測データを使用して、Viterbiを使用して隠れ状態の最も可能性の高いシーケンスを計算します。

HMMは 観測可能なX変数の配列は隠れ状態があることされていない内部に隠され 状態のシーケンスZ.によって生成される生成的な確率モデル、次のとおりです。hmmlearn documentationを引用する

直接観測された。 隠れステート間の遷移は、 (1次)マルコフチェーンの形式を持つものとします。開始確率 の確率ベクトルπと遷移確率行列Aによって指定することができます。 の観測可能性の排出確率は、現在の非表示状態に調整された パラメータθを持つ任意の分布になります。 HMMは、π、A及びθによって完全に決定される であり、

である。

のHMMのための3つの基本的な問題がある:

Given the model parameters and observed data, estimate the optimal sequence of hidden states. 
Given the model parameters and observed data, calculate the likelihood of the data. 
Given just the observed data, estimate the model parameters. 

第一及び第二の問題は、それぞれ、ビタビアルゴリズムとして知られている動的 プログラミングアルゴリズムと 前後アルゴリズムによって解くことができます。最後のものは、 Baum-Welchアルゴリズムとして知られている反復期待 - 最大化(EM)アルゴリズム( )によって解決できます。

0

隠れマルコフモデルには、ノイズと信号という2つの状態があります。私たちはまた、私たちが観察する何かを持っていなければなりません。基本的には、信号とノイズはノイズですが、ノイズが混入した信号とノイズが混在しています。だから、だから我々は(遷移確率に基づいて)、決定的に、我々はそこに着いた最も可能性の高いルートをタイムスロット毎に各状態の確率を追跡し、

Probablity of 0,1 when in the "noise" state 
Probability of 0,1 when in the "signal" state 
Probability of transitioning to "signal" when in the "noise" state. 
Probability of transitioning to "noise" when in the "signal" state. 

を知っておく必要があります。次に、時系列の終わりに最も確からしい状態が実際の最終状態であり、逆方向にトレースすると仮定する。

関連する問題