2012-05-25 3 views

答えて

20

例として説明すると、自然言語処理の例を使用します。あなたはこの文の確率を知りたい想像:私たちがしたかった想像、

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

を今:私はマルコフモデルではコーヒー

を楽しむ

、あなたは計算することによって、その確率を推定できこの文の品詞タグを知っている、すなわち、単語が過去の動詞、名詞などである場合は、

を見てください spその文にeechタグがありますが、と仮定しています。したがって、品詞タグシーケンスの確率は何であるかを計算する。私たちのケースでは、実際の配列は、次のとおりです。

PRP-VBP-NN

しかし、待って!これはマルコフモデルを適用できるシーケンスです。しかし、品詞シーケンスは決して直接観察されないので、それを隠している。もちろん、実際には、このようなシーケンスを数多く計算し、私たちの観察を最もよく説明する隠れたシーケンスを見つけたいと思います(例えば、 'the'、 'this' DET)タグ)

私が今まで出会った最高の説明はローレンスR. Rabinerによって1989年から紙である:http://www.cs.ubc.ca/~murphyk/Bayes/rabiner.pdf

3

隠れマルコフモデルは、2つのレベルを持つ二重埋め込み確率過程です。

上位レベルはマルコフプロセスであり、状態は観測できません。

実際、観測は、上位レベルのマルコフ状態の確率関数である。

異なるマルコフ状態は、異なる観測確率関数を有することになる。

+10

この回答の内容は引用符で囲み、Rabinerのチュートリアルを参照してください。 – Rhubarb

+0

これは本当に理解しにくいです。 – goelakash

+0

明確な答えはありません。まったく。 – Ron

19

マルコフモデルはステートマシンであり、状態の変化は確率である。隠れマルコフモデルでは、確率を知ることはできませんが、結果を知ることができます。

たとえば、コインを裏返すと確率は上がりますが、フリップが見えず、コインフリップで5人の指のうちの1人が移動した場合は、指を動かして隠れマルコフモデルは、コインフリップの最高の推測を得るために。

3

マットは、HMMの一例として、品詞タグを使用しているので、私は1つを追加することができます例:音声認識。ほとんどすべての大語彙連続音声認識(LVCSR)システムは、HMMに基づいています。

"Mattの例":

、隠れマルコフモデルで

P(WORD = I) x P(WORD = enjoy | PREVIOUS_WORD = I) x P(word = coffee| PREVIOUS_WORD = enjoy) 

を: 私はあなたが計算することにより、その確率を見積もることができ、マルコフモデルではコーヒー

を楽しみます

30人の異なる人が文章を読むとします。「私抱き合わせを楽しむ "と私たちはそれを認識しなければなりません。 すべての人がこの文章を違う言葉で発音します。だから、私たちは、人が "抱擁"や "ホギング"を意味するかどうかは分かりません。私たちは実際の言葉の確率的分布のみを持っています。要するに、隠れマルコフモデルは、モデル化されるシステムが観察されない(隠れた)状態のマルコフプロセスであると仮定される統計的マルコフモデルである。

関連する問題