スペクトルクラスタリングにおける固有値と固有ベクトルは、物理的にどういう意味を持ちますか?私はそれがλ_0 = λ_1 = 0
なら、我々は2つの接続されたコンポーネントを持っていることがわかります。しかし、λ_2,...,λ_k
は何を教えてくれるのですか?私は多重度による代数的接続を理解していません。スペクトルクラスタリング固有ベクトルと固有値
グラフのタイトネスについて、または2つのグラフと比較して、どのような結論を導くことができますか?
スペクトルクラスタリングにおける固有値と固有ベクトルは、物理的にどういう意味を持ちますか?私はそれがλ_0 = λ_1 = 0
なら、我々は2つの接続されたコンポーネントを持っていることがわかります。しかし、λ_2,...,λ_k
は何を教えてくれるのですか?私は多重度による代数的接続を理解していません。スペクトルクラスタリング固有ベクトルと固有値
グラフのタイトネスについて、または2つのグラフと比較して、どのような結論を導くことができますか?
固有値が小さいほど接続が少なくなります。 0は単に "切断"を意味します。
これは、別々のコンポーネントを作成するためにカットする必要があるエッジのシェアの値です。カットは固有ベクトルに対して直交しています - tより下のノードが1つのコンポーネントに、tより上のものが他のコンポーネントに入るような、ある種のしきい値tがあります。
これはアルゴリズムによって多少異なります。いくつかのスペクトルアルゴリズムに対して、固有値は、主成分分析を通じて容易に実行され、人間の消費のための表示次元を減少させることができる。パワー反復クラスタリングベクトルは、解釈がより困難です。
Robotoがすでに述べたように、固有ベクトルは分割枝(ガウス型カーネル変換後の平面)に垂直です。スペクトルクラスタリング手法は、一般に密度に敏感ではありません(つまり、「緊張」とは何ですか?)それ自体では、データギャップが見つかります。たとえば、最初のクラスタを構成する単位球内に50または500ノードがあるかどうかは関係ありません。ゲームのチェンジャーは、別のクラスターにつながる「パン粉」ポイント(小さなギャップのシーケンス)の薄いトレイルの代わりに、明確なスペース(すばらしいギャップ)があるかどうかです。