0

推奨システムの評価行列を分解すると、評価行列はP * t(Q)と書くことができ、Pはユーザ係数行列を表し、Qは項目係数行列を表す。 Qの次元は、アイテムのランク*数として書くことができます。私は、Q行列の値が実際にアイテムの重さなどの何かを表しているのだろうかと疑問に思っていますか?また、Q行列の隠れパターンを見つける方法はありますか?共用フィルタのユーザおよびアイテムマトリクスの潜在的特徴モデルの値はどのようなものですか?

答えて

0

フィーチャを多次元データの分散の重要な方向と考えてください。ユーザーが購入した3つのアイテムのうちのどれをプロットしているかを3次元のチャートで想像してみましょう。アモルファスの塊であるが、ブロブの実際の軸または方向はおそらくx、y、z軸に沿っていない。それが向きを変えるベクトルは、ベクトル形式の特徴です。これを巨大な次元のデータ(多くのユーザ、多くのアイテム)に適用すると、この高次元のデータは非常に頻繁に少数のベクトルにまたがる可能性があり、これらの新しい軸に沿わない分散は非常に小さく、したがって、ALSのようなアルゴリズムは、データのスパンの大部分を表すこれらの少数のベクトルを検出します。したがって、「フィーチャ」は、データ内の主要な分散モードと見なすことができます。つまり、あるアイテムが他のアイテムとどのように異なるかを記述するアーキタイプです。

推薦者のPQ分解は、データの潜在的に巨大な圧縮を達成するために重要でない特徴を削除することに依存することに注意してください。これらの重要ではないフィーチャ(ユーザ/アイテムの入力に非常に小さな差異を説明するフィーチャ)は、ノイズとして解釈されることが多く、実際には廃棄されてより良い結果が得られるため、削除することができます。

隠しパターンを見つけることはできますか。確かに。新しいより小さいが密集したアイテムベクトルとユーザベクトルは、クラスタリング、KNNなどの手法で扱うことができます。これらは、新しい基底ベクトル、新しい軸で定義される新しい「空間」内のベクトルに過ぎません。このような操作の結果を解釈する場合は、ユーザー空間の項目&に変換する必要があります。

ALS(PQ行列分解)の本質は、ユーザの特徴ベクトルをアイテム空間に変換し、アイテムの重みによってランク付けすることです。最高ランクのアイテムが推奨されます。

関連する問題