Vowpal Wabbitで一般最小二乗回帰を実行した人は誰ですか?私はそれが正確な解と同じ解を返すことを確認しようとしています。つまり、を最小化するために、を選択すると、||y - X a||_2 + ||Ra||_2
(Rは正則化です)という答えが得られます。 a = (X^T X + R^T R)^(-1) X^T y
このタイプの回帰を行うには、numpy pythonで約5行が必要です。Vowpal Wabbitでの普通最小二乗回帰
VWのドキュメンテーションは、これが(おそらく "二乗"ロス関数)できることを示唆していますが、これまでのところ、私はそれがPythonの結果に近づくことさえできませんでした。 Becuaseは、私は単にデフォルトの損失関数を呼び出すよさの二乗:
INPUT.TXTは1.4 | 0:3.4 1:-1.2 2:4.0 .... etc
のようなラインを持っている
$ vw-varinfo input.txt
私は呼んVWでのいくつかの他のパラメータが必要ですか?私は(むしろ最小限の)ドキュメントをgrokすることができません。
ここで何が問題なのか不明です。あなたは何を期待するかを説明する詳細情報を提供できますか? – Spaceghost
vwは、すべての例についてモデルの重み(OLSの係数)をわずかに更新するオンラインアルゴリズムであり、決して戻ったり来たりしないことを覚えておいてください。例の数がフィーチャの数よりはるかに多くない場合、特にバッチアルゴリズムに似たパフォーマンスを得たい場合は、コンバージェンスまで複数のパスを入力する必要があります(たとえば、 '-c --passes 100 ')。 – arielf
"--loss_function classic"は、バニラ最小二乗を与えます。 「 - 重要な機能の二乗」は、「オンライン重要度の重みの更新」(http://arxiv.org/abs/1011.1576参照)を持っているため、しばしばそれを上回ります。 –