Mahoutの0.13.0/javaの8Mahoutの上の勧告がスパーク書き方
私はMahoutの中に完全に新しいですし、Mahoutのを使用してリコメンデーション・エンジンを実装する方法を理解しようとしています。
- 協調フィルタリング(非Hadoopのもと)
- 分類(Hadoopのもと)
- クラスタリング(Hadoopのもと)
- コンテンツ - これまでのところ、私が知っている..
Mahoutのは、フィルタリングの3種類を提供しますベースのフィルタリング
私の最初の勧告の実装を開始するには、私はCollaborative filtering w hachはHadoopなしで簡単に実装できます。
協調フィルタリング -
- ユーザー基づき勧告
- 項目に基づく勧告
- スロップ1
- といくつかのより多くの...
Mahoutのインタフェース:
1 .DataModel 2. UserSimilarity 3. ItemSimilarity 4. UserNeighborhood 5.推薦
Iは、そのコンポーネントを理解し、類似点と近傍の複数の組み合わせを使用して、ユーザとアイテムベースの推薦を書かれています。
質問:地図-削減に基づく協調フィルタリング以来
- 、Mahoutのは0.13.0リリースでは完全に地図-削減廃止していますか?すべての共同フィルタリングアルゴリズムは廃止されましたか?その代わりに何がありますか? Map-ReduceはSparkに比べてパフォーマンスが遅いため、Sparkですか?
- 私がチェックしたMahoutは、SparkとFlinkのサポートも提供しています。 Mahout sparkは、2種類のフィルタリング - >火花アイテムの類似性とのスパーク行の類似性を提供します。しかし、私はjavaベースの例がJavaで推奨を作成するために見つかりませんでした。
- Mahout SparkはScalaとの互換性が優れていますが、スパークアイテムの類似性とJavaのスパーク行の類似性に基づいて推奨エンジンを作成できますか?いくつかの例も示唆してください。
- Mahout SparkはHadoopなしでスタンドアロンで実行できますか?これまでのところ私はSparkがHadoopの代替品であり、リアルタイムで処理できることを知っています。 mahout-spark_2.10-0.13.0.jarとmahout-spark_2.10-0.13.0-dependency-reduced.jar以外のすべてのライブラリを追加する必要がありますか?
- MahoutスパークはスタンドアロンApache Sparkと異なりますか?私はスタンドアロンのApache Sparkと一緒に行くことも考えています。
誰かが私を明確にしてください。
お返事ありがとうございます@rawkintrevo。 SparkでSolrをデータソースとして使用することも可能ですか? –
あなた自身の推薦者を書くなら、何かをデータソースとして使うことができ、SolrはSparkの読み書き可能なライブラリを提供します。 – pferrel
SolrをSpark RDDとして読む:https://github.com/lucidworks/spark-solr – rawkintrevo