distributed-cache

    0

    1答えて

    からのものを削除し、私は add file largelookuptable を経由して分散キャッシュにコンテンツを追加して、HQLの束を実行することができます。 は今、私はこの場合largelookuptable1では、次の add file largelookuptable1; select blah from blahness using somehow largelookuptabl

    2

    3答えて

    私はHadoopの中に分散キャッシュにローカルファイルを追加しようとした場合、私は Exception in thread "main" java.lang.IllegalArgumentException: Wrong FS: file:/path/to/my.jar, expected: hdfs://ec2-xx-xx-xx-xxx.compute-1.amazonaws.com を取得

    1

    3答えて

    実稼働環境で誰かが速度を試したのだろうかと思います。これは現在CTP2版であり、私たちはそれを使うことを考えています。誰もそれを試しましたか?はいの場合はそれは肯定的な経験ですか?

    1

    1答えて

    私は、閲覧可能な並行優先度キューをシミュレートし、パフォーマンスの良い任意のインデックスからの削除を可能にするオープンソース(または独自の)フレームワークがあるのか​​疑問に思っていました。 今私はConcurrentSkipListをJDKで利用していますが、基本的にはこれを複数のJVMで共有する必要があります。 最も難しい部分は、私はこのような何かをやっているキューをポーリングするとき、次のと

    1

    1答えて

    私は個人的に.net分散キャッシュソリューションをコミットしていますが、この質問はすべてのプラットフォームで面白いと思います。 キャッシュ間に参照の整合性を維持しながらオブジェクトをキャッシュに格納できる分散キャッシングソリューション(または汎用戦略)がありますか? 例 - オブジェクトBar barを参照するオブジェクトFoo fooと、そのオブジェクトを参照するオブジェクトFoo foo2が同

    4

    2答えて

    マップ機能は、すべての入力ファイルを読み込む必要があります。そのファイルはまったく変更されません。読み取り専用です。分散キャッシュは私の考えを大きく助けてくれるかもしれませんが、それを使う方法は見つけられません。私がオーバーライドする必要があるpublic void configure(JobConf conf)関数は廃止予定です。さて、JobConfは推奨されていません。すべてのDistribu

    2

    1答えて

    を報告できませんでした。私はいくつかのXMLファイルをマッピングしており、すべての要素(ID>タグ> )からIDをフィルタリングしています。私はIDの特定のセットにジョブを制限したいので、私は大きなファイル(2.7ギガバイトで約250万行、IDとしてちょうど整数ですべての行)を読み込みます。だから私はDistributedCacheを使用し、セットアップ()でファイルを解析 - BufferedR

    3

    1答えて

    分散キャッシュ製品とは、CoherenceやHazelcastのようなものです。私は例としてHazelcastを使用します。それは複数のマップを変更するためアソシエイト()関数は、トランザクションにする必要があることを class DataState { Map<ID, Dog> dogs = Hazelcast.getMap("dog"); Map<ID, Owner> ow

    0

    1答えて

    Hadoopで新しくなった。私はHadoop 0.22を使用しています。私は地元のクラスパスにjarファイルを追加するために使用する必要がどのようなコードMapクラスで Job job = Job.getInstance(configuration); ... job.addArchiveToClassPath(new Path(JAR_DIR); ... :ドラ

    0

    1答えて

    私はApacheとYahooからDistributedCacheのチュートリアルを読みました。私はまだ1つのことについて混乱している。すべてのデータノードにコピーしたいファイルがあるとします。したがって、私は DistributedCache.addCacheFile(new URI(hdfsPath),job)をJob Driverに使用してファイルを利用可能にします。その後、私はDistrib