accumulo

    2

    2答えて

    は、私には、Sparkストリーミング+ Accumuloコネクタとの完全な使用例を探しています。 現在、私はAccumuloテーブルにスパークストリーミング結果を書き込むしようとしているが、私はBatchWriterのための持つNotSerializableExceptionを取得しています。 BatchWriterを直列化する方法の例を教えてもらえますか?下記のコードはAccumuloの文書に基

    0

    1答えて

    Range.exact(行、cf)でスキャンを作成し、それを使ってテーブルを読み取ることができます。しかし、タイムスタンプフィルタを追加して、 "後で作成された行のみを表示する"などのフィルタリングができます。 Range.exactにlongを追加する方法があることは知っていますが、正確な日付が必要ではないので、私の場合には合いません。 私はTimestampFilterクラスについて読んでいま

    1

    1答えて

    一つはAccumulo VisibilityFilter変更の可能性に言及:私たちは、そのスレッドに質問よりもわずかに異なるニーズを持っている How to determine Accumulo table visibilities? を、私たちはやって行くためにどのように思っていました。 2015年4月22日のレスポンス、つまりVisibilityFilterの変更方法でクリストファーが提案した

    1

    1答えて

    私はAccumuloとSolrの両方に取り込まれたデータを同じソースXMLから比較しようとしています。 Accumuloに取り込まれたデータはレガシーコードであり、Solrは新しいコードです。 SolrからSolrCloudを使用してデータを簡単に抽出し、読みやすいCSVまたはJSONを選択することができます。しかし、私はAccumuloのデータを簡単に表示する方法が失われています。私はデータを見

    0

    2答えて

    私はGeomesaを使用してテンポ空間データをGeomesaに保存することを前提に、テンポ空間以外のデータも保存したいと考えています。 Geomesa APIにはどのようなものがありますか?Geomesa Native APIまたはGeomesa DataStore API? GeomesaのネイティブAccumulo APIにアクセスして、地理空間インデックスや時差インデックスを使用せずにデータ

    0

    2答えて

    私はAccumuloのドキュメントを読んでいました。私は二次索引を見つけました。これらの別々のテーブルは、作成する必要がありますか、または内部的に作成されていますか?

    0

    1答えて

    シェイプファイル(TM_WORLD_BORDERS-0.3.shp)からネイティブAPIを介してgeomesa(累積)にデータを取り込みます。次に、ネイティブApiを使用して、ユーザーが指定したポイント(lat、lon)を含むgeomesaのデータを照会します(基本的に、ポイントを含むジオメサの任意のポリゴン)。私は、クエリを実行すると http://docs.geotools.org/lates

    0

    1答えて

    既存のRDBMSをNOSQLデータベースに移行しようとしています。私たちはデータウェアハウジングにおける代理キーの概念を持っているので、NOSQLデータベースに関してこれらをどのように扱いますか? 既存のRDBMSをNOSQLデータベースに移行する際のNOSQLデータベースの優れたプラクティスは何ですか? Accumulo、CassandraまたはHbaseの実装を探しています。 助けてください

    0

    1答えて

    NoSqlデータベースに既存のリレーショナルデータウェアハウスを移行するソリューションを構築しようとしています。私はcassandraまたはaccumuloまたはHbaseを使用することを考えています。 私が直面している問題は です。既存のRDBMSには参照データ(コード、ソースシステムで使用されている説明)があります。 例 - 勘定コード表は勘定タイプcd、勘定コードcdです。どちらもソースシス

    1

    1答えて

    Accumuloデータベースに大量のデータを取り込んでいます。 私のタブレット分割閾値は4Gです。 私のプログラムの作業中に、錠剤がいっぱいになって、いずれかが4Gを超えると、新しいタブレットが作成されますが、は常に空のままです。最終的に私があるよりも、見 > 200錠作成した(最初の数は30だった)が、それらのすべてが空である - 次のコマンドで確認: hadoop fs -du -h /app