mapr

    0

    1答えて

    Hbaseで特定の値で終了する行をフェッチする方法はありますか?例えば、私は私のテーブル D1|V1 D2|V1 D3|V2 D4|V1 にrowskeysの下に持って 今、私はV1で終わるすべての行を必要とします。この例では、D1、D2、およびD4を取得する必要があります。 いくつかのいずれかが、HBaseの

    1

    1答えて

    ハイブでテーブルのインデックスを作成すると、ドリルでハイブ・プラグインを使用してハイブ・テーブルにクエリを実行しながらインデックス・インデックスを使用します。 これは、ハイブでパーティション化されたテーブルを持っており、analyticsクエリではwhere句にパーティション化された非パーティション化カラムがあるため、ハイブレーションで非パーティション化カラムをインデックス化する必要があります。

    0

    1答えて

    大量のtimeseriesデータを格納するのに適したデータベースを探しています。これはマイクロ秒のタイムスタンプをサポートしています。どんな勧告? 適切なデータベース技術が私のMapRクラスターと一緒に働くことができればいいと思います。私はOpenTSDBをチェックアウトしましたが、問題は、ミリ秒の精度でタイムスタンプを格納することしかサポートしていないことです。 希望は:-) 敬具、ジュリアン君

    0

    1答えて

    を返す「のような」私は、Apacheのドリルに1つの単純なクエリを実行しようとしています上の2つのテーブル間の結合:は select OTT.Handset, OTT.Handset_OS from datasource.`./OTT_DETAILS_V` as OTT, datasource.`./OS` as D where OTT.Handset_OS like concat('%', D

    0

    1答えて

    Apache Communityが提供する標準Hadoopディストリビューションを使用しています。販売分析ソリューションの開発に取り組んでいます。次のドキュメントに基づいています。 https://wiki.apache.org/hadoop/Distributions%20and%20Commercial%20Support Hadoopはさまざまなディストリビューションと商用サポートを提供する

    0

    1答えて

    スパークジョブでエラーが発生していますが、エラーは通常次のようなものです。クラスター内のノードには約256GBのメモリーと約8個のコアがあります。また、エグゼキューター・メモリーを4GBと4GBのオーバーヘッドとして指定しています。シャッフルについては、メモリの割合を0.5と指定しましたが、これはメモリの問題のようには思えません。しかし、私は何が問題になるかもしれないかを理解することができず、これ

    2

    1答えて

    MapSpreadのPySparkは動作しますか(互換性はありますか? 任意のコード例ですか? 私はそれを試してみましたが、例外にスカラ座で strLoc = '/Path1:Stream1' protocol = 'file://' if (strLoc.startswith('/') or strLoc.startswith('\\')) else '' from pyspark.stre

    0

    1答えて

    20ノードクラスタにMapRをインストールするためのステップバイステップのプロセスを知りたいと思います。また、エッジノードも必要です。私はEdgeノードを使ってハントープ分布をインストールしていません。助けてください。