apache-hive

    0

    1答えて

    私はavroとハイブを初めて使いました。使用方法 tblproperties('avro.schema.url'='somewhereinHDFS/categories.avsc') 私は create table categories (id Int , dep_Id Int , name String) stored as avrofile tblproperties('avro.sche

    1

    1答えて

    私はデータベースプロジェクトを持っていると言います。私はtab1という名前のテーブルを作成し、その後tab2という名前のテーブルを作成しました。今、私はテーブルtab1を落としました。 ここで、私はdatabseプロジェクトからテーブルtab1を削除したというログを探します。私はこのテーブルを落とした時間、ユーザーなどを取得したいと思いますか? TBLS - ハイブメタストア:私は、次の中で監査ロ

    0

    1答えて

    Hive2コネクタを使用してImpalaにJDBC経由で接続を作成しようとしています。 <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>1.1.0</version> </dependency> <depen

    3

    4答えて

    ORCファイルを含むディレクトリがあります。私はそれが [_col0: int, _col1: bigint] 予想されるスキーマは [scan_nbr: int, visit_nbr: bigint] 私は寄木細工のファイルに照会しているように、このスキーマを使用してデータフレームを返す以下のコード var data = sqlContext.sql("SELECT * FROM orc

    0

    1答えて

    Apache Drillからハイブにアクセスするために、私はサービスとしてメタストアを開始しました。 これをhive-site.xmlのメタストアとして使用するために、hive.metastore.urisパラメータをthrift:// localhost:9083に設定しました。 メタストアサービスが作成された後、データベースを表示しようとしています。サービスとしてハイブを開始する前に作成された

    2

    2答えて

    Apache Hiveでは、左のデータからすべてのデータを保持し、可能な場合は右の表からデータを追加するために左結合したいテーブルが必要です。 これは2つのフィールド(material_idとlocation_id)に基づいているため、2つの結合を使用します。 これは、2つの伝統的な左で正常に動作しますが、加入: SELECT a.*, b.* FROM a INNER J

    1

    1答えて

    ORCテーブルを作成すると、スピードが飛躍的に向上することがわかります。ただし、ORCテーブルを分割してバケット化することで、さらに改善することはできますか?もしそうなら、既存のORCテーブルでパーティショニングとバケット処理を行う方法は?

    1

    1答えて

    1.2ではなく現在の(ハイブ2.1)バインディングを使用してsparkをビルドするにはどうすればよいですか? http://spark.apache.org/docs/latest/building-spark.html#building-with-hive-and-jdbc-support この動作の仕組みについては言及していません。 スパークはハイブ2.xでうまく動作しますか?

    0

    1答えて

    mongodbデータをハイブで使用しようとしています。文書にサブ文書の配列があります。どのようにして複合データをハイブにロードできますか?ここで は、サンプルJSONは次のとおりです。 { "_id" : ObjectId("582c8cb9913e2f21e062aaa6"), "acct" : NumberLong(12345), "history" : [

    0

    1答えて

    私は問題を起こしましたが、Docやインターネットで回答が見つかりませんでした。 私はプラットフォームを持っている: のHadoop 2.7.3が ハイブ2.1.0 のHBase 1.2.4 私はFLINK 1.1を統合したスパーク1.6 .3ローカルモードとヤーンモードで使用する。 私は、Hive(HiveContext with Spark)を使用して、スケーラシェルでデータを読み込むことができ