2017-02-12 25 views
1

jsonファイルを寄せ木版の形式に変換するJavaプログラムでorg.apache.parquetを使用しています。しかし、私が何を試しても、私はparquetの独自のログをstdoutに無効にすることはできません。 寄木細工のロギングレベルを変更する方法はありますか、それとも完全にオフにするのですか?寄木細工ログレベルを変更する

標準出力にログメッセージの例...私は寄木細工を呼び出す方法の

12-Feb-2017 18:12:21 INFO: org.apache.parquet.hadoop.ColumnChunkPageWriteStore: written 427B for [verb] BINARY: 2,890 values, 385B raw, 390B comp, 1 pages, encodings: [BIT_PACKED, PLAIN_DICTIONARY], dic { 2 entries, 17B raw, 2B comp} 
12-Feb-2017 18:12:21 INFO: org.apache.parquet.hadoop.ColumnChunkPageWriteStore: written 3,256B for [postedTime] BINARY: 2,890 values, 3,585B raw, 3,180B comp, 1 pages, encodings: [BIT_PACKED, PLAIN_DICTIONARY], dic { 593 entries, 16,604B raw, 593B comp} 
12-Feb-2017 18:12:21 INFO: org.apache.parquet.hadoop.ColumnChunkPageWriteStore: written 4,611B for [message] BINARY: 2,890 values, 4,351B raw, 4,356B comp, 1 pages, encodings: [BIT_PACKED, PLAIN_DICTIONARY], dic { 2,088 entries, 263,329B raw, 2,088B comp} 

例...

public void writeToParquet(List<GenericData.Record> recordsToWrite, Path fileToWrite) throws IOException { 
    try (ParquetWriter<GenericData.Record> writer = AvroParquetWriter 
      .<GenericData.Record>builder(fileToWrite) 
      .withSchema(SCHEMA) 
      .withConf(new Configuration()) 
      .withCompressionCodec(CompressionCodecName.SNAPPY) 
      .build()) { 

     for (GenericData.Record record : recordsToWrite) { 
      writer.write(record); 
     } 
    } 
} 

答えて

0

私はこれが古い質問ですけど、私はちょうど遭遇しましたこの問題は、CDH 5.xでParquet with Hiveを使用した場合、回避策が見つかりました。ここをクリックしてください:https://stackoverflow.com/a/45572400/14186

おそらく他の人が役に立つと思います。

関連する問題